Der European AI Act

Die 10 Dinge, die Software-Teams jetzt wissen müssen

Künstliche Intelligenz ist längst Alltag.

Sie steckt in Suchmaschinen, Empfehlungssystemen, Recruiting-Tools, Diagnosesoftware und immer mehr Business-Anwendungen.

Mit dem EU AI Act schafft Europa jetzt den ersten umfassenden Rechtsrahmen für KI.

Für viele Entwickler:innen klingt das zunächst nach Regulierung.
In Wirklichkeit verändert der AI Act etwas viel Grundsätzlicheres:

Er verändert, wie wir Software entwickeln.

AI Governance, Risk Management, Data Quality und Monitoring werden künftig Teil des normalen Software-Lifecycles – genauso wie Performance, Security oder Usability.

Hier sind die 10 Dinge, die jedes Software-Team jetzt verstehen sollte.


1. Der AI Act folgt einem risikobasierten Ansatz

Das Grundprinzip ist simpel:

Nicht jede KI ist gleich riskant.

Der AI Act unterscheidet vier Kategorien:

  • Unacceptable Risk – verboten
  • High Risk – stark reguliert
  • Limited Risk – Transparenzpflichten
  • Minimal Risk – kaum Regulierung

Typische High-Risk-Systeme sind etwa KI in:

  • Recruiting-Systemen
  • Kreditentscheidungen
  • medizinischer Diagnostik
  • kritischer Infrastruktur

Für Entwicklungsteams bedeutet das:

Der erste Schritt jedes KI-Projekts ist eine Risk Classification.


2. High-Risk-KI braucht ein Qualitätsmanagement

High-Risk-Systeme müssen ein strukturiertes Quality Management System (QMS) haben.

Dazu gehören:

  • dokumentierte Entwicklungsprozesse
  • Risikomanagement über den gesamten AI-Lifecycle
  • Test- und Validierungsstrategien
  • klare Verantwortlichkeiten
  • Governance-Strukturen

Viele dieser Anforderungen erinnern an etablierte Standards wie:

  • ISO 9001
  • ISO/IEC 27001
  • ISO/IEC 25010

Die Konsequenz:

AI Compliance wird Teil von Software Engineering Governance.


3. Datenqualität wird regulatorisch relevant

KI ist nur so gut wie ihre Trainingsdaten.

Der AI Act verlangt daher klare Data Governance.

Trainingsdaten müssen:

  • repräsentativ sein
  • möglichst frei von Bias sein
  • dokumentiert werden
  • nachvollziehbar erhoben sein

Dazu gehören unter anderem:

  • Dataset Documentation
  • Data Management Practices
  • Bias Risk Assessments

Fehlerhafte Trainingsdaten sind damit nicht nur ein Qualitätsproblem.

Sie können ein regulatorisches Risiko sein.


4. Transparenz wird Pflicht

Nutzer müssen wissen, wenn sie mit KI interagieren.

Beispiele:

  • Chatbots müssen sich als KI zu erkennen geben
  • AI-generierte Inhalte müssen gekennzeichnet sein
  • automatisierte Systeme müssen erklärbar sein

Das betrifft viele Anwendungen:

  • Customer Support Bots
  • Marketing-Automatisierung
  • generative KI

Transparenz wird damit zu einem UX- und Produktdesign-Thema.


5. Human Oversight bleibt Pflicht

Der AI Act verfolgt ein klares Prinzip:

KI darf unterstützen – aber nicht unbeaufsichtigt entscheiden.

Besonders bei High-Risk-Systemen müssen Menschen eingreifen können.

Zum Beispiel bei:

  • Kreditentscheidungen
  • Bewerberauswahl
  • medizinischen Diagnosen
  • biometrischer Identifikation

Software muss daher Mechanismen bieten, um:

  • Entscheidungen zu überprüfen
  • Systeme zu stoppen
  • Ergebnisse zu korrigieren

6. Logging und Traceability sind Pflicht

High-Risk-KI muss auditierbar sein.

Dafür verlangt der AI Act unter anderem:

  • Logging von Systementscheidungen
  • Dokumentation von Modellversionen
  • Nachvollziehbarkeit der Trainingsdaten
  • technische Dokumentation der Architektur

Kurz gesagt:

AI Traceability wird zum Standard.

Für Dev-Teams bedeutet das:

MLOps, Modellversionierung und Logging sind künftig nicht nur Best Practice – sondern regulatorische Pflicht.


7. KI endet nicht beim Deployment

Der AI Act betrachtet KI über den gesamten Lebenszyklus.

Unternehmen müssen Systeme auch im Betrieb überwachen.

Dazu gehört:

  • kontinuierliches Monitoring
  • Risikoanalyse im Live-Betrieb
  • Meldung schwerwiegender Vorfälle

Dieses Prinzip nennt sich Post-Market Monitoring.

Oder anders gesagt:

Continuous AI Quality Assurance.


8. Foundation Models bekommen eigene Regeln

Der AI Act unterscheidet auch General Purpose AI (GPAI).

Dazu gehören große Foundation Models, die in vielen Anwendungen eingesetzt werden können.

Für Anbieter gelten zusätzliche Anforderungen, etwa:

  • Dokumentation der Trainingsdaten
  • Sicherheitsbewertungen
  • Maßnahmen gegen Missbrauch

Besonders leistungsfähige Modelle gelten als Systemic Risk AI Models.


9. Verstöße werden teuer

Der AI Act sieht hohe Strafen vor.

Bis zu:

  • 35 Millionen Euro
  • 7 % des weltweiten Jahresumsatzes

Damit bewegt sich der AI Act in einer ähnlichen Dimension wie die DSGVO.

AI Compliance ist damit nicht nur ein Technikthema – sondern ein strategisches Risiko-Management-Thema.


10. AI Governance wird Teil moderner Softwareentwicklung

Der wichtigste Effekt ist kulturell.

KI-Systeme müssen künftig entwickelt werden mit:

  • AI Risk Management
  • AI Governance
  • AI Compliance
  • Responsible AI
  • AI Quality Assurance

Damit entsteht eine neue Disziplin:

AI Quality Engineering

Für Entwickler:innen, Tester:innen und Architekt:innen bedeutet das:

Disziplinen wie

  • Risk-Based Testing
  • Traceability
  • Monitoring
  • Qualitätsmanagement

werden plötzlich zentral für KI-Projekte.


Die 5 größten Irrtümer über den AI Act

1. „Der AI Act gilt nur für KI-Unternehmen.“

Falsch.
Auch Unternehmen, die KI nur in ihre Software integrieren, können betroffen sein.

2. „Das betrifft nur große Konzerne.“

Auch Startups und mittelständische Softwareunternehmen müssen die Anforderungen erfüllen.

3. „Der AI Act verbietet KI.“

Der AI Act verbietet nur sehr wenige Anwendungen, etwa bestimmte Formen von Social Scoring.

4. „Das betrifft nur Data Scientists.“

Der AI Act betrifft:

  • Produktentwicklung
  • Softwarearchitektur
  • Testing
  • Compliance
  • Management

5. „Das kommt erst in ein paar Jahren.“

Viele Regelungen treten schrittweise ab 2025 und 2026 in Kraft.


Fazit

Der EU AI Act wird für KI vermutlich das, was die DSGVO für Daten war.

Ein Wendepunkt.

Unternehmen, die sich früh mit

  • AI Governance
  • AI Risk Management
  • AI Quality Engineering

beschäftigen, werden langfristig deutlich besser aufgestellt sein.


Kurzfassung

  • AI wird reguliert wie kritische Software
  • Risk Classification wird Pflicht
  • Datenqualität wird regulatorisch relevant
  • Traceability, Logging und Monitoring werden Standard
  • AI Governance wird Teil moderner Softwareentwicklung