Expertenwissen
Künstliche Intelligenz ist längst kein Zukunftsthema mehr – sie ist überall: von Chatbots, die Kundenanfragen beantworten, bis hin zu Algorithmen, die medizinische Diagnosen unterstützen. Doch nicht jedes digitale System, das „intelligent“ wirkt, ist tatsächlich ein KI-System im Sinne des AI Acts.
Die Europäische Union hat mit dem AI Act einen klaren rechtlichen Rahmen geschaffen, um den sicheren und verantwortungsvollen Einsatz von KI zu gewährleisten. Doch eine zentrale Frage bleibt: Wann gilt eine Technologie überhaupt als KI?
In diesem Beitrag erklären wir einfach und verständlich, wie die EU den Begriff „KI-System“ definiert, welche Merkmale entscheidend sind und warum diese Abgrenzung so wichtig ist – nicht nur für Unternehmen, sondern für uns alle.

Zweck der Leitlinien
Die Leitlinien sollen Klarheit darüber schaffen, welche Systeme unter die Definition eines „KI-Systems“ gemäß dem AI Act (Regulation (EU) 2024/1689) fallen. Dies ist wichtig, da nur als „KI-Systeme“ eingestufte Technologien den Anforderungen und Regulierungen des AI Acts unterliegen.
Die Definition hilft Entwicklern, Anbietern und Behörden, den Geltungsbereich des Gesetzes besser zu verstehen. Die Leitlinien sind nicht verbindlich, sondern als Orientierung gedacht.
Definition eines KI-Systems laut AI Act
Laut Artikel 3 (1) des AI Acts ist ein KI-System:
„Ein maschinengestütztes System, das mit unterschiedlichem Grad an Autonomie arbeitet und möglicherweise nach seiner Einführung anpassungsfähig ist. Es nutzt Eingaben, um Ausgaben wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen zu erzeugen, die physische oder virtuelle Umgebungen beeinflussen können.“
Diese Definition umfasst sieben zentrale Merkmale, die jeweils detailliert erläutert werden.

Die 7 zentralen Merkmale eines KI-Systems
1. Maschinengestütztes System
KI-Systeme bestehen aus Hard- und Software, die ihre Funktionen ermöglichen.
Hardware: Prozessoren, Speicher, Netzwerke etc.
Software: Algorithmen, Modelle, Betriebssysteme, Datenverarbeitung.
Auch Quantencomputer oder biologische Systeme können als KI-Systeme gelten, wenn sie Berechnungen durchführen.
2. Autonomie (gewisser Grad an Eigenständigkeit)
Ein KI-System kann in verschiedenen Autonomiegraden operieren:
Manuell gesteuert (sehr wenig Autonomie).
Teilautonom (erfordert menschliche Aufsicht oder Eingaben).
Vollautonom (führt Aufgaben ohne menschliches Zutun aus).
Systeme, die komplett manuell gesteuert werden, sind keine KI-Systeme.
3. Anpassungsfähigkeit nach der Einführung
Einige KI-Systeme lernen nach ihrer Bereitstellung weiter (z. B. durch Selbstlernen oder automatische Anpassung).
Allerdings muss ein KI-System nicht zwingend anpassungsfähig sein, um als solches zu gelten.
4. Zielorientierung eines KI-Systems
KI-Systeme arbeiten nach bestimmten Zielen, die explizit (klar definiert) oder implizit (aus dem Verhalten ableitbar) sein können.
Beispiel: Ein virtueller Assistent kann das Ziel haben, Benutzerfragen zu beantworten (implizit), während das Unternehmen ihn dafür entwickelt hat, den Kundenservice zu verbessern (explizit).
5. Ableitung von Ausgaben durch KI-Techniken
Ein KI-System „schließt“ aus Eingabedaten auf ein Ergebnis.
Dies unterscheidet es von herkömmlicher Software, die nur strikt vordefinierte Regeln befolgt.
KI nutzt Techniken wie:
Maschinelles Lernen (überwachtes, unüberwachtes, verstärkendes Lernen).
Wissensbasierte Systeme (logische Schlussfolgerungen, Expertensysteme).
6. Erzeugung von Ausgaben, die Umgebungen beeinflussen
KI-Systeme können folgende Arten von Ergebnissen liefern:
Vorhersagen (z. B. Wetterprognosen, Nachfrageprognosen).
Inhalte (z. B. KI-generierte Texte oder Bilder).
Empfehlungen (z. B. Produktempfehlungen in Online-Shops).
Entscheidungen (z. B. automatisierte Kreditgenehmigung).
Ein KI-System hat oft Einfluss auf physische (z. B. Roboter, Fahrzeuge) oder virtuelle Umgebungen (z. B. Suchmaschinen, soziale Medien).
7. Interaktion mit der Umgebung
KI-Systeme beeinflussen ihre Umgebung aktiv, indem sie mit Menschen, Maschinen oder Software interagieren.
Dies kann physisch (z. B. Roboter) oder virtuell (z. B. Chatbots) sein.

Was gilt NICHT als KI-System?
Nicht alle automatisierten Systeme sind KI-Systeme. Die Leitlinien nennen einige Beispiele:
✅ Erfüllen die KI-Definition NICHT:
Einfache regelbasierte Software
Beispiel: Ein Taschenrechner oder eine Excel-Formel, die nur explizit programmierte Regeln ausführt.
Klassische Heuristiken
Beispiel: Ein Schachprogramm, das feste Entscheidungsregeln nutzt, aber nicht aus Daten lernt.
Grundlegende Datenverarbeitung
Beispiel: Datenbanken, Tabellenkalkulationen oder Reporting-Tools, die nur Daten abrufen und sortieren.
Optimierungsalgorithmen
Beispiel: Ein mathematisches Modell zur Produktionsplanung, das rein vordefinierte Berechnungen anstellt.
Einfache Prognosemodelle
Beispiel: Ein Modell, das die Durchschnittstemperatur der letzten 10 Tage als Prognose für den nächsten Tag verwendet.
Warum ist diese Definition wichtig?
Die Definition eines KI-Systems bestimmt, welche Systeme dem AI Act unterliegen. Das Gesetz arbeitet mit einem risikobasierten Ansatz:
Verbotene Praktiken (z. B. Social Scoring durch den Staat).
Hochrisiko-KI (z. B. KI in der Medizin oder im Finanzwesen, die strenge Anforderungen erfüllen muss).
Transparenzanforderungen für bestimmte KI-Modelle (z. B. Deepfakes oder Chatbots).
Die meisten KI-Systeme unterliegen keinen oder nur wenigen Regulierungen, sofern sie keine hohen Risiken für Grundrechte mit sich bringen.
Fazit
Die Leitlinien helfen dabei, klar zu definieren, welche Systeme als KI gelten und welche nicht. Die Abgrenzung ist entscheidend, um den AI Act gezielt anzuwenden und übermäßige Regulierungen für harmlose Software zu vermeiden.
Falls du eine noch kürzere Zusammenfassung oder spezifische Schwerpunkte möchtest, sag einfach Bescheid! 😊