Risikoklassen im EU AI Act verstehen
Nicht das Tool zählt zuerst, sondern der Einsatz
Beim EU AI Act stolpern die meisten Unternehmen sehr früh über drei Begriffe: minimales Risiko, begrenztes Risiko und Hochrisiko. Klingt erstmal sauber. In der Praxis sorgt es eher für Unsicherheit.
Ist ChatGPT automatisch minimales Risiko? Ist ein Website-Chatbot schon begrenztes Risiko? Und was ist mit einem Recruiting-Tool, das Bewerber nur vorsortiert, aber keine finale Entscheidung trifft?
Die gute Nachricht: Die Risikoklassen im EU AI Act lassen sich verständlich erklären. Die schlechte Nachricht: Es reicht nicht, einfach eine Tool-Liste auswendig zu lernen. Entscheidend ist fast immer der konkrete Einsatzzweck.
Dieser Beitrag erklärt, wie Unternehmen ihre KI-Systeme unter dem EU AI Act praktisch einordnen können. Ohne Juristendeutsch, dafür mit klaren Beispielen und einer Logik, die im Alltag funktioniert.
Erstmal: Nicht das Tool zählt zuerst, sondern der Einsatz
Das ist die wichtigste Regel. Viele Unternehmen suchen nach einer Liste wie: ChatGPT = unkritisch, Recruiting-KI = hochriskant, Chatbot = begrenztes Risiko. So einfach funktioniert der AI Act nicht.
Zu kurz gedacht
„Wir nutzen nur ChatGPT, also ist das minimales Risiko.“ Das kann stimmen. Muss aber nicht. Wenn ein Sprachmodell in sensible Prozesse eingebunden ist, wird die Lage schnell komplexer.
Die bessere Frage
Was macht das System konkret? Unterstützt es nur bei Texten? Interagiert es mit Kunden? Bewertet oder priorisiert es Menschen? Genau daraus ergibt sich die Risikoklasse.
Ein und dasselbe Basismodell kann also in einem Marketing-Kontext relativ unkritisch sein und im Recruiting oder bei der Kreditvergabe in einen viel sensibleren Bereich rutschen.
Die drei relevanten Risikoklassen im Überblick
Für die Praxis von Unternehmen sind drei Klassen besonders wichtig: minimales Risiko, begrenztes Risiko und Hochrisiko. Daneben gibt es noch verbotene Praktiken. Das ist aber keine normale Risikoklasse, sondern die rote Linie des AI Act.
Minimales Risiko
Die meisten alltäglichen Assistenzsysteme fallen hier hinein. Weniger Produktpflichten, aber nicht automatisch null Governance.
Begrenztes Risiko
Vor allem Transparenzpflichten. Nutzer sollen erkennen können, dass sie mit KI interagieren oder KI-generierte Inhalte sehen.
Hochrisiko
Wenn KI in sensiblen Bereichen eingesetzt wird, etwa bei Beschäftigung, Bildung, Kredit oder kritischen Infrastrukturen, steigen die Anforderungen massiv.
Minimales Risiko: Der häufigste Fall, aber nicht pflichtfrei
Die meisten KI-Tools, die Unternehmen heute im Alltag nutzen, fallen eher in den Bereich des minimalen Risikos. Das betrifft zum Beispiel Textentwürfe, interne Zusammenfassungen, Brainstorming, Übersetzungen oder Design-Entwürfe.
Das bedeutet aber nicht: „Darum müssen wir uns gar nicht kümmern.“ Auch minimale Risiken können operative Probleme erzeugen, wenn Teams sensible Daten in offene Tools eingeben, Inhalte ohne Review veröffentlichen oder niemand weiß, welche KI-Systeme eigentlich im Einsatz sind.
Typische Beispiele
Interne Textentwürfe
Ideenfindung mit LLMs
Meeting-Zusammenfassungen
Unterstützende Coding-Hilfe
Trotzdem prüfen
Welche Daten gehen hinein?
Wer nutzt das Tool?
Gibt es Review vor Veröffentlichung?
Ist der Einsatzzweck sauber dokumentiert?
Begrenztes Risiko: Hier geht es vor allem um Transparenz
Begrenztes Risiko ist für viele Unternehmen die am meisten unterschätzte Kategorie. Nicht, weil sie besonders komplex wäre, sondern weil sie sehr nah am Alltag liegt.
Wenn ein Nutzer mit einem KI-Chatbot interagiert, wenn Inhalte klar KI-generiert sind oder wenn synthetische Medien eingesetzt werden, geht es oft um Transparenz. Menschen sollen erkennen können, dass KI im Spiel ist.
Das betrifft nicht nur große Plattformen, sondern auch mittelständische Websites, Kundenservices, Marketing-Teams und SaaS-Produkte mit Assistenzfunktionen.
Chatbots und KI-Assistenten
Wenn ein Nutzer mit einem KI-System spricht, sollte klar sein, dass keine menschliche Person antwortet. Das ist eine klassische Transparenzpflicht im Bereich begrenztes Risiko.
KI-generierte Inhalte
Wenn ihr Inhalte veröffentlicht, die stark generativ erzeugt wurden, solltet ihr prüfen, ob eine Kennzeichnung oder zumindest klare interne Regeln zur Offenlegung nötig sind.
Synthetische Medien
Bilder, Stimmen oder Videos mit hohem Authentizitätseindruck sind besonders sensibel. Hier sollte Transparenz nicht erst am Ende diskutiert werden, sondern schon im Produktionsprozess mitlaufen.
Hochrisiko: Wenn KI über Menschen oder kritische Bereiche mitentscheidet
Hochrisiko ist der Bereich, bei dem die meisten Unternehmen intuitiv sagen: „Das betrifft uns wahrscheinlich nicht.“ Genau deshalb wird er oft zu spät erkannt.
Der EU AI Act schaut hier auf sensible Einsatzfelder, nicht nur auf die Technologie selbst. Wenn KI in Bereichen eingesetzt wird, die Zugang zu Arbeit, Bildung, Kredit, Leistungen oder Sicherheit beeinflussen, wird es ernst.
Die häufigste Fehleinschätzung: „Ein Mensch entscheidet ja am Ende“
Das ist einer der wichtigsten Denkfehler bei der Risikoeinstufung. Viele Teams glauben, ein System könne nicht kritisch sein, solange am Ende noch ein Mensch auf „Bestätigen“ klickt.
Das stimmt so nicht. Wenn die KI Kandidaten vorsortiert, Fälle priorisiert, Scores vergibt oder bestimmte Optionen ausblendet, prägt sie den Entscheidungsraum schon vorher. Der Mensch sieht dann nicht mehr die volle Realität, sondern eine KI-vorstrukturierte Auswahl.
Genau deshalb ist nicht nur die Endentscheidung relevant, sondern der Einfluss der KI auf den Prozess insgesamt.
Vier Fragen für die erste Einstufung
Wenn ihr ein KI-System bewerten wollt, braucht ihr am Anfang keine perfekte juristische Analyse. Diese vier Fragen bringen euch in den meisten Fällen erstaunlich weit:
1. Betrifft das System Menschen direkt?
Bewerber, Kunden, Beschäftigte, Schüler oder andere Betroffene?
2. Interagiert das System mit Nutzern?
Dann sind Transparenzpflichten oft sofort ein Thema.
3. Bewertet oder priorisiert das System?
Scoring, Ranking, Filterung und Empfehlung sind deutlich sensibler als reine Textassistenz.
4. Welche Daten gehen hinein?
Je sensibler oder personenbezogener die Daten, desto sorgfältiger müsst ihr prüfen.
Die größte Gefahr ist nicht Komplexität, sondern Aufschieben
Viele Unternehmen glauben, die Risikoeinstufung müsse sofort perfekt sein. Das führt oft dazu, dass sie gar nicht anfangen. Sinnvoller ist ein pragmischer erster Stand: System erfassen, Einsatzzweck dokumentieren, vorläufige Risikoklasse festhalten, offene Fragen markieren und dann die kritischen Fälle vertieft prüfen.
Das ist nicht unsauber. Das ist bessere Praxis als monatelanges Warten auf die perfekte Lösung.
Typische Fehler bei der Risikoeinstufung
Typische Fehler
„Das ist ein bekanntes Tool, also ist es harmlos.“
„Ein Mensch ist im Prozess, also ist es nicht kritisch.“
„Wir stufen später ein, wenn mehr Klarheit da ist.“
„Der Anbieter wird das schon geregelt haben.“
Besser so
Use Case statt Produktnamen bewerten.
Scoring, Ranking und Priorisierung besonders kritisch prüfen.
Mit einer vorläufigen Einstufung starten.
Anbieterunterlagen aktiv einfordern.
Compliance heißt hier vor allem: verstehen, einordnen, dokumentieren
Für die meisten Unternehmen läuft die praktische Arbeit bei den Risikoklassen nicht auf komplizierte Theorie hinaus, sondern auf drei relativ nüchterne Schritte:
1. Wisst, welche KI-Systeme ihr nutzt.
2. Versteht, was diese Systeme konkret tun.
3. Haltet nachvollziehbar fest, warum ihr sie wie eingestuft habt.
Damit ist nicht jede Spezialfrage geklärt. Aber ihr habt die Grundlage gelegt, auf der Compliance überhaupt erst sinnvoll möglich wird.
Der schnellste Weg zur Risikoeinstufung
SimpleAct ist genau für diesen Schritt gebaut: KI-Systeme erfassen, regelbasiert einstufen, Maßnahmen sichtbar machen und die Ergebnisse dokumentiert exportieren. Ohne Excel-Chaos, ohne verstreute Einzelnotizen und ohne dass jede Bewertung wieder von vorne beginnt.
Dieser Beitrag dient der allgemeinen Information und stellt keine Rechtsberatung dar. Bei Unsicherheiten empfehlen wir eine rechtliche Prüfung. Stand: März 2026.
Über SimpleAct: SimpleAct ist eine deutsche Compliance-Plattform, die Unternehmen bei der strukturierten Dokumentation ihrer KI-Systeme nach EU AI Act unterstützt. Von der Erfassung über die Risikobewertung bis zum exportfähigen Audit-Nachweis. Alles an einem Ort.
Tags
Kamill Jarzebowski | SimpleAct
Author · SimpleAct Team
