Back to BlogRisikoklassen im EU AI Act einfach erklärt: Minimal, Limited und High-Risk
EU AI Act

Risikoklassen im EU AI Act einfach erklärt: Minimal, Limited und High-Risk

Was bedeuten minimales Risiko, begrenztes Risiko und Hochrisiko im EU AI Act? Dieser Beitrag zeigt, wie Unternehmen KI-Systeme praktisch einstufen und typische Fehler vermeiden.

March 26, 2026
Kamill Jarzebowski | SimpleAct
7 min read
EU AI ActRisikoeinstufungKI-RisikobewertungHigh-Risk AILimited RiskMinimal RiskKI-Compliance
Risikoklassen im EU AI Act einfach erklärt: Minimal, Limited und High-Risk

Risikoklassen im EU AI Act verstehen

Nicht das Tool zählt zuerst, sondern der Einsatz

Beim EU AI Act stolpern die meisten Unternehmen sehr früh über drei Begriffe: minimales Risiko, begrenztes Risiko und Hochrisiko. Klingt erstmal sauber. In der Praxis sorgt es eher für Unsicherheit.

Ist ChatGPT automatisch minimales Risiko? Ist ein Website-Chatbot schon begrenztes Risiko? Und was ist mit einem Recruiting-Tool, das Bewerber nur vorsortiert, aber keine finale Entscheidung trifft?

Die gute Nachricht: Die Risikoklassen im EU AI Act lassen sich verständlich erklären. Die schlechte Nachricht: Es reicht nicht, einfach eine Tool-Liste auswendig zu lernen. Entscheidend ist fast immer der konkrete Einsatzzweck.

Dieser Beitrag erklärt, wie Unternehmen ihre KI-Systeme unter dem EU AI Act praktisch einordnen können. Ohne Juristendeutsch, dafür mit klaren Beispielen und einer Logik, die im Alltag funktioniert.


Erstmal: Nicht das Tool zählt zuerst, sondern der Einsatz

Das ist die wichtigste Regel. Viele Unternehmen suchen nach einer Liste wie: ChatGPT = unkritisch, Recruiting-KI = hochriskant, Chatbot = begrenztes Risiko. So einfach funktioniert der AI Act nicht.

Zu kurz gedacht

„Wir nutzen nur ChatGPT, also ist das minimales Risiko.“ Das kann stimmen. Muss aber nicht. Wenn ein Sprachmodell in sensible Prozesse eingebunden ist, wird die Lage schnell komplexer.

Die bessere Frage

Was macht das System konkret? Unterstützt es nur bei Texten? Interagiert es mit Kunden? Bewertet oder priorisiert es Menschen? Genau daraus ergibt sich die Risikoklasse.

Ein und dasselbe Basismodell kann also in einem Marketing-Kontext relativ unkritisch sein und im Recruiting oder bei der Kreditvergabe in einen viel sensibleren Bereich rutschen.


Die drei relevanten Risikoklassen im Überblick

Für die Praxis von Unternehmen sind drei Klassen besonders wichtig: minimales Risiko, begrenztes Risiko und Hochrisiko. Daneben gibt es noch verbotene Praktiken. Das ist aber keine normale Risikoklasse, sondern die rote Linie des AI Act.

Minimales Risiko

Die meisten alltäglichen Assistenzsysteme fallen hier hinein. Weniger Produktpflichten, aber nicht automatisch null Governance.

Begrenztes Risiko

Vor allem Transparenzpflichten. Nutzer sollen erkennen können, dass sie mit KI interagieren oder KI-generierte Inhalte sehen.

Hochrisiko

Wenn KI in sensiblen Bereichen eingesetzt wird, etwa bei Beschäftigung, Bildung, Kredit oder kritischen Infrastrukturen, steigen die Anforderungen massiv.


Minimales Risiko: Der häufigste Fall, aber nicht pflichtfrei

Die meisten KI-Tools, die Unternehmen heute im Alltag nutzen, fallen eher in den Bereich des minimalen Risikos. Das betrifft zum Beispiel Textentwürfe, interne Zusammenfassungen, Brainstorming, Übersetzungen oder Design-Entwürfe.

Das bedeutet aber nicht: „Darum müssen wir uns gar nicht kümmern.“ Auch minimale Risiken können operative Probleme erzeugen, wenn Teams sensible Daten in offene Tools eingeben, Inhalte ohne Review veröffentlichen oder niemand weiß, welche KI-Systeme eigentlich im Einsatz sind.

Typische Beispiele

Interne Textentwürfe

Ideenfindung mit LLMs

Meeting-Zusammenfassungen

Unterstützende Coding-Hilfe

Trotzdem prüfen

Welche Daten gehen hinein?

Wer nutzt das Tool?

Gibt es Review vor Veröffentlichung?

Ist der Einsatzzweck sauber dokumentiert?


Begrenztes Risiko: Hier geht es vor allem um Transparenz

Begrenztes Risiko ist für viele Unternehmen die am meisten unterschätzte Kategorie. Nicht, weil sie besonders komplex wäre, sondern weil sie sehr nah am Alltag liegt.

Wenn ein Nutzer mit einem KI-Chatbot interagiert, wenn Inhalte klar KI-generiert sind oder wenn synthetische Medien eingesetzt werden, geht es oft um Transparenz. Menschen sollen erkennen können, dass KI im Spiel ist.

Das betrifft nicht nur große Plattformen, sondern auch mittelständische Websites, Kundenservices, Marketing-Teams und SaaS-Produkte mit Assistenzfunktionen.


1

Chatbots und KI-Assistenten

Wenn ein Nutzer mit einem KI-System spricht, sollte klar sein, dass keine menschliche Person antwortet. Das ist eine klassische Transparenzpflicht im Bereich begrenztes Risiko.

2

KI-generierte Inhalte

Wenn ihr Inhalte veröffentlicht, die stark generativ erzeugt wurden, solltet ihr prüfen, ob eine Kennzeichnung oder zumindest klare interne Regeln zur Offenlegung nötig sind.

3

Synthetische Medien

Bilder, Stimmen oder Videos mit hohem Authentizitätseindruck sind besonders sensibel. Hier sollte Transparenz nicht erst am Ende diskutiert werden, sondern schon im Produktionsprozess mitlaufen.


Hochrisiko: Wenn KI über Menschen oder kritische Bereiche mitentscheidet

Hochrisiko ist der Bereich, bei dem die meisten Unternehmen intuitiv sagen: „Das betrifft uns wahrscheinlich nicht.“ Genau deshalb wird er oft zu spät erkannt.

Der EU AI Act schaut hier auf sensible Einsatzfelder, nicht nur auf die Technologie selbst. Wenn KI in Bereichen eingesetzt wird, die Zugang zu Arbeit, Bildung, Kredit, Leistungen oder Sicherheit beeinflussen, wird es ernst.

Bereich Warum sensibel
Recruiting und HR Wenn Bewerber bewertet, gefiltert oder priorisiert werden, beeinflusst KI unmittelbar Chancen auf Beschäftigung.
Kredit und Versicherung Scoring und Bewertungen wirken direkt auf wirtschaftliche Teilhabe und Zugang zu Leistungen.
Bildung und Prüfung Automatisierte Bewertung oder Einstufung kann realen Einfluss auf Bildungswege haben.
Kritische Infrastruktur / Sicherheit Hier können Fehler nicht nur ärgerlich, sondern sicherheitsrelevant sein.

Die häufigste Fehleinschätzung: „Ein Mensch entscheidet ja am Ende“

Das ist einer der wichtigsten Denkfehler bei der Risikoeinstufung. Viele Teams glauben, ein System könne nicht kritisch sein, solange am Ende noch ein Mensch auf „Bestätigen“ klickt.

Das stimmt so nicht. Wenn die KI Kandidaten vorsortiert, Fälle priorisiert, Scores vergibt oder bestimmte Optionen ausblendet, prägt sie den Entscheidungsraum schon vorher. Der Mensch sieht dann nicht mehr die volle Realität, sondern eine KI-vorstrukturierte Auswahl.

Genau deshalb ist nicht nur die Endentscheidung relevant, sondern der Einfluss der KI auf den Prozess insgesamt.


Vier Fragen für die erste Einstufung

Wenn ihr ein KI-System bewerten wollt, braucht ihr am Anfang keine perfekte juristische Analyse. Diese vier Fragen bringen euch in den meisten Fällen erstaunlich weit:

1. Betrifft das System Menschen direkt?

Bewerber, Kunden, Beschäftigte, Schüler oder andere Betroffene?

2. Interagiert das System mit Nutzern?

Dann sind Transparenzpflichten oft sofort ein Thema.

3. Bewertet oder priorisiert das System?

Scoring, Ranking, Filterung und Empfehlung sind deutlich sensibler als reine Textassistenz.

4. Welche Daten gehen hinein?

Je sensibler oder personenbezogener die Daten, desto sorgfältiger müsst ihr prüfen.


Die größte Gefahr ist nicht Komplexität, sondern Aufschieben

Viele Unternehmen glauben, die Risikoeinstufung müsse sofort perfekt sein. Das führt oft dazu, dass sie gar nicht anfangen. Sinnvoller ist ein pragmischer erster Stand: System erfassen, Einsatzzweck dokumentieren, vorläufige Risikoklasse festhalten, offene Fragen markieren und dann die kritischen Fälle vertieft prüfen.

Das ist nicht unsauber. Das ist bessere Praxis als monatelanges Warten auf die perfekte Lösung.


Typische Fehler bei der Risikoeinstufung

Typische Fehler

„Das ist ein bekanntes Tool, also ist es harmlos.“

„Ein Mensch ist im Prozess, also ist es nicht kritisch.“

„Wir stufen später ein, wenn mehr Klarheit da ist.“

„Der Anbieter wird das schon geregelt haben.“

Besser so

Use Case statt Produktnamen bewerten.

Scoring, Ranking und Priorisierung besonders kritisch prüfen.

Mit einer vorläufigen Einstufung starten.

Anbieterunterlagen aktiv einfordern.


Compliance heißt hier vor allem: verstehen, einordnen, dokumentieren

Für die meisten Unternehmen läuft die praktische Arbeit bei den Risikoklassen nicht auf komplizierte Theorie hinaus, sondern auf drei relativ nüchterne Schritte:

1. Wisst, welche KI-Systeme ihr nutzt.
2. Versteht, was diese Systeme konkret tun.
3. Haltet nachvollziehbar fest, warum ihr sie wie eingestuft habt.

Damit ist nicht jede Spezialfrage geklärt. Aber ihr habt die Grundlage gelegt, auf der Compliance überhaupt erst sinnvoll möglich wird.


Der schnellste Weg zur Risikoeinstufung

SimpleAct ist genau für diesen Schritt gebaut: KI-Systeme erfassen, regelbasiert einstufen, Maßnahmen sichtbar machen und die Ergebnisse dokumentiert exportieren. Ohne Excel-Chaos, ohne verstreute Einzelnotizen und ohne dass jede Bewertung wieder von vorne beginnt.

Jetzt kostenlos starten →


Dieser Beitrag dient der allgemeinen Information und stellt keine Rechtsberatung dar. Bei Unsicherheiten empfehlen wir eine rechtliche Prüfung. Stand: März 2026.


Über SimpleAct: SimpleAct ist eine deutsche Compliance-Plattform, die Unternehmen bei der strukturierten Dokumentation ihrer KI-Systeme nach EU AI Act unterstützt. Von der Erfassung über die Risikobewertung bis zum exportfähigen Audit-Nachweis. Alles an einem Ort.

Mehr erfahren →

Tags

EU AI ActRisikoeinstufungKI-RisikobewertungHigh-Risk AILimited RiskMinimal RiskKI-Compliance
K

Kamill Jarzebowski | SimpleAct

Author · SimpleAct Team

Arturs Nikitins
Risikoklassen im EU AI Act einfach erklärt: Minimal, Limited und High-Risk | SimpleAct Blog | SimpleAct