Wer in seinem Betrieb bereits KI einsetzt, hat oft dieselbe Frage zuerst auf dem Tisch: Ist unser System eigentlich hochriskant oder nicht? Genau an diesem Punkt entscheidet die Risikoklassifizierung nach AI Act, wie viel Dokumentation, Prüfung und interne Steuerung nötig wird. Für kleine und mittelständische Unternehmen ist das keine akademische Einordnung, sondern eine ganz praktische Frage mit Folgen für Aufwand, Haftung und Marktzugang.
Was die Risikoklassifizierung nach AI Act im Betrieb wirklich bedeutet
Der AI Act ordnet KI-Systeme nicht pauschal als erlaubt oder verboten ein. Er arbeitet risikobasiert. Das heißt: Je größer die möglichen Auswirkungen auf Sicherheit, Rechte oder Lebensbereiche von Menschen, desto strenger die Anforderungen.
Für Unternehmen ist das ein sinnvoller Ansatz, aber in der Praxis auch fehleranfällig. Viele Betriebe schauen zuerst auf die Technik und zu wenig auf den Einsatzzweck. Genau dort passieren die meisten Fehlbewertungen. Nicht das Schlagwort „KI“ ist entscheidend, sondern wofür das System verwendet wird, in welchem Kontext es läuft und welche Entscheidungen davon abhängen.
Ein einfaches Beispiel aus dem Mittelstand: Ein internes Tool, das E-Mails vorsortiert, ist anders zu bewerten als eine Anwendung, die Bewerber vorselektiert, Mitarbeiter überwacht oder Kreditwürdigkeit einschätzt. Die zugrunde liegende Technologie kann ähnlich sein. Das Risiko ist es nicht.
Die vier Risikostufen des AI Act
Der AI Act unterscheidet im Kern vier Gruppen. Diese Einteilung wirkt auf den ersten Blick klar, verlangt aber oft eine genaue Betrachtung des Anwendungsfalls.
Unannehmbares Risiko
Bestimmte KI-Praktiken sind verboten. Dazu gehören Anwendungen, die Menschen manipulieren, besonders schutzbedürftige Gruppen ausnutzen oder in besonders kritischer Weise Bewertungen von Personen vornehmen. Für die meisten KMU ist diese Kategorie nicht der Alltag. Trotzdem lohnt sich der Blick, wenn KI in sensible Entscheidungsprozesse eingreift oder Verhaltensdaten systematisch auswertet.
Hohes Risiko
Hier wird es für viele Unternehmen relevant. Hochrisiko-KI ist nicht einfach „besonders moderne KI“, sondern KI in klar definierten Einsatzbereichen. Dazu zählen unter anderem Anwendungen in Beschäftigung, Bildung, kritischer Infrastruktur, Medizin, Produktsicherheit oder bei bestimmten behördlichen und finanziellen Entscheidungen.
Wer etwa KI zur Bewerberauswahl, Leistungsbewertung von Beschäftigten oder zur Steuerung sicherheitsrelevanter Prozesse nutzt, sollte sehr genau prüfen. In solchen Fällen reichen gute Absichten oder ein funktionierendes Tool nicht aus. Dann geht es um Risikomanagement, Datenqualität, technische Dokumentation, menschliche Aufsicht, Transparenz und in vielen Fällen um ein belastbares Compliance-System.
Begrenztes Risiko
Diese Kategorie betrifft Systeme mit Transparenzpflichten. Ein typisches Beispiel sind Chatbots oder generative KI-Anwendungen, bei denen Nutzer erkennen können müssen, dass sie mit KI interagieren oder KI-generierte Inhalte sehen. Für viele Unternehmen ist das der wahrscheinlichste Bereich, gerade im Kundenservice, Marketing oder bei internen Assistenzsystemen.
Minimales Risiko
Viele KI-Anwendungen fallen voraussichtlich hierunter. Dazu können unterstützende Tools gehören, die keine sensiblen Entscheidungen treffen und keine erheblichen Auswirkungen auf Betroffene haben. Aber Vorsicht: „minimal“ heißt nicht automatisch „ohne jeden Regelungsbedarf“. Datenschutz, Informationssicherheit, vertragliche Pflichten und Qualitätsanforderungen bleiben trotzdem bestehen.
Warum die Einstufung oft schwieriger ist als gedacht
Die Risikoklassifizierung nach AI Act scheitert in der Praxis selten am Gesetzestext allein. Sie scheitert meist daran, dass Unternehmen ihre Prozesse nicht sauber beschrieben haben. Wenn schon intern unklar ist, wer ein System nutzt, welche Daten hineingehen, welche Ergebnisse herauskommen und wer am Ende entscheidet, lässt sich auch das regulatorische Risiko kaum belastbar einordnen.
Gerade im Handwerk und im Mittelstand entstehen KI-Anwendungen oft schrittweise. Erst wird ein Tool testweise eingeführt, dann an mehreren Stellen verwendet und später in bestehende Abläufe eingebaut. Was als einfache Unterstützung begann, kann sich still in Richtung eines relevanten Entscheidungssystems entwickeln. Dann ist eine frühe Einstufung schnell veraltet.
Dazu kommt: Nicht jedes Unternehmen ist nur Nutzer. Manche passen Systeme an, trainieren sie mit eigenen Daten weiter oder integrieren sie tief in ihre Produkte und Dienstleistungen. Dadurch kann sich auch die eigene Rolle unter dem AI Act verändern. Und mit der Rolle ändern sich die Pflichten.
So gehen Unternehmen bei der Risikoklassifizierung nach AI Act sinnvoll vor
Ein praxistauglicher Einstieg beginnt nicht mit Paragraphen, sondern mit einer Bestandsaufnahme. Welche KI-Systeme sind überhaupt im Einsatz oder geplant? Dazu zählen nicht nur große Plattformen, sondern auch scheinbar kleine Lösungen wie Bewerbertools, Assistenzfunktionen in Software, Bildauswertung, Prognosemodelle oder automatisierte Textsysteme.
Im nächsten Schritt sollte jedes System entlang weniger Kernfragen bewertet werden: Was ist der konkrete Zweck? Wer ist betroffen? Welche Entscheidungen werden vorbereitet oder getroffen? Welche Folgen hätte ein Fehler? Werden personenbezogene oder besonders sensible Daten verarbeitet? Gibt es Auswirkungen auf Beschäftigung, Sicherheit, Zugang zu Leistungen oder Rechte von Personen?
Erst danach lohnt sich die Zuordnung zu den Risikostufen. Dieser Ablauf ist wichtig, weil er die technische Sicht mit der Prozesssicht verbindet. Genau das fehlt in vielen Unternehmen. Dort spricht die IT über Funktionen, die Fachabteilung über Nutzen und die Geschäftsleitung über Effizienz. Für Compliance braucht es jedoch ein gemeinsames Bild.
Wenn ein System als Hochrisiko einzustufen ist oder dies ernsthaft in Betracht kommt, sollte die Prüfung deutlich tiefer gehen. Dann geht es nicht nur um ein Register oder eine kurze Notiz, sondern um eine systematische Umsetzung mit Verantwortlichkeiten, Nachweisen und internen Kontrollen. Wer hier improvisiert, handelt sich später meist deutlich höheren Aufwand ein.
Typische Praxisfälle im Mittelstand
Besonders relevant ist das Thema im Personalbereich. Nutzt ein Unternehmen KI zur Vorauswahl von Bewerbungen, zur Bewertung von Eignung oder zur Analyse von Mitarbeiterleistung, ist erhöhte Vorsicht geboten. Schon die unterstützende Vorstrukturierung kann regulatorisch relevant sein, wenn sie die spätere Entscheidung spürbar beeinflusst.
Auch im Qualitätsmanagement und in der Produktion lohnt ein genauer Blick. Eine KI, die Ausschuss erkennt oder Wartungsbedarfe prognostiziert, ist nicht automatisch Hochrisiko. Anders kann es aussehen, wenn sicherheitskritische Entscheidungen davon abhängen oder das System Teil eines regulierten Produkts wird.
Im Kundenservice ist die Lage oft entspannter, aber nicht immer. Ein Chatbot zur Beantwortung allgemeiner Anfragen fällt eher in einen Bereich mit Transparenzpflichten. Sobald jedoch sensible Beratung, Bonitätsfragen, Vertragsentscheidungen oder die Bewertung einzelner Personen hinzukommen, verschiebt sich die Risikolage.
Für Handwerksbetriebe ist die gute Nachricht: Viele KI-Anwendungen im Alltag werden nicht automatisch in die höchste Risikostufe fallen. Die weniger gute Nachricht lautet: Gerade kleinere Betriebe unterschätzen oft, wie schnell aus einer einfachen Hilfsfunktion ein compliance-relevanter Anwendungsfall werden kann, wenn sie mit Personal, Kundendaten oder sicherheitsrelevanten Abläufen verbunden wird.
Was eine falsche Einstufung kostet
Die häufigste Fehlannahme lautet: „Wir nutzen das System nur, wir entwickeln es ja nicht selbst.“ Das kann richtig sein, schützt aber nicht pauschal vor Pflichten. Nutzer, Betreiber, Integratoren und Anbieter tragen je nach Konstellation unterschiedliche Verantwortung. Wer ein System tief in den eigenen Prozess einbindet oder Ergebnisse faktisch ungeprüft übernimmt, kann sich nicht einfach auf den Softwareanbieter berufen.
Eine falsche Einstufung kostet vor allem Zeit und Nacharbeit. Prozesse müssen rückwirkend dokumentiert, Zuständigkeiten geklärt und technische Entscheidungen erklärt werden, die intern nie sauber festgehalten wurden. Dazu kommen mögliche Risiken in Audits, bei Kundenanforderungen oder in Vertragsprüfungen. Spätestens wenn ein Auftraggeber Nachweise zur KI-Compliance verlangt, wird sichtbar, ob die internen Grundlagen stimmen.
Genau deshalb ist es sinnvoll, die Risikoklassifizierung nicht isoliert zu behandeln. Sie gehört in bestehende Management- und Prüfstrukturen hinein – also in Prozessmanagement, Qualitätsmanagement, interne Audits und klare Freigaben. Unternehmen, die hier strukturiert arbeiten, haben beim AI Act einen klaren Vorteil.
Zwischen Pragmatismus und Rechtssicherheit
Nicht jeder Betrieb braucht sofort ein umfangreiches KI-Compliance-Programm. Aber jeder Betrieb mit KI-Bezug braucht eine belastbare Erstbewertung. Der richtige Weg liegt meist zwischen zwei Extremen: weder blindes Abwarten noch übertriebene Bürokratie.
Sinnvoll ist ein Vorgehen, das mit dem tatsächlichen Risiko mitwächst. Ein kleines KI-Tool mit begrenzter Wirkung braucht keine überzogene Verwaltungsstruktur. Eine Anwendung mit Einfluss auf Personalentscheidungen oder sicherheitsrelevante Abläufe dagegen schon. Diese Unterscheidung sauber zu treffen, ist der eigentliche Kern der Aufgabe.
Wer das Thema früh strukturiert angeht, spart später Aufwand und schafft intern mehr Sicherheit. Genau dort liegt der praktische Nutzen der Risikoklassifizierung nach AI Act: nicht in Papier für die Schublade, sondern in klaren Entscheidungen, nachvollziehbaren Prozessen und einer KI-Nutzung, die wirtschaftlich sinnvoll und regulatorisch tragfähig ist.
Wenn Sie den Eindruck haben, dass Ihre KI-Anwendungen irgendwo zwischen „wahrscheinlich unkritisch“ und „besser genauer prüfen“ liegen, ist das meist schon das richtige Signal, genauer hinzusehen – lieber jetzt mit Struktur als später unter Zeitdruck.


