FAQ | Künstliche Intelligenz
Stand Februar 2026
Am 1. August 2024 ist die europäische Verordnung über künstliche Intelligenz (KI-Verordnung) in Kraft getreten. Sie zielt darauf ab, die verantwortungsvolle Entwicklung und Verwendung künstlicher Intelligenz in der EU zu fördern, indem sie den Einsatz von KI-Modellen und KI-Systemen in Europa regelt. Zielsetzung dieser Regulierung ist es, auch im KI-Zeitalter den Schutz der Grundrechte der Menschen zu gewährleisten. Zugleich soll die Einführung von menschenzentrierten und vertrauenswürdigen KI-Modellen und KI-Systemen gefördert werden. Diese Ziele stehen grundsätzlich gleichberechtigt nebeneinander.
Die KI-VO enthält bis auf zwei Ausnahmen (Art. 10 Abs. 5 und Art. 59 KI-VO) keine Regelungen zum Schutz personenbezogener Daten. Es gelten gemäß Art. 2 Abs. 7 KI-VO für die Verarbeitung personenbezogener Daten bei der Entwicklung und dem Betrieb von KI-Modellen und KI-Systemen die DSGVO, die JI-Richtlinie und die ePrivacy-Richtlinie sowie die entsprechenden nationalen Umsetzungen im Bundesdatenschutzgesetz und im Telekommunikation-Digitale-Dienste-Datenschutz-Gesetz (TDDDG) (Art. 2 Abs. 7 KI-VO).
Die KI-VO ist bereits im August 2024 in Kraft getreten und als europäische Verordnung unmittelbar anwendbar. Es gibt allerdings abgestufte Fristen für den Geltungsbeginn:
- 2. Februar 2025: allgemeine Bestimmungen wie insbesondere die KI-Kompetenz (Art. 4 KI-VO) und verbotene KI-Praktiken (Art. 5 KI-VO)
- 2. August 2025: Notifizierung von Hochrisiko-KI-Systemen, Vorschriften für KI-Modelle mit allgemeinem Verwendungszweck, KI-Governance, Sanktionen, Vertraulichkeitspflicht zuständiger Behörden
- 2. August 2026: alle weiteren Regelungen außer die Einstufung von Hochrisiko-KI-Systemen (Art. 6 Abs. 1 KI-VO) sowie die entsprechenden Pflichten
- 2. August 2027: Uneingeschränkte Geltung aller Vorschriften.
Die KI-VO gilt vor allem für alle Entwickler und Betreiber von KI-Modellen und -Systemen, die in Europa zum Einsatz kommen. Darüber hinaus adressiert sie Anbieter, Einführer und Händler von KI‑Systemen, Produkthersteller, die KI‑Systeme zusammen mit ihrem Produkt unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringen sowie Bevollmächtigte von Anbietern (Art. 2 Abs. 1 KI-VO). Die KI-VO gilt nicht, wenn natürliche Personen KI‑Systeme im Rahmen einer ausschließlich persönlichen und nicht beruflichen Tätigkeit verwenden (Art. 2 Abs. 10 KI-VO). Werden hierbei personenbezogene Daten verarbeitet, findet sich in der DSGVO eine vergleichbare Ausnahmeregelung. Die DSGVO ist nicht anwendbar, wenn natürliche Personen zur Ausübung ausschließlich persönlicher oder familiärer Tätigkeiten personenbezogene Daten verarbeiten (Art. 2 Abs. 2 lit. c DSGVO).
Die KI-VO verfolgt einen risikobasierten Ansatz. Je höher das Risiko, desto strengere Anforderungen müssen erfüllt werden. Unter Risiko wird gem. Art. 3 Nr. 2 KI-VO die Kombination aus der Wahrscheinlichkeit des Auftretens eines Schadens und der Schwere dieses Schadens verstanden. Die in Art. 5 KI-VO aufgezählten Praktiken sind mit einem so hohen Risiko verbunden, dass sie verboten sind. Auf der nächsten Stufe stehen Hochrisiko-KI-Systeme im Sinne von Art. 6 KI-VO. Vor deren Einsatz hat der Anbieter u.a. ein Konformitätsbewertungsverfahren gemäß Art. 43 KI-VO durchzuführen.
Da beim Einsatz von KI‑Systemen, die für die direkte Interaktion mit natürlichen Personen bestimmt sind, z.B. Chatbots, Transparenzrisiken bestehen, haben Anbieter solcher Systeme Transparenzpflichten gem. Art. 50 KI-VO zu erfüllen. Bezüglich KI-Systemen, die nicht in einer dieser drei Risikostufen fallen, bestehen keine besonderen Verpflichtungen. KI-Modelle mit allgemeinem Verwendungszweck unterliegen besonderen Pflichten gem. Art. 53 KI-VO. Diese bestehen unabhängig von ggf. bestehenden Pflichten aus der Eigenschaft als Hochrisiko KI-System oder Transparenzpflichten gem. Art. 50 KI-VO.
Art. 5 KI-VO definiert eine Reihe von Praktiken als „verbotene Praktiken“ im KI-Bereich. Diese Praktiken sind mit einem so hohen Risiko für die Betroffenen verbunden, dass diese untersagt sind. Dazu zählt beispielsweise der Einsatz von KI-Systemen zur manipulativen oder täuschenden Verhaltensbeeinflussung oder die Verwendung von KI-Systemen, die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen erstellen oder erweitern. Die Europäische Kommission hat Leitlinien zu diesem Thema veröffentlicht, in denen eine weitere Konkretisierung erfolgt und Beispiele genannt werden.
Art. 6 KI-VO definiert, welche KI-Systeme als Hochrisiko-KI-Systeme im Sinne der KI-VO gelten. Das sind KI-Systeme, die dem Produktsicherheitsrecht unterliegen (Art. 6 Abs. 1 KI-VO) und KI-Systeme, die im Anhang III der KI-VO genannt werden, beispielsweise biometrische Fernidentifizierungssysteme oder KI‑Systeme, die bestimmungsgemäß für die Kreditwürdigkeitsprüfung und Bonitätsbewertung natürlicher Personen verwendet werden sollen. Für die Entwicklung und den Betrieb von Hochrisiko-KI-Systemen gelten die in Abschnitt 3 KI-VO (Art. 6 bis 49 KI-VO) geregelten Anforderungen und Pflichten.
Gemäß Art. 3 Nr. 3 KI-VO ist ein „Anbieter“ eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI‑System oder ein KI‑Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt und es unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringt oder das KI‑System unter ihrem eigenen Namen oder ihrer Handelsmarke in Betrieb nimmt, sei es entgeltlich oder unentgeltlich. Anbieter von KI-Systemen oder KI-Modellen sind Adressaten umfangreicher in der KI-VO enthaltener Pflichten.
Gemäß Art. 3 Nr. 4 KI-VO ist ein „Betreiber“ eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI‑System in eigener Verantwortung verwendet, es sei denn, das KI‑System wird im Rahmen einer persönlichen und nicht beruflichen Tätigkeit verwendet. Falls ein Unternehmen beispielsweise ein KI-System mit einem Chatbot für den Kundendialog einsetzt, ist es Betreiber eines KI-Systems. Ob das Unternehmen das KI-System selbst entwickelt hat, ist für die Betreibereigenschaft unbeachtlich.
Gemäß Art. 27 KI-VO sind bestimmte Betreiber von Hochrisiko-KI-Systemen zur Durchführung einer Grundrechte-Folgenabschätzung verpflichtet. Deren Zielsetzung ist es gemäß Erwägungsgrund 96 KI-VO, dass der Betreiber die spezifischen Risiken für die Rechte von Einzelpersonen oder Gruppen von Einzelpersonen, die wahrscheinlich betroffen sein werden, ermittelt. Weiterhin sollen Maßnahmen ermittelt werden, die im Falle eines Eintretens dieser Risiken zu ergreifen sind.
Art. 27 Abs. 4 KI-VO regelt das Verhältnis zur Datenschutz-Folgenabschätzung gemäß Art. 35 DSGVO und stellt klar, dass die Grundrechte-Folgenabschätzung die Datenschutz-Folgenabschätzung ergänzt. Für die Praxis folgt daraus erstens, dass die Grundrechte-Folgenabschätzung zusätzlich zur Datenschutz-Folgenabschätzung durchzuführen ist, soweit die erforderlichen Prüfungen nicht bereits im Rahmen der Datenschutz-Folgenabschätzung durchgeführt wurden. Zweitens können die von der Datenschutz-Folgenabschätzung bekannten Methoden und Schritten weitgehend auf die Grundrechte-Folgenabschätzung übertragen werden.
Gemäß Art. 3 Nr. 56 KI-VO sind unter „KI‑Kompetenz“ die Fähigkeiten zu verstehen, „die Kenntnisse und das Verständnis, die es Anbietern, Betreibern und Betroffenen unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten im Rahmen dieser Verordnung ermöglichen, KI‑Systeme sachkundig einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden“.
Art. 4 KI-VO verpflichtet Anbieter und Betreiber von KI-Systemen, „sicherzustellen, dass ihr Personal und von ihnen beauftragte Personen, die mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ausreichende KI-Kompetenzen verfügen müssen“. In der Praxis sollte bei der Einstellung von Beschäftigten auf deren technische und juristische Qualifikation geachtet werden. Zudem sollten geeignete Schulungen und Fortbildungen der Beschäftigten erfolgen. Die Bundesnetzagentur hat umfangreiches Informationsmaterial zur KI-Kompetenz veröffentlicht.
Wenn in KI-Systemen personenbezogene Daten verarbeitet werden, müssen Anwenderinnen und Anwender im Rahmen der KI-Kompetenz auch zu spezifischen datenschutzrechtlichen Risiken geschult werden. Hierzu gehört unter anderem das Risiko der Ausgabe von falschen personenbezogenen Daten sowie über das Risiko von Bias und Halluzinationen in Ausgabedaten und das Verbot einer automatisierten Entscheidung.
Vor dem Einsatz sind folgende rechtliche und organisatorische Maßnahmen (TOM) sicherzustellen:
- Sicherstellen, dass das eingesetzte KI-Modell nicht rechtswidrig trainiert wurde
- Prüfen, ob eine geeignete Rechtsgrundlage für die Verarbeitung personenbezogener Daten vorhanden ist
- Geeignete TOM identifizieren und implementieren
- Einhaltung der Datenschutz-Grundsätze gewährleisten (z.B. Datenminimierung, Zweckbindung)
- Sicherstellen, dass Betroffenenrechte gewährt werden können (z.B. Auskunft, Löschung)
- Schwellwertprüfung für Datenschutz-Folgenabschätzung (DSFA), und falls erforderlich, eine DSFA durchführen
Beim Einsatz von KI-Systemen sind folgende Vorgaben zu beachten:
1. Alle Vorschriften der Datenschutz-Grundverordnung (DSGVO)
2. Je nach Anwendungsbereich sind weitere spezifische Datenschutzgesetze zu berücksichtigen (z. B. das Bundesdatenschutzgesetz und das Telekommunikation-Digitale-Dienste-Datenschutz-Gesetz)
- Insbesondere Wahrung der Datenschutz-Grundsätze (Art. 5 DSGVO), unter anderem Rechtmäßigkeit, Verarbeitung nach Treu und Glauben, Transparenz, Zweckbindung, Datenminimierung und Richtigkeit
3. Gewährleistung der Betroffenenrechte (z. B. Auskunft, Berichtigung, Löschung, Widerspruch)
Diese unautorisierte Nutzung von KI-Systemen im beruflichen Kontext wird auch als „Schatten-KI“ verstanden. Dies ist der Fall, wenn Mitarbeiterinnen oder Mitarbeiter im Web verfügbare KI-Systeme wie ChatGPT, Gemini oder Claude nutzen, ohne dass diese in die IT-Infrastruktur der Behörde oder des Unternehmens integriert sind und die Nutzung genehmigt wurde.
Dies birgt vor allem das Risiko, gegen die gesetzlichen Vorgaben sowohl der KI-Verordnung als auch der Datenschutz-Grundverordnung zu verstoßen. Je nachdem, in welche Risikostufen die Schatten-KI einzuordnen ist, unterscheidet sich das Risiko von Gesetzesverstößen. Ein Verstoß gegen die Pflicht zur Gewährleistung von KI-Kompetenz steht immer im Raum. Datenschutzrechtlich besteht vor allem das Risiko, dass personenbezogene Daten unkontrolliert ohne Rechtsgrundlage verarbeitet werden. Um solche Verstöße gegen die DSGVO zu vermeiden, sollte der Einsatz von Schatten-KI von den Verantwortlichen nicht toleriert werden. So kann die Nutzung von Schatten-KI zum Beispiel in einer Dienstanweisung adressiert und untersagt werden. Ergänzend sollten Behörden und Unternehmen bewusst entscheiden, welche KI-Systeme in der Organisation unter welchen Bedingungen eingesetzt werden sollen.
Gemäß Artikel 22 DSGVO haben Betroffene das Recht, nicht einer ausschließlich auf einer automatisierten Verarbeitung beruhenden Entscheidung unterworfen zu werden, die ihr gegenüber rechtlicher Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt. Dies sind beispielsweise Entscheidungen über den Erlass eines Verwaltungsakts, Entscheidungen über Einstellungen und Beförderungen von Mitarbeiterinnen und Mitarbeiter oder Entscheidungen über die Kreditwürdigkeit. In solchen Bereichen darf ein KI-System zwar Vorschläge oder Empfehlungen machen, die Entscheidung muss aber stets bei einer natürlichen Person liegen. Es muss in jedem Fall eine substanzielle Prüfung erfolgen; ein bloßes Abnicken der Prüfungsvorschläge eines KI-Systems ist nicht ausreichend.
Betreiber von Webseiten sollten sich bewusst sein, dass auf ihren Webseiten veröffentlichte personenbezogene Daten mittels Web-Scraping verarbeitet und insbesondere für ein Training von KI-Modellen genutzt werden. Im Rahmen ihrer datenschutzrechtlichen Verantwortlichkeit sollten sie technische und organisatorische Maßnahmen ergreifen, um dies erforderlichenfalls zu verhindern.
Es sollte z.B. darauf verzichtet werden, personenbezogene Daten in öffentlichen Bereichen zur Verfügung zu stellen, wenn stattdessen die Einrichtung geschlossener Bereiche für einen bekannten Benutzerkreis möglich ist, auf deren Quelltext Dritten keinen Zugriff haben. Außerdem kann die robots.txt-Datei dazu genutzt werden, Programmen zum Web-Scraping mitzuteilen, dass auf der Webseite kein Web-Scraping erfolgen soll.
Zur Begriffsklärung finden Sie nachfolgend ein kurzes Glossar zu Künstlicher Intelligenz.
Es gibt keine allgemeingültige Definition des Begriffs „künstlicher Intelligenz“ (KI). Grundsätzlich ist KI ein Teilgebiet der Informatik und bezeichnet die Fähigkeit einer Maschine, menschliche Fähigkeiten, wie logisches Denken, Lernen, Planen und Kreativität zu imitieren (siehe dazu auch Europäisches Parlament).
Die KI-Verordnung enthält in Art. 3 Nr. 1 KI-VO eine rechtliche Definition des Begriffs KI-System, der in Erwägungsgrund 12 KI-VO erläutert und in den Leitlinien der Kommission zur Definition eines Systems der künstlichen Intelligenz weiter präzisiert wird. Danach beinhaltet die Definition die folgenden sieben Hauptelemente:
1. ein maschinengestütztes System,
2. das für einen in unterschiedlichem Grade autonomen Betrieb ausgelegt ist,
3. das nach seiner Betriebsaufnahme anpassungsfähig sein kann,
4. das für explizite oder implizite Ziele
5. aus den erhaltenen Eingaben ableitet,
6. wie Ausgaben wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die
Art. 3 Nr. 1 KI-VO definiert ein KI-System „als ein maschinengestütztes System, das für einen in unterschiedlichem Grad autonomen Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann und das aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ausgaben wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die physische oder virtuelle Umgebungen beeinflussen können“.
Beispiele für KI-Systeme sind KI-Chatbots wie ChatGPT oder Gemini, KI-Bildgeneratoren wie Stable Diffusion oder Dell-E, KI-basierte Übersetzungsplattformen wie DeepL oder Google Translator. Herzstück eines KI-Systems ist ein oder sind mehrere KI-Modelle. Daneben gibt es weitere Bestandteile wie beispielsweise die Benutzeroberfläche oder Schnittstellen zu Datenbanken.
Die KI-Verordnung enthält keine Legaldefinition des Begriffes „KI-Modell“, sondern setzt diesen beim Begriff „KI-Modell mit allgemeinem Verwendungszweck“ voraus. Ein KI-Modell ist das Herzstück eines generativen KI-Systems, in dem autonom Ergebnisse, beispielsweise neue Texte oder Bilder, erstellt werden können. Bekannte KI-Modelle für Textgenerierung sind beispielsweise Claude, Gemini, GPT, DeepSeek und Grok. Midjourney und Aurora sind KI-Modelle, die für Bildgenerierung genutzt werden können.
Art. 3 Nr. 63 KI-VO definiert ein KI‑Modell mit allgemeinem Verwendungszweck als ein KI‑Modell, das „eine erhebliche allgemeine Verwendbarkeit aufweist und in der Lage ist, unabhängig von der Art und Weise seines Inverkehrbringens ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen, und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann“. Umfasst werden auch Fälle, in denen ein solches KI‑Modell mit einer großen Datenmenge unter umfassender Selbstüberwachung trainiert wird.
Ausgenommen sind KI‑Modelle, die vor ihrem Inverkehrbringen für Forschungs- und Entwicklungstätigkeiten oder die Konzipierung von Prototypen eingesetzt werden. Erwägungsgrund 99 KI-VO nennt als Beispiel für KI-Modelle mit allgemeinem Verwendungszweck große generative KI‑Modelle, da sie eine flexible Erzeugung von Inhalten ermöglichen, etwa in Form von Text-, Audio-, Bild- oder Videoinhalten, die leicht ein breites Spektrum unterschiedlicher Aufgaben umfassen können.
Der Begriff generative KI bezieht sich auf computergestützte Technologie, die in der Lage ist, aus Trainingsdaten scheinbar neue, aussagekräftigen Inhalt zu erzeugen, wie Texte, Bilder oder Audioinhalte (aus Feuerriegel, S., Hartmann, J., Janiesch, C., & Zschech, P. (2024). Generative AI. Business and Information Systems Engineering, 66(1), 111-126). Generative KI zeichnet sich dadurch aus, dass als Reaktion auf Nutzereingaben neue Inhalte, beispielsweise Texte oder Bilder, erzeugt werden können. Generative KI-Modelle sind KI-Modelle mit allgemeinem Verwendungszweck im Sinne von Art. 3 Nr. 63 KI-VO, für die gemäß Art. 53 KI-VO besondere Pflichten gelten.
Large-Language-Modelle (LLMs) sind dem Bereich der generativen KI-Modelle zuzuordnen. LLMs generieren Texte auf Basis stochastischer Korrelation, die sie während der Entwicklung mit sehr großen Mengen Trainingsdaten gelernt haben (BSI, Generative KI-Modelle - Chance und Risiken für Industrie und Behörden, S. 7). Aufgrund von Wahrscheinlichkeiten wird die nächste Wortfolge vorhergesagt, um einen Text von hoher sprachlicher Qualität zu erzeugen. Beispiele für LLMs sind GPT-5, Mistral 7B oder Grok.
Beim Einsatz von Large-Language-Modellen zeigt sich gelegentlich das Phänomen des sogenannten Halluzinierens. Darunter wird die Ausgabe erfundener oder falscher Informationen verstanden, die oftmals auf den ersten Blick plausibel erscheinen, oder qualitativ hochwertig formuliert sind (mehr dazu im Blog des Fraunhofer IESE). Die Ursache dieses Phänomens ist, dass die Ausgabedaten nicht auf in Datenbanken gespeicherten Fakten, sondern auf statistische Wahrscheinlichkeiten beruhen. Sofern die Ausgabedaten beim Halluzinieren personenbezogene Daten enthalten, kann dadurch gegen den Grundsatz der Datenrichtigkeit (Art. 5 Abs. 1 lit. d DSGVO) verstoßen werden.
Unter Web-Scraping wird das automatisierte Extrahieren von Daten aus Webseiten mit Hilfe von spezieller Software verstanden. Diese Technik kann dazu verwendet werden, um Daten für das Training von KI-Modellen zu gewinnen. Sofern dabei personenbezogene Daten verarbeitet werden, sind die Vorgaben der DSGVO einzuhalten. Insbesondere muss der Verantwortliche diese Datenverarbeitung auf eine Rechtsgrundlage stützen können und er muss die Gewährleistung der Betroffenenrechte sicherstellen.

