Leitfaden zur Kennzeichnungspflicht für KI-Texte, Bilder & Videos

Was ab August 2026 gekennzeichnet werden muss, worauf du achten solltest und was die neue KI-Verordnung verlangt.

Kennzeichnungspflicht für KI-generierte Inhalte: Was Unternehmen ab 2026 beachten müssen

Die rasante Entwicklung von Künstlicher Intelligenz (KI) verändert die digitale Kommunikationslandschaft grundlegend. Immer mehr Texte, Bilder, Videos und Tonaufnahmen werden mithilfe von KI-Systemen erstellt – oft so überzeugend, dass sie von menschlichen Werken kaum noch zu unterscheiden sind. Um Transparenz und Vertrauen zu sichern, hat die EU mit der neuen KI-Verordnung (KI-VO) erstmals klare Regeln zur Kennzeichnungspflicht für KI-generierte Inhalte geschaffen. Dieser Artikel gibt einen umfassenden Überblick über die neuen Anforderungen, bietet Praxisbeispiele und eine FAQ mit einer Checkliste für die Umsetzung.

Anforderungen aus der KI-Verordnung (KI-VO)

Mit dem vollständigen Inkrafttreten der KI-Verordnung am 2. August 2026 müssen bestimmte KI-generierte Inhalte eindeutig als solche gekennzeichnet werden. Ziel ist es, Nutzerinnen und Nutzer darüber zu informieren, wenn sie mit von KI erstellten oder manipulierten Inhalten interagieren. Die Kennzeichnungspflicht betrifft insbesondere:

  • Deepfakes: 
    Also KI-generierte oder manipulierte Bilder, Videos und Tonaufnahmen, die echte Personen, Orte oder Ereignisse täuschend echt darstellen.
  • Texte zu Angelegenheiten von öffentlichem Interesse: 
    Wenn KI-generierte Texte veröffentlicht werden, die die Öffentlichkeit informieren sollen, besteht eine Kennzeichnungspflicht.

Die Pflicht richtet sich an alle, die KI-Systeme im beruflichen oder gewerblichen Kontext einsetzen – also Unternehmen, Behörden und Organisationen. Ausgenommen sind ausschließlich private, nicht-berufliche Anwendungen.

Erwägungsgrund 134 KI-VO

Neben den technischen Lösungen, die von den Anbietern von KI‑Systemen eingesetzt werden, sollten Betreiber, die ein KI‑System zum Erzeugen oder Manipulieren von Bild-, Audio- oder Videoinhalte verwenden, die wirklichen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen merklich ähneln und einer Person fälschlicherweise echt oder wahr erscheinen würden (Deepfakes), auch klar und deutlich offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden, indem sie die Ausgaben von KI entsprechend kennzeichnen und auf ihren künstlichen Ursprung hinweisen. […] Darüber hinaus ist es angezeigt, eine ähnliche Offenlegungspflicht in Bezug auf durch KI erzeugte oder manipulierte Texte anzustreben, soweit diese veröffentlicht werden, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, es sei denn, die durch KI erzeugten Inhalte wurden einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen und eine natürliche oder juristische Person trägt die redaktionelle Verantwortung für die Veröffentlichung der Inhalte.

Deepfakes: Definition und Risiken

Deepfakes (ein Kofferwort aus „Deep Learning“ und „Fake“) sind realistisch wirkende Medieninhalte – wie Fotos, Videos, Audioaufnahmen oder sogar Texte –, die mithilfe von Techniken der künstlichen Intelligenz (KI) erzeugt, abgeändert oder verfälscht wurden. Deepfakes imitieren Personen, Stimmen oder Handlungen so realitätsnah, dass sie vom Original kaum noch zu unterscheiden sind.

Die Einsatzmöglichkeiten reichen von harmlosen Anwendungen im Bereich der Kunst bis hin zu gezielter Desinformation, Manipulation und Betrug. Besonders problematisch wird es, wenn Deepfakes zur Diskreditierung von Personen, zur Verbreitung von Fake News oder zur Beeinflussung der öffentlichen Meinung eingesetzt werden.

Eine Vielzahl aktueller Studien und Umfragen zeigt, dass Deepfakes das Vertrauen in Fotos, Videos und Nachrichten massiv erschüttern. Laut einer repräsentativen Befragung des Bundesverbandes Digitale Wirtschaft (BVBW) sind 72 Prozent der Menschen der Meinung, dass das Vertrauen in digitale Medien durch Deepfakes sinkt. 78 Prozent glauben, dass auch die Glaubwürdigkeit legitimer Nachrichten und Informationen durch die Verbreitung von Deepfakes beeinträchtigt wird


Daniel Steffen
Daniel Steffen

Kennzeichnungspflicht bei KI-generierten Texten

KI-generierte Texte müssen dann gekennzeichnet werden, wenn sie vollständig oder überwiegend durch ein KI-System erzeugt oder wesentlich manipuliert wurden und anschließend veröffentlicht werden, um die Öffentlichkeit über relevante Themen zu informieren (z.B. Nachrichten, politische Beiträge, gesellschaftliche Entwicklungen, Produktwarnungen).

Wie muss gekennzeichnet werden?
Die Kennzeichnung muss klar und deutlich erfolgen – etwa durch einen Hinweis am Anfang oder Ende des Textes, dass der Inhalt (ganz oder teilweise) künstlich erzeugt wurde. Die Offenlegung soll so gestaltet sein, dass sie für alle Nutzer verständlich und leicht auffindbar ist.

Ausnahmen von der Kennzeichnungspflicht
Erwägungsgrund 134 der KI-VO sieht wichtige Ausnahmen vor:

  1. Menschliche Überprüfung und redaktionelle Kontrolle:
Wird ein KI-generierter Text vor der Veröffentlichung einer umfassenden menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen und übernimmt eine natürliche oder juristische Person ausdrücklich die redaktionelle Verantwortung für den Inhalt, entfällt die Kennzeichnungspflicht. Das bedeutet: Wenn ein Redaktionsteam, eine verantwortliche Person oder ein Unternehmen den Inhalt prüft, anpasst und die Veröffentlichung verantwortet, muss nicht explizit offengelegt werden, dass KI beteiligt war.
  2. Kreative, künstlerische, satirische oder fiktionale Werke:
Inhalte, die offensichtlich kreativ, künstlerisch oder satirisch sind, unterliegen einer erleichterten Transparenzpflicht. Hier reicht es aus, das Vorhandensein von KI-generierten oder manipulierten Elementen in geeigneter Weise offenzulegen – etwa im Abspann, in den Metadaten oder durch einen allgemeinen Hinweis. Die Offenlegung darf dabei die Darstellung oder den Genuss des Werks nicht beeinträchtigen.
  3. Wahrung der Grundrechte:
Die Transparenzpflicht darf nicht so ausgelegt werden, dass sie die Meinungsfreiheit, die Freiheit der Kunst oder der Wissenschaft einschränkt, wie sie in der EU-Grundrechtecharta garantiert sind.


Beispiele für die Anwendung der Ausnahmen:

  • Ein KI-generierter Nachrichtenartikel, der nachträglich von einer Redaktion geprüft, angepasst und veröffentlicht wird, benötigt keine Kennzeichnung, sofern die Redaktion die Verantwortung übernimmt.
  • Ein satirischer KI-Text, der als Teil eines Comedy-Programms erscheint, muss nicht prominent gekennzeichnet werden, solange klar ist, dass es sich um Satire handelt und die Rechte Dritter gewahrt bleiben.
  • Ein KI-generierter Roman oder ein Gedichtband, der als fiktionales Werk veröffentlicht wird, kann die Offenlegung dezent im Impressum oder Vorwort platzieren.
     

Zusammengefasst:
Die Kennzeichnungspflicht für KI-generierte Texte greift immer dann, wenn die Öffentlichkeit über wichtige Themen informiert wird und keine menschliche Kontrolle oder redaktionelle Verantwortung vorliegt. Für kreative, künstlerische oder satirische Werke sowie für Inhalte unter redaktioneller Verantwortung gelten Ausnahmen oder erleichterte Offenlegungspflichten.

Transparenz schafft Vertrauen

Auch wenn keine ausdrückliche Pflicht besteht, empfiehlt es sich, KI-Unterstützung freiwillig offenzulegen, etwa durch einen kurzen Hinweis am Ende des Textes.

Kennzeichnungspflicht bei KI-generierten Bildern und Fotos

KI-generierte Bilder und Fotos sind kennzeichnungspflichtig, wenn sie so gestaltet sind, dass sie echte Personen, Gegenstände oder Ereignisse imitieren und der Eindruck entsteht, es handle sich um reale Aufnahmen (Deepfakes). Dies betrifft insbesondere realistisch wirkende Szenen, die eine tatsächliche Situation, einen Ort oder eine Person nachbilden.

Beispiel: Ein KI-generiertes Porträtfoto einer Person, die es nicht gibt, aber wie ein echtes Passfoto aussieht, ist kennzeichnungspflichtig. Ebenso ein KI-generiertes Bild eines bekannten Ortes, das wie eine echte Aufnahme wirkt.

Keine Kennzeichnungspflicht besteht, wenn die Inhalte offensichtlich fiktiv oder symbolisch sind und dies für Betrachter eindeutig erkennbar ist – zum Beispiel bei klar gezeichneten Illustrationen, Comics oder stilisierten Grafiken, die keine reale Szene imitieren.

Beispiel: Eine KI-generierte Comicfigur oder ein eindeutig als Illustration erkennbares Bild, das keine reale Person oder Szene abbildet, ist nicht kennzeichnungspflichtig.

Kennzeichnungspflicht bei KI-generierten Videos

Videos, die mithilfe von KI erstellt oder manipuliert wurden und reale Ereignisse oder Personen nachahmen, müssen als künstlich erzeugt oder verändert gekennzeichnet werden. Die Kennzeichnung kann im Video selbst (z. B. als Einblendung) oder in der Videobeschreibung erfolgen.

Kennzeichnungspflicht bei KI-generierten Tonaufnahmen

Auch KI-generierte Audiodateien, insbesondere solche, die Stimmen imitieren oder täuschend echt erscheinen lassen (z. B. Deepfake-Anrufe), unterliegen der Kennzeichnungspflicht. Ein Hinweis zu Beginn der Aufnahme ist empfehlenswert.

Wie muss die Kennzeichnung erfolgen?

Die Kennzeichnung muss klar, sichtbar und maschinenlesbar sein. Geeignete Methoden sind:

  • Wasserzeichen auf Bildern und Videos
  • Hinweise in Bildunterschriften, Videobeschreibungen oder am Anfang von Tonaufnahmen
  • Textliche Hinweise am Anfang oder Ende von Artikeln

Wichtig ist, dass die Kennzeichnung auch barrierefrei zugänglich ist, zum Beispiel durch Alternativtexte für Screenreader.

NOVIDATA Updates

Newsletter Datenschutz, IT-Sicherheit & KI

Mit unserem Newsletter erhälst du aktuelle Informationen zu den Themen Datenschutz, IT-Sicherheit & KI regelmäßig bequem in dein Postfach!

Jetzt anmelden

Was sollten Unternehmen tun?

Um die Anforderungen der KI-Verordnung zu erfüllen und Risiken zu minimieren, sollten Unternehmen eine klare KI-Richtlinie für den Umgang mit Künstlicher Intelligenz entwickeln und ihre Mitarbeitenden gezielt im Umgang mit KI und KI-generierten Inhalten schulen.

Wir bieten hierfür ein kostenloses Muster für eine KI-Richtlinie an, das Unternehmen als Grundlage für ihre eigenen Regelwerke nutzen und individuell anpassen können. Diese Richtlinie hilft, Verantwortlichkeiten zu klären, Prozesse zu definieren und Transparenz im Umgang mit KI-Systemen zu schaffen.

Darüber hinaus bieten wir Schulungen zur KI-Kompetenz an, um dein Team praxisnah auf die Herausforderungen und Chancen von KI vorzubereiten. So stellt dein Unternehmen sicher, dass alle Beschäftigten die gesetzlichen Vorgaben, ethischen Grundsätze und technischen Möglichkeiten im Arbeitsalltag sicher anwenden können.

FAQ: Praxisbeispiele zur Kennzeichnungspflicht

  • Ein KI-generiertes Foto, das wie eine echte Passaufnahme aussieht
  • Ein KI-generiertes Video, das eine echte Person in einer realen Umgebung zeigt 
  • Ein KI-generierter Podcast, in dem eine bekannte Stimme imitiert wird
  • Ein KI-generierter Blogartikel zu aktuellen politischen Ereignissen
  • Ein KI-generiertes Comicbild, das eindeutig als Zeichnung erkennbar ist
  • Eine stilisierte KI-Grafik, die keine reale Szene oder Person nachbildet
  • Ein KI-generierter Text, der nur als interne Notiz dient und nicht veröffentlicht wird
  • Ein KI-generiertes Bild mit offensichtlichem künstlerischen Stil, das nicht den Eindruck einer echten Aufnahme erweckt

Fazit

Die Kennzeichnungspflicht für KI-generierte Inhalte ist ein wichtiger Schritt für mehr Transparenz und Vertrauen im digitalen Raum. Unternehmen sollten sich frühzeitig mit den neuen Anforderungen auseinandersetzen und klare Prozesse etablieren, um rechtliche Risiken zu vermeiden und das Vertrauen ihrer Nutzer zu stärken.

 

Benötigst du weitere Unterstützung zu diesem oder anderen Themen rund um Datenschutz, IT-Sicherheit oder KI-Compliance?

Kontaktiere uns gerne – wir helfen dir weiter!

Inhalt

NOVI mit Absolventenhut
Schulung KI-Kompetenz
Lerne den sicheren Umgang mit KI - praxisnah und verständlich.
Mehr erfahren ...
Inhalt wird geladen ...