Eine der dunkelsten Schattenseiten der künstlichen Intelligenz zeigt sich dort, wo die Technologie in die Hände von Tätern gerät: bei der Produktion von Missbrauchsdarstellungen von Kindern, die nie stattgefunden haben – und doch real wirken. Bilder, die keine physische Tat dokumentieren, sondern aus Code, Pixeln und Algorithmen entstehen. Doch macht sie das weniger gefährlich? Genau daran entzündet sich derzeit eine der drängendsten juristischen und ethischen Debatten in Europa.
Ein „Vorstellungsdelikt“ – wenn Fantasie zur Straftat wird
Lange war die Gesetzeslage klar: Kinderpornografie bedeutete Aufnahmen realer Gewalt, reale Opfer, reale Täter. Doch mit Deepfakes, text-to-image-Modellen und „Nudifying“-Software verschwimmen die Grenzen. KI kann Gesichter von Kindern synthetisieren, Fotos digital entkleiden oder ganze Szenen aus dem Nichts erschaffen.
Das klingt wie ein technisches Kuriosum, ist aber längst bitterer Ernst. Schon jetzt zirkulieren synthetische Bilder in Untergrundforen, zum Teil täuschend echt – so echt, dass Ermittler kaum noch unterscheiden können, ob eine Straftat stattgefunden hat oder nicht.
Operation „Cumberland“ Anfang 2025 war ein Weckruf: 25 Verdächtige in 19 Ländern, allesamt Teil eines Netzwerks, das ausschließlich KI-generierte Missbrauchsdarstellungen erstellte und verbreitete. Die Festnahmen zeigten: Das Problem ist global, hochorganisiert – und bisher rechtlich nur unzureichend greifbar.
Europas Grauzonen: Wo das Gesetz hinterherhinkt
1. Alte Gesetze, neue Realität
Fast alle EU-Staaten verbieten Produktion, Besitz und Verbreitung von Missbrauchsbildern. Doch meist gilt das nur für „reale“ Darstellungen. Synthetische Bilder? Ambivalenz.
Frankreich etwa ahndet nach Artikel 227-23 des Strafgesetzbuches jede Art von kinderpornografischem Material. Aber KI-generierte Bilder erwähnt der Paragraf nicht. Reicht die bestehende Definition aus – oder brauchen wir einen neuen Straftatbestand? Kritiker warnen vor Schlupflöchern: Was, wenn jemand einen Generator anbietet, der gezielt Missbrauchsbilder produziert?
Noch komplizierter wird es auf EU-Ebene: Während das Parlament im Juni 2025 eine eindeutige Linie gezogen hat – keine Ausnahmen, kein Besitz, kein „Privatgebrauch“ – pocht der Rat der EU weiter auf eine Einschränkung: Wer ein solches Bild nur „für sich“ speichert, solle straffrei bleiben. Ein Freifahrtschein für Täter, sagen NGOs.
2. Politischer Wille trifft auf politische Langsamkeit
Das Parlament will die Strafbarkeit für KI-generierte Missbrauchsdarstellungen mit realem Material gleichstellen. Ein starkes Signal, doch es ist nur der erste Schritt. Nun folgen die zähen Verhandlungen mit Rat und Kommission. Und genau dort droht der große Wurf zu versanden.
Parallel läuft ein separates Vorhaben der Kommission, das die Rolle von Plattformen und KI-Anbietern klärt: Sie sollen Missbrauchsmaterial erkennen und melden – auch synthetisches. Doch zwischen Datenschutz, Verschlüsselung und Grundrechten entbrennt bereits die nächste Grundsatzdebatte.
3. Ein Flickenteppich in Europa
Manche Staaten gehen voran. Großbritannien etwa plant ein explizites Verbot nicht nur der Bilder selbst, sondern auch der KI-Tools, die sie erzeugen. Frankreich diskutiert über ein Verbot, Darstellungen von Minderjährigen überhaupt in solchen Modellen zu verwenden.
Andere Länder? Schweigen. So entsteht ein gefährlicher Flickenteppich: Was in Berlin strafbar ist, könnte in Madrid legal bleiben – und das Internet kennt keine Grenzen.
Was tun? Vorschläge gegen das digitale Grauen
- Keine Ausnahmen mehr
Wer KI-generierte Missbrauchsbilder besitzt, produziert oder verbreitet, muss strafrechtlich belangt werden – unabhängig von der Frage, ob reale Kinder beteiligt waren oder nicht. Alles andere öffnet Tür und Tor für Täter. - Die Werkzeuge selbst verbieten
Nicht nur das Endprodukt ist problematisch. Auch die Generatoren, die Modelle und die technischen „Bauanleitungen“ gehören geächtet. Wer so etwas entwickelt oder verbreitet, trägt Mitverantwortung. - Europäische Einheit statt nationaler Inseln
Ein einheitlicher Rechtsrahmen ist nötig, um die bekannten „Grenzeffekte“ zu vermeiden: Server hier, Nutzer dort, Ermittler ohne Zugriff. Europol und Eurojust brauchen stärkere Befugnisse und Ressourcen. - Bessere Technik für Ermittler
KI muss gegen KI eingesetzt werden: Forensische Tools, die synthetische Bilder identifizieren, sind überlebenswichtig, um echte Opfer schneller zu schützen. Doch dafür braucht es politische Rückendeckung und Budgets. - Schutz der „Rohdaten“
Eltern sollten wissen: Jedes Urlaubsfoto im Netz kann Teil eines Datensatzes werden. Ohne schärfere Regeln für die Nutzung frei verfügbarer Bilder bleibt der Datenhunger der Modelle ein offenes Einfallstor.
Europa am Scheideweg
Die Frage ist nicht mehr, ob synthetische Missbrauchsbilder gefährlich sind. Sie sind es. Die Frage lautet: Wie lange schaut die Politik noch zu, während Täter die Grauzonen ausnutzen?
Das Parlament hat im Sommer 2025 ein klares Signal gesetzt. Doch Worte auf Papier stoppen keine Täter. Jetzt zählen Umsetzung, Harmonisierung und Konsequenz.
Denn die Wahrheit ist unbequem, aber eindeutig: Jede Darstellung, die ein Kind sexualisiert – ob real, gefälscht oder vollständig synthetisch – ist Teil des Problems. Und solange Europa nicht mit einer Stimme spricht, bleibt der Kontinent anfällig für einen Markt, der längst digital, global und erschreckend professionell organisiert ist.
Autor: Andreas M. B.
Abonniere einfach den Newsletter unserer Chefredaktion!