KI generierte (Nackt-)Bilder und Videos von realen Frauen
Deepfakes
Deepfakes sind eine neue Form sexualisierter digitaler Gewalt, von der überwiegend Frauen* betroffen sind. Mithilfe künstlicher Intelligenz (KI) werden dabei bestehende Audio-, Bild- oder Videodateien so verändert, dass täuschend echt wirkende, aber vollständig gefälschte Inhalte entstehen. So können mit Deepfakes ganze Handlungen, Aussagen oder Szenen erstellt und veröffentlicht werden, die nie stattgefunden haben. Dadurch werden Menschen öffentlich bloßgestellt, erpresst oder in Verruf gebracht – mit enormen persönlichen und psychischen Folgen.
Bei sexualisierten Deepfakes werden häufig Gesichter realer Frauen in pornografische Videos eingebaut. Das Ergebnis sieht auf den ersten Blick echt aus – das Gesicht scheint zum Körper zu gehören, obwohl die gezeigte Person nie an der Aufnahme beteiligt war. So entstehen Fälschungen, die nicht nur täuschen, sondern auch tief in die Privatsphäre und Würde der Betroffenen eingreifen.
Die Plattformen, auf denen Deepfakes hochgeladen und öffentlich geteilt werden, reagieren oft spät oder gar nicht. Selbst wenn ein gefälschtes Video gelöscht wird, kursieren häufig bereits zahlreiche Kopien im Netz. Die Betroffenen haben kaum Möglichkeiten, die vollständige Verbreitung zu stoppen – die Kontrolle über das eigene Bild geht verloren.
Deepfakes – wie erkenne ich das?
Deepfakes werden technisch immer besser, sind aber oft an kleinen Unstimmigkeiten erkennbar
- ein leerer oder starrer Blick
- unkorrekter Schattenwurf
- unnatürliche Mimik und Bewegungen
- uneinheitliche Hauttöne des Gesichtes und Körpers
- keine Abstimmung zwischen Ton und den Mundbewegungen
Strafrechtliche Konsequenzen und Unterstützung

Die Erstellung und Verbreitung von Deepfakes können strafrechtliche Konsequenzen haben – auch wenn es bislang kein eigener Straftatbestand ist. Wer das Recht am eigenen Bild verletz, oder gefälschte Inhalte veröffentlicht, macht sich strafbar. Das Recht am eigenen Bild schützt jede Person davor, dass Fotos oder Videos ohne ihre Zustimmung veröffentlicht oder verbreitet werden. Dieses Recht gilt sowohl für analoge als auch für digitale Inhalte – also auch für Bilder, die online gestellt oder in Chatgruppen geteilt werden. Laut dem Koalitionsvertrag 2025 ist geplant, sexualisierte Deepfakes künftig stärker gesetzlich zu regulieren und Betroffene besser zu schützen.
Bis dahin gilt:
- Deepfake-Inhalte dokumentieren und melden.
- Sich an Beratungsstellen für digitale Gewalt wenden, um rechtliche und emotionale Unterstützung zu erhalten. Zum Beispiel bietet HateAid Beratungen für Betroffene und Zeug*innen » an.
- STOPNCII hilft bei der Entfernung von Deepfakes » (für Personen über 18 Jahre)
Weitere Informationen finden Sie bei HateAid » oder bei klicksafe, mit Familien und Jugendliche als Zielgruppe ».
Zuletzt geändert am 27. November 2025
