Deepfakes: Von der KI-Spielerei zum Gesellschaftsdrama
Dieser Linkedin-Artikel zur moralischen und faktischen Anklage von Frau Ulmen-Fernandes an ihren Ex-Gatten Christian Ulmen hat eine hohe Resonanz erzeugt.
Grund genug, genauer hinzusehen. Dieser Artikel destilliert die Kommentare aus dem verlinkten Beitrag anonym und verbindet sie mit den aktuellsten Quellen zu einem Thema, das zu oft zwischen Empörungswelle und schnellem Vergessen verschwindet. Was fehlt, ist keine weitere moralische Verurteilung – sondern Einordnung, Kontext und der Mut zur Konsequenz. Deshalb stelle ich die Frage, was Schulen konkret beitragen können, was Unternehmen jetzt tun müssen – und halte den Beitrag mit handfesten Handlungsempfehlungen am Boden. Und hier gibt es den passenden Vortrag dazu, den ich in der Vergangenheit schon oft gehalten habe.
Deepfakes sind nicht mehr nur ein Thema für Politik oder Betrugsmaschen, sondern eine sehr konkrete Bedrohung für Unternehmen, Schulen und die Menschen darin. Der Fall Collien Fernandes zeigt exemplarisch, wie aus KI-Technologie ein Instrument für digitale Gewalt im Nahbereich wird – mit massiven Folgen für Identität, psychische Gesundheit und Vertrauen. Eine Stimme aus der Community bringt es auf den Punkt:
„Deepfakes sind keine technische Randnotiz, sondern eine Frage von Macht, Kontrolle und digitaler Gewalt.“
Während lange über Fake-Investments mit Markus Lanz oder Deepfakes des Bundeskanzlers diskutiert wurde, wirkt die eigentliche Wucht von Deepfakes inzwischen im Privaten: in Partnerschaften, Teams, Schulklassen und Kollegien. Laut der Organisation HateAid handelt es sich bei 90 bis 95 Prozent aller Deepfake-Videos um nicht einvernehmliche Pornografie – und rund 90 Prozent dieser Inhalte richten sich gegen Frauen. Ein Fakt, der die Relevanz für Gleichstellung, Prävention und Arbeits-/Schulkultur unmissverständlich macht.
Und die technische Schwelle dafür ist erschreckend niedrig. Ein Kommentator schreibt aus eigener Beobachtung:
„Es benötigt nur einen Screenshot. Was innerhalb weniger Minuten möglich ist, ist wahnsinnig eklig – im Selbstversuch sind in fünf Minuten explizite Motive möglich, die nur ein einziges Bewerbungsbild benötigen, absolut lebensecht und realistisch.“
Was Unternehmen konkret bei Deepfakes tun sollten
Für Unternehmen ist die Frage nicht mehr, ob Deepfakes auftauchen, sondern wie vorbereitet sie sind, wenn es passiert. Bei über 90 Prozent aller Deepfakes handelt es sich um nicht einvernehmliche pornografische Inhalte – und jede fünfte Frau in Deutschland erlebte in den vergangenen fünf Jahren digitale Gewalt, wie eine Studie von Bundesregierung und Bundeskriminalamt zeigt. Es geht um Schutz von Mitarbeitenden, Markenreputation und eine glaubwürdige Kultur der digitalen Sicherheit.
1. Verbindliche Richtlinien zu Deepfakes & digitaler Gewalt
- Verankerung von „image-based sexual abuse“, Identitätsdiebstahl, Deepfakes und Cyberstalking explizit in Code of Conduct, Social-Media-Guidelines und IT-Richtlinien.
- Klare Aussage: Diffamierende KI-Inhalte gegen Kolleginnen/Kollegen sind ein schwerer Verstoß, mit arbeitsrechtlichen Konsequenzen bis zur Kündigung.
- Ergänzung bestehender Richtlinien zu Mobbing und sexueller Belästigung um den digitalen Raum (Chat-Gruppen, Messenger, anonyme Plattformen). Pornografische Deepfakes müssen klar als Form von image-based sexual abuse(bildbasierter sexualisierter Gewalt) auf einem Kontinuum mit anderen Gewaltformen verortet werden – rechtlich wie kulturell.
2. Interne Meldewege und Krisenprotokolle
- Benennung einer klaren Anlaufstelle (z.B. HR + Compliance + Datenschutz) für Verdachtsfälle von Deepfakes und digitaler Gewalt.
- Standardverfahren definieren:
- Beweise sichern (Screenshots, Links, Zeitstempel).
- Juristische Erstbewertung (Arbeitsrecht, Strafrecht, Persönlichkeitsrechte). Nach aktueller Rechtslage in Deutschland ist das Erstellen von Deepfakes noch nicht strafrechtlich erfasst – strafbar wird es erst bei Verbreitung oder Veröffentlichung, was eine fundamentale Lücke darstellt.
- Kommunikationsstrategie nach innen und außen, um vorschnelle Vorverurteilungen zu vermeiden, aber Betroffene sofort zu unterstützen.
- Verbindliche Zusage: Betroffene werden nicht allein gelassen, sondern professionell begleitet (z.B. EAP, psychologische Beratung, Rechtsberatung).
Dass bei Vorfällen strafrechtliche Konsequenzen unmissverständlich sein müssen, bringt ein Kommentar treffend zum Ausdruck:
„Wenn sich Schuld nachweisen lässt, muss mit voller Härte bestraft werden – wie bei jedem anderen Täter, der Gewalt an Menschen verübt, ob digital oder körperlich. Ich sehe da nur einen sehr geringen Unterschied. Beides hinterlässt schwere Narben auf der Seele.“
3. Prävention als Teil der Unternehmenskultur
- Regelmäßige Awareness-Formate: kurze Lunch&Learn-Sessions, in denen anhand realer Beispiele erklärt wird, wie leicht Deepfakes erstellt werden können und wie man erste Warnsignale erkennt. Zwei Worte reichten aus, damit ein KI-Chatbot Frauen auf Fotos virtuell auszog – und so entstanden innerhalb von nur neun Tagen Millionen sexualisierter Bilder ohne das Einverständnis der Betroffenen.
- Schulung von Führungskräften, damit sie Vorfälle nicht mit „ist ja nur Internet“ abtun, sondern als reale Form von Gewalt erkennen. Sexualisierte Gewalt im Netz sei auch Gewalt: Gesellschaft ignoriere, toleriere oder verharmlost sie – und das gelte bei digitalen Formen nicht anders als bei physischen.
- Offene Diskussionsräume: Wie viel Sichtbarkeit ist für Mitarbeitende (z.B. auf LinkedIn) sinnvoll – und wie gehen wir mit dem Spannungsfeld zwischen persönlicher Marke und digitalem Risiko um?
Dabei dürfen Präventionsangebote nicht an ihrer eigenen Finanzierungslogik scheitern. Ein erfahrener Practitioner aus der Awareness-Branche mahnt:
„Die öffentliche Empörung steht in keinem Verhältnis zum Aufwand, den unsere Gesellschaft bereit ist, in dieses wichtige Thema zu investieren. Präventionsangebote werden stets begrüßt – aber niemand betrachtet den Aufwand dahinter, der entlohnt werden muss.“
4. Technische und organisatorische Maßnahmen
- Prüfen von KI-gestützten Tools zur Erkennung manipulierter Bilder/Videos – mindestens als Unterstützung bei Krisenfällen.
- Standards für Bild- und Videonutzung:
- Einwilligungen dokumentieren.
- Sensible Inhalte (z.B. interne Events, private Situationen) nicht ungefiltert ins Netz stellen.
- Enge Abstimmung zwischen IT-Sicherheit, HR und Kommunikation: Bundesjustizministerin Hubig räumte ein, dass die Strafverfolgung im digitalen Raum komplex sei: „Wir haben es mit internationalen Konzernen und Netzwerken zu tun, und es tauchen ständig neue Phänomene auf.“ Deepfakes sind kein reines IT-Problem, sondern ein Querschnittsthema.
Was Schulen konkret gegen Deeepfakes tun sollten
Schulen stehen doppelt unter Druck: Sie müssen Kinder und Jugendliche schützen und zugleich Medien- und KI-Kompetenz aufbauen. Der Fall Fernandes macht deutlich, wie schnell intime Bilder zur Waffe werden können: „Allein zu wissen, was da passiert, das war so mit einem gewissen Ekel verbunden, weil die eigene Sexualität so entfremdet wird. Da passieren Dinge, die man definitiv nicht machen würde.“ Insbesondere Mädchen und junge Frauen sind massiv betroffen. Ein Kommentar aus dem Thread lenkt den Blick dabei auch auf eine oft vergessene Dimension:
„Das aktuelle mediale Interesse wirft auch nochmal ein besonderes Schlaglicht auf die Diskussion über Kinderbilder in sozialen Netzwerken. So manche ‚Freiheit‘ egoistischer Erwachsener entpuppt sich angesichts der technologischen Entwicklung geradezu als Beihilfe.“
1. Schulkonzepte zu digitaler Gewalt und Deepfakes
- Integration des Themas in Schul- und Medienbildungskonzepte: nicht nur „Fake News“, sondern spezifisch Deepfakes, sexualisierte Bildmanipulation und Cybermobbing.
- Festlegung klarer Verfahren bei Vorfällen: Wer wird wann informiert (Schulleitung, Schulsozialarbeit, Eltern, ggf. Polizei)? 2024 verurteilte ein spanisches Gericht mehrere Schüler, die KI-generierte Nacktbilder ihrer Mitschülerinnen erstellt und verbreitet hatten – ein Präzedenzfall mit europaweiter Signalwirkung.
- Kooperation mit externen Fachstellen (z.B. Beratungsstellen zu digitaler Gewalt, Polizei, Medienpädagogik), um Schulen nicht allein zu lassen.
2. Prävention im Unterricht – jenseits der Technik
- Thematisierung im Fachunterricht (Ethik, Gemeinschaftskunde, Informatik, Deutsch):
- Was ist „image-based sexual abuse“?
- Warum ist Victim Blaming problematisch? Die Wissenschaftlerin Nivedita Prasad spricht von einer „erstaunlichen Renaissance“ des Victim Blaming im Kontext digitaler geschlechtsspezifischer Gewalt – eine Schuldumkehrung, die jeder Grundlage entbehrt.
- Arbeit mit Fallbeispielen: Szenarien durchspielen, Rollenwechsel, Perspektive von Betroffenen, Täter:innen, Mitwissenden.
- Stärkung von Empathie und Verantwortungsgefühl. Eine Stimme aus der Debatte fasst das Grundproblem präzise:
„Die KI-Technologie wirkt nicht als Ursache, sondern als Mega-Verstärker. Turbolader sozusagen. Die eigentliche Spannung unserer Zeit liegt darin, dass die äußeren Möglichkeiten des Handelns rasant wachsen, während die innere Entwicklung – Empathie, Verantwortungsfähigkeit, Bewusstheit – nicht im gleichen Maß Schritt hält.“
3. Schutzräume und vertrauenswürdige Ansprechpersonen
- Sichtbare Benennung von Vertrauenslehrer:innen und Schulsozialarbeit als erste Anlaufstellen bei digitaler Gewalt.
- Niedrigschwellige Meldewege (z.B. anonymisierte digitale Meldestelle), damit Schüler:innen frühzeitig Hilfe holen können. Die BKA-Dunkelfeldstudie zeigt: Die Anzeigequote bei fast allen Formen von Gewalt liegt unter zehn Prozent – niedrigschwellige Wege sind daher existenziell.
- Klare Botschaft: Wer digitale Gewalt meldet, wird geschützt – nicht stigmatisiert oder ausgelacht.
Und hier ist auch gesellschaftliche Sensibilisierung gefragt, die der Rechtssetzung vorausgehen muss. Wie es einer aus dem Thread formuliert:
„Ernst gemeinte gesellschaftliche Sensibilisierung muss an erster Stelle stehen. Denn ohne diese laufen rechtliche Anpassungen ins Leere – was durch einzelne Beiträge und Kommentare zur aktuellen Causa deutlich wird.“
Balance: Schutz stärken, Freiheit erhalten
Ein wichtiger Punkt aus den Kommentaren – und ein entscheidender: Schutz darf nicht in eine umfassende Kontrollarchitektur kippen. Wenn jede digitale Teilhabe an eine harte Identitätsprüfung gekoppelt ist, werden zwar Täter greifbarer – aber auch Whistleblower, Aktivist:innen und vulnerable Gruppen angreifbarer. Eine Stimme aus der Debatte bringt diese Spannung auf den Punkt:
„Schutz darf nicht in Kontrollarchitektur kippen. Wenn Identität zur Voraussetzung digitaler Teilhabe wird, werden nicht nur Täter leichter greifbar – auch kritische Stimmen werden leiser. So wird aus Sicherheit schnell ein Preis für Freiheit.“
Für Organisationen heißt das:
- So viel Identitäts- und Zugriffsschutz wie nötig – aber keine lückenlose Überwachung aller digitalen Aktivitäten von Mitarbeitenden oder Schüler:innen.
- Transparenz über eingesetzte KI- und Überwachungstechnologien, damit Vertrauen und nicht Misstrauen entsteht.
- Demokratische Grundprinzipien (Unschuldsvermutung, individuelle Schuld statt Kollektivvorwurf) auch in der internen Kommunikation wahren. Fernandes selbst wählte bewusst den Weg über die spanische Justiz, weil sie in Deutschland „Erfahrungen mit Justizversagen und gesetzlichen Schutzlücken gemacht“ hatte – Deutschland sei ein „absolutes Täterparadies“.
Dass dieses Thema längst keine Ausnahme mehr ist, sondern strukturell, macht ein weiterer Kommentar deutlich:
„Interessant ist, dass so etwas schon Tausenden Menschen passiert ist, jeder weiß das – aber erst wenn es jemanden Prominenten betrifft, ist der Aufschrei plötzlich groß in Politik und Medien.“
Vom Rahmen zur Praxis: Drei nächste Schritte im Umgang mit Deepfakes
Damit der Artikel für die Arbeit mit Unternehmen und Schulen anschlussfähig wird, lassen sich aus der Debatte drei sofort umsetzbare Schritte ableiten:
1. Status-Check durchführen
- Unternehmen: Gibt es Regelungen zu Deepfakes, digitaler Gewalt und KI-Missbrauch?
- Schulen: Gibt es ein Medienbildungskonzept, das Deepfakes und sexualisierte Bildmanipulation explizit adressiert?
2. Leitlinien und Meldewege aktualisieren
- Deepfakes explizit in bestehende Richtlinien aufnehmen.
- Verantwortliche Personen, Prozesse und Partner (Anwälte, Beratungsstellen) benennen. Bundesjustizministerin Hubig hat angekündigt, noch im Frühjahr ein digitales Gewaltschutzgesetz vorzulegen – Unternehmen sollten diese Entwicklung aktiv beobachten und ihre internen Richtlinien antizipativ anpassen.
3. Ein Pilotformat starten
- Für Unternehmen: 90-Minuten-Impuls + Workshop für Führungskräfte zum Thema „Deepfakes, digitale Gewalt & Unternehmenskultur“.
- Für Schulen: Projekttag oder Elternabend „Digitale Gewalt und Deepfakes – wie wir unsere Kinder schützen können“.
Quellen:
- ZDF „Die Spur“ (2024): Collien Fernandes kämpft gegen Deepfake-Pornos — zdfheute.de
- Tagesspiegel (2026): Fernandes zeigt Ex-Mann Ulmen an — tagesspiegel.de
- HateAid: Deepfakes und sexualisierte Gewalt — hateaid.org
- Bundeszentrale für politische Bildung (bpb, 2024): Strafrecht und Regulierung von Deepfake-Pornografie — bpb.de
- das-nettz.de: Pornografische Deepfakes als Form der digitalen Gewalt — das-nettz.de
- SRF (2026): Was ist sexualisierte Gewalt im Netz? — srf.ch
- Campact (2026): Deepfakes – warum der Fall Fernandes uns alle angeht — campact.de
- taz (2026): Pornografische Deep-Fakes: Fernandes erhebt Vorwürfe — taz.de

