.st0{fill:#FFFFFF;}

Deepfakes erkennen: Was Sekretärinnen jetzt über KI-Fälschungen wissen müssen 

 

By  

Wenn Täuschung Realität wird

Sie erinnern sich vielleicht: Auf der Fachtagung 2024 warnte Cybercrime-Experte Denny Speckhahn eindringlich davor, dass KI-basierte Fake-Videos – sogenannte Deepfakes – bald zum Standardrepertoire digitaler Täuschung gehören werden. Damals klang es noch wie Zukunftsmusik. Heute müssen wir sagen: Die Zukunft hat begonnen.

Was passiert, wenn Sie ein Video Ihrer Chefin sehen – und sie angeblich vor laufender Kamera beleidigende Äußerungen macht? Oder wenn ein Kunde ein Audio schickt, das nachweislich gefälscht ist, aber wie echt klingt? Sam Gregory, Executive Director von WITNESS, geht diesen Fragen auf den Grund. Sein Vortrag auf der re:publica 2025 ist ein Weckruf – und wir bringen ihn direkt in Ihren Büroalltag.

Wer ist Sam Gregory – und warum sollten Sie ihm zuhören?

Sam Gregory ist kein Theoretiker. Er ist Praktiker. Seit über 20 Jahren arbeitet er mit Journalistinnen, Menschenrechtsaktivistinnen und IT-Sicherheitsexpert*innen zusammen, um Bild-, Video- und Audioquellen auf ihre Echtheit zu überprüfen. Mit seiner Organisation WITNESS leitet er die „Deepfakes Rapid Response Force“ – eine Art digitales Notfallteam für KI-Fälschungen.

Sein Ziel: Realität schützen. Wahrheit verteidigen. Öffentlichkeit stärken. Und genau darum geht es auch in seinem Vortrag auf der re:publica – mit vielen eindringlichen Beispielen.

Täuschung auf Knopfdruck: So funktionieren Deepfakes heute

Der Einstieg in Gregorys Vortrag ist drastisch – und erschreckend realistisch. Drei Audioaufnahmen, die über sein Team zur Überprüfung eingereicht wurden:

  1. Ein Politiker aus Ghana, der Wähler als „leichtgläubig“ bezeichnet – gefälscht mit KI.
  2. Ein mutmaßlicher Militärfunk aus dem Sudan – unklar, ob echt oder manipuliert.
  3. Ein indischer Politiker, der zwei kompromittierende Aufnahmen bestreitet – aber eine ist echt.

Die Erkenntnis: Selbst Expert*innen können heute nicht mehr mit bloßem Auge – oder Ohr – erkennen, ob ein Video oder eine Stimme echt ist. KI macht’s möglich. Und das verändert alles.

Von Pikachu bis Politik: Die neuen Formen der Täuschung

Gregory zeigt skurrile, aber tief beunruhigende Beispiele: Der Pokémon-Charakter Pikachu, angeblich mitten in einem Polizeieinsatz in der Türkei. Die Szenen: alle gefälscht. Und doch wurden sie millionenfach geteilt – viele hielten sie für real. Die Grenze zwischen Ironie, Propaganda und bewusster Täuschung verschwimmt immer mehr.

In den USA wurde ein satirisch gemeintes Bild schwarzer Trump-Wähler*innen plötzlich als echtes Wahlkampfmaterial interpretiert – und umgekehrt. Auch in Deutschland zirkulierte ein KI-generiertes Video von Friedrich Merz, das zunächst als Witz gedacht war, dann aber als ernsthafte Aussage weiterverbreitet wurde.

Willkommen im Zeitalter der Kontext-Slippage – wenn die Intention hinter einem Bild verloren geht, weil niemand mehr weiß, was noch wahr ist.

Deepfake-Strategien: Wie Desinformation mit KI funktioniert

Sam Gregory teilt die Täuschungsstrategien in verschiedene Kategorien ein. Und jede davon betrifft nicht nur die große Politik, sondern kann auch in der Arbeitswelt Einzug halten – per E-Mail, auf Social Media oder über scheinbar glaubwürdige Videos.

1. Lip-Sync-Fälschungen: Die Worte im Mund verdreht

Besonders perfide sind Deepfakes, bei denen eine echte Person scheinbar Sätze sagt, die sie nie geäußert hat. Der Mund bewegt sich passend, die Stimme klingt authentisch – doch die Botschaft ist manipuliert. Gregory nennt Beispiele aus Pakistan, wo Politiker:innen dazu gebracht wurden, Wähler*innen zum Boykott der Wahl aufzurufen. Was, wenn so ein Video über Ihre Geschäftsleitung kursiert?

2. „Sie war’s nicht!“ – Die fremde Stimme im eigenen Körper

Ebenso problematisch sind Deepfakes, bei denen real existierende Personen mit falschen Aussagen oder Handlungen in Verbindung gebracht werden. Ein ukrainischer Berater wurde plötzlich als Putin-Unterstützer dargestellt. Alles gefälscht – aber visuell überzeugend. Sekretärinnen, die interne Kommunikation vorbereiten oder Pressespiegel zusammenstellen, sollten solche Risiken kennen.

3. KI-Avatare und Fake-News-Moderator:innen

Gregory zeigt: In Ländern wie der Ukraine oder Indien gibt es bereits offizielle KI-Sprecher, die politische Botschaften in verschiedenen Sprachen verbreiten. Diese Praxis hat Potenzial – aber auch Risiken. Was, wenn auf Ihrem Firmenkanal ein Video erscheint, das scheinbar vom Geschäftsführer stammt – dabei ist es ein synthetischer Klon?

Warum der „Lügner-Bonus“ so gefährlich ist

Gregory nennt es den „Liar’s Dividend“ – den Bonus für alle, die erwischt werden und sich dann einfach rausreden: „Das war doch KI!“

Kennen Sie diesen Satz?

„Glauben Sie nicht alles, was Sie sehen.“

Er bekommt in Zeiten von Deepfakes eine neue Qualität. Gregory erzählt vom Politiker, der auf einem Video kompromittierende Aussagen machte – und sich mit einem Schulterzucken aus der Affäre zog: „Das war doch nur ein Deepfake.“

Das perfide daran: Auch echte Inhalte werden angezweifelt.
Was, wenn ein echter Skandal als „KI-Fälschung“ abgetan wird – und niemand weiß mehr, was stimmt?

Erkennen, verstehen, schützen: So wehren Sie sich gegen KI-Fälschungen

Was hilft noch, wenn man mit bloßem Auge nichts mehr erkennt?
Gregory sagt klar: Nicht das Auge – der Kontext ist entscheidend.

Hier sind seine wichtigsten Ratschläge – auch für Sekretärinnen im Büroalltag anwendbar:

WarnzeichenBedeutungBeispiel im Arbeitsalltag
Unnatürliche BewegungenMund und Augen wirken asynchronVideo mit vermeintlicher Chefansprache
Komische BildfehlerSchatten oder Finger sehen „falsch“ ausMitarbeitervideo wirkt manipuliert
Falsche QuellenangabeKein Impressum, kein AbsenderAnonyme E-Mail mit Videoanhang
Emotionale TriggerÜbertriebene Wut, Trauer, SchuldzuweisungAufrufe zum Handeln oder Protest
Fehlen von MetadatenKeine Originalquelle, kein ZeitstempelDownload-Link statt eingebettetes Video

Was Sekretärinnen jetzt konkret tun können

Die schlechte Nachricht zuerst: Es gibt (noch) kein Tool, das zuverlässig alle Deepfakes erkennt. Die gute Nachricht: Mit klarem Verstand, Hintergrundwissen und ein paar einfachen Techniken können Sie sich und Ihr Büro schon heute wirksam schützen.

1. Immer auf die Quelle achten

Fragen Sie sich:
– Kommt das Video direkt von einer vertrauenswürdigen Adresse?
– Gibt es ein offizielles Statement oder ein Impressum?
– Ist der Absender glaubwürdig?

Tipp aus dem Sekretariat: Lassen Sie sich bei unklaren Fällen den Ursprung des Videos zeigen – z. B. den Link zum Original oder die Pressemitteilung.

2. Verdächtige Inhalte gegenrecherchieren

Sie sehen ein brisantes Zitat oder eine angebliche Aussage im Video? Prüfen Sie, ob seriöse Medien darüber berichten. Wenn Sie nichts finden, könnte es sich um Desinformation handeln.

3. Niemals blind weiterleiten

Auch wenn Sie unter Zeitdruck stehen: Leiten Sie keine Inhalte weiter, bei denen Zweifel bestehen. Im Zweifel: Stopp drücken – erst prüfen.

4. Tools richtig nutzen

Es gibt Tools wie InVID, welche die Metadaten von Videos anzeigen oder Bilder analysieren können. Aber Gregory warnt: Viele dieser Tools sind fehleranfällig und liefern falsche Ergebnisse – besonders in internationalen Kontexten.

5. Auf den Kontext achten

Fragen Sie sich: Ist das Video überhaupt technisch realistisch? Stimmen Licht, Mimik, Sprache und Umfeld zusammen? Passt die Aussage zur bekannten Haltung der Person?

Was Sie von der Fachtagung 2024 mitnehmen konnten

Bereits im letzten Jahr hatte der Verband der Sekretärinnen auf der Fachtagung 2024 einen vorausschauenden Blick auf das Thema geworfen. Cybercrime-Experte Denny Speckhahn warnte damals:

„Künstliche Intelligenz wird in Zukunft nicht nur Daten stehlen, sondern auch Wahrheiten.“

Viele Sekretärinnen reagierten damals mit Skepsis – doch heute zeigt sich: Die Prognose war realistisch. Gregorys Vortrag bestätigt nun: Die Gefahr ist nicht theoretisch – sie ist bereits da.

Die Wahrheit braucht Sie!

Ob in der Chefetage, im Team-Newsletter oder bei der Planung von Veranstaltungen: Sekretärinnen sind Kommunikationsprofis.
Und genau deshalb kommt es jetzt auf Sie an. Fake-Videos, Deepfake-Audios oder täuschend echte Avatare werden nicht verschwinden – aber Sie können lernen, sie zu durchschauen.

Denn: Die Wahrheit verteidigt sich nicht von allein.
Aber sie braucht Menschen, die wachsam bleiben – und bereit sind, auch unter Druck nachzufragen.

Schlussgedanke: Ihre Augen – schärfer als jede KI

Sie müssen keine IT-Expertin sein, um Deepfakes zu entlarven. Was es wirklich braucht? Ihren wachen Blick, Ihre klugen Fragen – und das Wissen, dass Verantwortung nicht immer beim System, sondern oft bei uns selbst beginnt.

Gerade im Sekretariat sind Sie es gewohnt, Details zu erkennen, auf Tonlagen zu achten und zwischen den Zeilen zu lesen. Diese Fähigkeiten sind jetzt Gold wert.
Denn in einer Welt, in der Bilder lügen und Stimmen gefälscht werden können, zählt ein ehrlicher Mensch mehr als jede Technik.

Also: Bleiben Sie kritisch. Bleiben Sie neugierig. Und wenn Sie das nächste Mal ein Video weitergeleitet bekommen, denken Sie an diesen Satz von Sam Gregory:

„Don’t try to spot AI – try to understand context.“

Das können Sie – und das sollten Sie sich ruhig öfter selbst sagen. 💪🖥️

Deepfake? Echt jetzt?!

1. Wie erkenne ich als Sekretärin, ob ein Video echt ist oder KI-Fake?
Achten Sie auf Unstimmigkeiten: zu viele Zähne, unnatürliche Blinzelraten, schwankende Hintergründe. Noch wichtiger: Fragen Sie sich, woher das Video kommt – und warum es jetzt auftaucht. Der Kontext verrät oft mehr als das Bild.


2. Muss ich jetzt jede politische Rede oder E-Mail mit Video kritisch prüfen?
Nein – aber bei ungewöhnlichen, empörenden oder skandalösen Inhalten lohnt sich ein zweiter Blick. Wenn ein Bürgermeister plötzlich gegen Windräder hetzt oder Ihre Chefin angeblich vom Strand aus kündigt – Stopp. Erst prüfen, dann glauben.


3. Gibt es Tools, mit denen ich Deepfakes erkennen kann?
Ja, aber Vorsicht! Viele Online-Checker sind unzuverlässig oder auf englische Inhalte trainiert. Verlassen Sie sich lieber auf journalistisch geprüfte Quellen – oder den Deepfakes Rapid Response Force von WITNESS als langfristiges Monitoring-Beispiel.


4. Was kann ich im Unternehmen tun, wenn ein verdächtiges Video kursiert?
Sprechen Sie es an! Informieren Sie Ihre Vorgesetzten oder die IT-Abteilung. Dokumentieren Sie die Quelle. Und: Seien Sie nicht die Erste, die es weiterleitet – sondern die Erste, die fragt. Das macht Eindruck. Und schützt.


5. Was bedeutet das alles für meine tägliche Büroarbeit?
Mehr Verantwortung. Mehr Medienkompetenz. Und mehr Bedeutung Ihrer Rolle als kommunikative Schnittstelle. Sekretärinnen sind Gatekeeperinnen der Wahrheit – wenn sie es wollen. Vertrauen Sie Ihrem Bauchgefühl und bleiben Sie skeptisch, wenn etwas zu perfekt wirkt.

Lernen Sie KI kennen, besuchen Sie die Fachtagung der Sekretär:Innen Assistenzen

Innovation & Wohbefinden im Sekretariat

ChatGPT und
gesunde Arbeitswelten gestalten


Judith Torma Goncalves ist Magistra der Rhetorik. Seit 2017 steuert Sie die Geschicke des Verband der Sekretärinnen.

Ihre Lieblingsthemen sind Kommunikation und Rhetorik und das weite Feld des miteinander.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Lebenslanges Lernen

Überzeugende Korrespondenz im Sekretariat

Sichern Sie sich unseren gratis Video-Kurs und erleben Sie den Sprachenwandel im Sekretariat.

 

Bezahlen Sie mit Ihrem guten Namen und erhalten Sie neben dem Video-Kurs weitere wichtige Informationen.

Diese Seite verwendet Cookies, um die Nutzerfreundlichkeit zu verbessern. Mit der weiteren Verwendung stimmen Sie dem zu.

Datenschutzerklärung
>