Deepfakes erkennen: Was Sekretärinnen jetzt über KI-Fälschungen wissen müssen 

Wenn Täuschung Realität wird

Sie erinnern sich vielleicht: Auf der Fachtagung 2024 warnte Cybercrime-Experte Denny Speckhahn eindringlich davor, dass KI-basierte Fake-Videos – sogenannte Deepfakes – bald zum Standardrepertoire digitaler Täuschung gehören werden. Damals klang es noch wie Zukunftsmusik. Heute müssen wir sagen: Die Zukunft hat begonnen.

Was passiert, wenn Sie ein Video Ihrer Chefin sehen – und sie angeblich vor laufender Kamera beleidigende Äußerungen macht? Oder wenn ein Kunde ein Audio schickt, das nachweislich gefälscht ist, aber wie echt klingt? Sam Gregory, Executive Director von WITNESS, geht diesen Fragen auf den Grund. Sein Vortrag auf der re:publica 2025 ist ein Weckruf – und wir bringen ihn direkt in Ihren Büroalltag.

Wer ist Sam Gregory – und warum sollten Sie ihm zuhören?

Sam Gregory ist kein Theoretiker. Er ist Praktiker. Seit über 20 Jahren arbeitet er mit Journalistinnen, Menschenrechtsaktivistinnen und IT-Sicherheitsexpert*innen zusammen, um Bild-, Video- und Audioquellen auf ihre Echtheit zu überprüfen. Mit seiner Organisation WITNESS leitet er die „Deepfakes Rapid Response Force“ – eine Art digitales Notfallteam für KI-Fälschungen.

Sein Ziel: Realität schützen. Wahrheit verteidigen. Öffentlichkeit stärken. Und genau darum geht es auch in seinem Vortrag auf der re:publica – mit vielen eindringlichen Beispielen.

Täuschung auf Knopfdruck: So funktionieren Deepfakes heute

Der Einstieg in Gregorys Vortrag ist drastisch – und erschreckend realistisch. Drei Audioaufnahmen, die über sein Team zur Überprüfung eingereicht wurden:

  1. Ein Politiker aus Ghana, der Wähler als „leichtgläubig“ bezeichnet – gefälscht mit KI.
  2. Ein mutmaßlicher Militärfunk aus dem Sudan – unklar, ob echt oder manipuliert.
  3. Ein indischer Politiker, der zwei kompromittierende Aufnahmen bestreitet – aber eine ist echt.

Die Erkenntnis: Selbst Expert*innen können heute nicht mehr mit bloßem Auge – oder Ohr – erkennen, ob ein Video oder eine Stimme echt ist. KI macht’s möglich. Und das verändert alles.

Von Pikachu bis Politik: Die neuen Formen der Täuschung

Gregory zeigt skurrile, aber tief beunruhigende Beispiele: Der Pokémon-Charakter Pikachu, angeblich mitten in einem Polizeieinsatz in der Türkei. Die Szenen: alle gefälscht. Und doch wurden sie millionenfach geteilt – viele hielten sie für real. Die Grenze zwischen Ironie, Propaganda und bewusster Täuschung verschwimmt immer mehr.

In den USA wurde ein satirisch gemeintes Bild schwarzer Trump-Wähler*innen plötzlich als echtes Wahlkampfmaterial interpretiert – und umgekehrt. Auch in Deutschland zirkulierte ein KI-generiertes Video von Friedrich Merz, das zunächst als Witz gedacht war, dann aber als ernsthafte Aussage weiterverbreitet wurde.

Willkommen im Zeitalter der Kontext-Slippage – wenn die Intention hinter einem Bild verloren geht, weil niemand mehr weiß, was noch wahr ist.

Deepfake-Strategien: Wie Desinformation mit KI funktioniert

Sam Gregory teilt die Täuschungsstrategien in verschiedene Kategorien ein. Und jede davon betrifft nicht nur die große Politik, sondern kann auch in der Arbeitswelt Einzug halten – per E-Mail, auf Social Media oder über scheinbar glaubwürdige Videos.

1. Lip-Sync-Fälschungen: Die Worte im Mund verdreht

Besonders perfide sind Deepfakes, bei denen eine echte Person scheinbar Sätze sagt, die sie nie geäußert hat. Der Mund bewegt sich passend, die Stimme klingt authentisch – doch die Botschaft ist manipuliert. Gregory nennt Beispiele aus Pakistan, wo Politiker:innen dazu gebracht wurden, Wähler*innen zum Boykott der Wahl aufzurufen. Was, wenn so ein Video über Ihre Geschäftsleitung kursiert?

2. „Sie war’s nicht!“ – Die fremde Stimme im eigenen Körper

Ebenso problematisch sind Deepfakes, bei denen real existierende Personen mit falschen Aussagen oder Handlungen in Verbindung gebracht werden. Ein ukrainischer Berater wurde plötzlich als Putin-Unterstützer dargestellt. Alles gefälscht – aber visuell überzeugend. Sekretärinnen, die interne Kommunikation vorbereiten oder Pressespiegel zusammenstellen, sollten solche Risiken kennen.

3. KI-Avatare und Fake-News-Moderator:innen

Gregory zeigt: In Ländern wie der Ukraine oder Indien gibt es bereits offizielle KI-Sprecher, die politische Botschaften in verschiedenen Sprachen verbreiten. Diese Praxis hat Potenzial – aber auch Risiken. Was, wenn auf Ihrem Firmenkanal ein Video erscheint, das scheinbar vom Geschäftsführer stammt – dabei ist es ein synthetischer Klon?

Warum der „Lügner-Bonus“ so gefährlich ist

Gregory nennt es den „Liar’s Dividend“ – den Bonus für alle, die erwischt werden und sich dann einfach rausreden: „Das war doch KI!“

Kennen Sie diesen Satz?

„Glauben Sie nicht alles, was Sie sehen.“

Er bekommt in Zeiten von Deepfakes eine neue Qualität. Gregory erzählt vom Politiker, der auf einem Video kompromittierende Aussagen machte – und sich mit einem Schulterzucken aus der Affäre zog: „Das war doch nur ein Deepfake.“

Das perfide daran: Auch echte Inhalte werden angezweifelt.
Was, wenn ein echter Skandal als „KI-Fälschung“ abgetan wird – und niemand weiß mehr, was stimmt?

Erkennen, verstehen, schützen: So wehren Sie sich gegen KI-Fälschungen

Was hilft noch, wenn man mit bloßem Auge nichts mehr erkennt?
Gregory sagt klar: Nicht das Auge – der Kontext ist entscheidend.

Hier sind seine wichtigsten Ratschläge – auch für Sekretärinnen im Büroalltag anwendbar:

Warnzeichen Bedeutung Beispiel im Arbeitsalltag
Unnatürliche Bewegungen Mund und Augen wirken asynchron Video mit vermeintlicher Chefansprache
Komische Bildfehler Schatten oder Finger sehen „falsch“ aus Mitarbeitervideo wirkt manipuliert
Falsche Quellenangabe Kein Impressum, kein Absender Anonyme E-Mail mit Videoanhang
Emotionale Trigger Übertriebene Wut, Trauer, Schuldzuweisung Aufrufe zum Handeln oder Protest
Fehlen von Metadaten Keine Originalquelle, kein Zeitstempel Download-Link statt eingebettetes Video

Was Sekretärinnen jetzt konkret tun können

Die schlechte Nachricht zuerst: Es gibt (noch) kein Tool, das zuverlässig alle Deepfakes erkennt. Die gute Nachricht: Mit klarem Verstand, Hintergrundwissen und ein paar einfachen Techniken können Sie sich und Ihr Büro schon heute wirksam schützen.

✅ 1. Immer auf die Quelle achten

Fragen Sie sich:
– Kommt das Video direkt von einer vertrauenswürdigen Adresse?
– Gibt es ein offizielles Statement oder ein Impressum?
– Ist der Absender glaubwürdig?

Tipp aus dem Sekretariat: Lassen Sie sich bei unklaren Fällen den Ursprung des Videos zeigen – z. B. den Link zum Original oder die Pressemitteilung.

✅ 2. Verdächtige Inhalte gegenrecherchieren

Sie sehen ein brisantes Zitat oder eine angebliche Aussage im Video? Prüfen Sie, ob seriöse Medien darüber berichten. Wenn Sie nichts finden, könnte es sich um Desinformation handeln.

✅ 3. Niemals blind weiterleiten

Auch wenn Sie unter Zeitdruck stehen: Leiten Sie keine Inhalte weiter, bei denen Zweifel bestehen. Im Zweifel: Stopp drücken – erst prüfen.

✅ 4. Tools richtig nutzen

Es gibt Tools wie InVID, welche die Metadaten von Videos anzeigen oder Bilder analysieren können. Aber Gregory warnt: Viele dieser Tools sind fehleranfällig und liefern falsche Ergebnisse – besonders in internationalen Kontexten.

✅ 5. Auf den Kontext achten

Fragen Sie sich: Ist das Video überhaupt technisch realistisch? Stimmen Licht, Mimik, Sprache und Umfeld zusammen? Passt die Aussage zur bekannten Haltung der Person?

Was Sie von der Fachtagung 2024 mitnehmen konnten

Bereits im letzten Jahr hatte der Verband der Sekretärinnen auf der Fachtagung 2024 einen vorausschauenden Blick auf das Thema geworfen. Cybercrime-Experte Denny Speckhahn warnte damals:

„Künstliche Intelligenz wird in Zukunft nicht nur Daten stehlen, sondern auch Wahrheiten.“

Viele Sekretärinnen reagierten damals mit Skepsis – doch heute zeigt sich: Die Prognose war realistisch. Gregorys Vortrag bestätigt nun: Die Gefahr ist nicht theoretisch – sie ist bereits da.

Die Wahrheit braucht Sie!

Ob in der Chefetage, im Team-Newsletter oder bei der Planung von Veranstaltungen: Sekretärinnen sind Kommunikationsprofis.
Und genau deshalb kommt es jetzt auf Sie an. Fake-Videos, Deepfake-Audios oder täuschend echte Avatare werden nicht verschwinden – aber Sie können lernen, sie zu durchschauen.

Denn: Die Wahrheit verteidigt sich nicht von allein.
Aber sie braucht Menschen, die wachsam bleiben – und bereit sind, auch unter Druck nachzufragen.

Schlussgedanke: Ihre Augen – schärfer als jede KI

Sie müssen keine IT-Expertin sein, um Deepfakes zu entlarven. Was es wirklich braucht? Ihren wachen Blick, Ihre klugen Fragen – und das Wissen, dass Verantwortung nicht immer beim System, sondern oft bei uns selbst beginnt.

Gerade im Sekretariat sind Sie es gewohnt, Details zu erkennen, auf Tonlagen zu achten und zwischen den Zeilen zu lesen. Diese Fähigkeiten sind jetzt Gold wert.
Denn in einer Welt, in der Bilder lügen und Stimmen gefälscht werden können, zählt ein ehrlicher Mensch mehr als jede Technik.

Also: Bleiben Sie kritisch. Bleiben Sie neugierig. Und wenn Sie das nächste Mal ein Video weitergeleitet bekommen, denken Sie an diesen Satz von Sam Gregory:

„Don’t try to spot AI – try to understand context.“

Das können Sie – und das sollten Sie sich ruhig öfter selbst sagen. 💪🖥️

https://www.youtube.com/watch?v=-4N0PwGWqzM

Deepfake? Echt jetzt?!

1. Wie erkenne ich als Sekretärin, ob ein Video echt ist oder KI-Fake?
Achten Sie auf Unstimmigkeiten: zu viele Zähne, unnatürliche Blinzelraten, schwankende Hintergründe. Noch wichtiger: Fragen Sie sich, woher das Video kommt – und warum es jetzt auftaucht. Der Kontext verrät oft mehr als das Bild.


2. Muss ich jetzt jede politische Rede oder E-Mail mit Video kritisch prüfen?
Nein – aber bei ungewöhnlichen, empörenden oder skandalösen Inhalten lohnt sich ein zweiter Blick. Wenn ein Bürgermeister plötzlich gegen Windräder hetzt oder Ihre Chefin angeblich vom Strand aus kündigt – Stopp. Erst prüfen, dann glauben.


3. Gibt es Tools, mit denen ich Deepfakes erkennen kann?
Ja, aber Vorsicht! Viele Online-Checker sind unzuverlässig oder auf englische Inhalte trainiert. Verlassen Sie sich lieber auf journalistisch geprüfte Quellen – oder den Deepfakes Rapid Response Force von WITNESS als langfristiges Monitoring-Beispiel.


4. Was kann ich im Unternehmen tun, wenn ein verdächtiges Video kursiert?
Sprechen Sie es an! Informieren Sie Ihre Vorgesetzten oder die IT-Abteilung. Dokumentieren Sie die Quelle. Und: Seien Sie nicht die Erste, die es weiterleitet – sondern die Erste, die fragt. Das macht Eindruck. Und schützt.


5. Was bedeutet das alles für meine tägliche Büroarbeit?
Mehr Verantwortung. Mehr Medienkompetenz. Und mehr Bedeutung Ihrer Rolle als kommunikative Schnittstelle. Sekretärinnen sind Gatekeeperinnen der Wahrheit – wenn sie es wollen. Vertrauen Sie Ihrem Bauchgefühl und bleiben Sie skeptisch, wenn etwas zu perfekt wirkt.

Lernen Sie KI kennen, besuchen Sie die Fachtagung der Sekretär:Innen Assistenzen

klar Schreiben & smart Arbeiten

Rechtschreibung sicher beherrschen und KI clever einsetzen

Viele der hier behandelten Inhalte entstehen aus dem Austausch mit Teilnehmenden der Fachtagungsreihe des Verbands der Sekretärinnen. Sie spiegeln Fragen, Erfahrungen und Entwicklungen aus dem Büroalltag rund um das Thema Ki & ChatGPT im Sekretariat wider. 

Immer informiert bleiben mit den Sekretärinnen-News

Melden Sie sich jetzt an und sichern Sie sich einen 5%-igen Gutscheincode für alle Weiterbildungen und die neuesten Nachrichten im Sekretariat. Wir starten mit einer Mini-Serie zu MS-Office und den 100+ Prompts im Sekretariat

Büro-Management 4.0, ChatGPT & KI

Digitalisierung trifft VerantwortungKünstliche Intelligenz wie Microsoft 365 Copilot verspricht Effizienzgewinne im Büroalltag:

ChatGPT & KI

​Ein Protokoll, ein Prompt – und eine Entscheidung, die größer ist als

ChatGPT & KI

Sie sind höflich. Aber wirken Sie auch führend?Wenn Freundlichkeit Professionalität ersetztSprechblasen Beispiel

ChatGPT & KI

KI im Büro – zwischen Effizienz und VerantwortungStellen Sie sich vor: Sie

ChatGPT & KI

Was wäre, wenn Ihre KI nicht fragt – sondern erledigt?Stellen Sie sich

ChatGPT & KI

Copilot oder ChatGPT-Schulung? Warum kluge Assistenzkräfte beides brauchen – und Führungskräfte davon

ChatGPT & KI

Was KI im Kern ist – und warum sie weder Zauberstab noch

ChatGPT & KI

Wie viele mittelmäßige KI-Texte wollen Sie eigentlich noch ertragen?Diese Art von Texten,

ChatGPT & KI

Diese 7 Büroaufgaben sollten Sie ab heute NIEMALS mehr selbst erledigen –

ChatGPT & KI

Zwischen Skepsis und AufbruchEs gibt Sätze, die in der Luft hängen bleiben,

ChatGPT & KI

Es beginnt mit einem harmlosen Satz.„Schreiben Sie das bitte mal schnell mit

ChatGPT & KI

ChatGPT als Schreibpartner – Wie KI Ihre Sprache stärkt, nicht ersetzt„Können Sie

ChatGPT & KI, Mit Worten zaubern, Professionelle Bürokommunikation

Zwischen Aktenordner und AlphabetDer Kaffee duftet, der Posteingang blinkt, die Chefin ruft

ChatGPT & KI

Ein Montag wie im Film – warum KI-Prompts jetzt Ihr bester Freund

ChatGPT & KI

„Psst, ich nutz schon ChatGPT … aber bitte nicht der IT sagen!“Warum

ChatGPT & KI

Wie Sie ohne Technikfrust und ganz ohne Vorwissen endlich den Einstieg schaffen

ChatGPT & KI

Wenn Täuschung Realität wirdSie erinnern sich vielleicht: Auf der Fachtagung 2024 warnte

ChatGPT & KI

Ein neuer Blick auf Ihre Rolle: Was, wenn Sie längst Teil der

ChatGPT & KI

Stellen Sie sich vor, Sie bekommen einen Brief von der Berufsgenossenschaft. Sie

ChatGPT & KI

Stellen Sie sich vor, Sie müssten nie wieder eine teure Umfrage beauftragen.

ChatGPT & KI

KI, Klischees und Kontrolle – Was Sekretärinnen über die dunklen Seiten künstlicher

ChatGPT & KI

Sie kennen das.Im Büro läuft etwas richtig gut – und drei Türen

ChatGPT & KI

Stellen Sie sich vor, Sie besitzen einen Motor – aber niemand hat

ChatGPT & KI

Tür auf zur Verwaltung der Zukunft„Wer klopft da an die Bürotür? –

ChatGPT & KI

Ihr Hebel gegen Zeitfresser und Aufgabenberge in kleinen Unternehmen„Frau Müller, können Sie

ChatGPT & KI, Fachtagung

Es gibt Momente, die bleiben. Momente, die uns aus der Routine herausholen,

ChatGPT & KI

Stillstand killt Karriere – Warum Sekretärinnen endlich ChatGPT nutzen sollten!Heute geht es

ChatGPT & KI

Bilder mit Wirkung – Wie Sie mit Smartphone-KI kreative Bildbearbeitung im Büro

ChatGPT & KI

Die Assistenz der Zukunft beginnt jetzt!"Das wird doch wieder nur ein kurzer

>