Stellen Sie sich vor, Sie müssten nie wieder eine teure Umfrage beauftragen. Keine anonymen Rücklaufquoten. Keine lästigen Erinnerungsemails. Keine Excel-Tabelle mit halbleeren Antworten. Stattdessen sagen Sie einfach einem KI-Modell: „Gib mir bitte die Meinung eines 45-jährigen Familienvaters aus Brandenburg mit mittlerem Einkommen zum Thema Homeoffice.“
Zack – da ist sie. Die Antwort. Glaubwürdig. Konsistent. Schnell. Und das Beste: Sie können diese „Person“ gleich nochmal befragen. Und nochmal. Und in verschiedenen Varianten. Willkommen in der Welt von Homo Silicus – dem digital simulierten Menschen.
Aber was hat das bitte mit dem Sekretariat zu tun?
Vom Marktforschungsinstitut zum Promptfenster
Johann Lensing, ein junger Politikwissenschaftler mit einer beeindruckend klaren Analyse, präsentierte auf der re:publica 2025 einen Vortrag, der es in sich hatte: Er erklärte, wie man mit Hilfe von KI synthetische Umfragen durchführen kann – also Antworten von Menschen simuliert, ohne je mit ihnen gesprochen zu haben.
Warum das spannend ist?
Weil Sekretärinnen, Office-Managerinnen und Assistenzen täglich kleine Entscheidungen treffen müssen:
🔹 Welche Rückmeldung erwarten unsere Teilnehmenden nach dem letzten Seminar?
🔹 Wie formulieren wir unsere Einladung so, dass sie wirklich ankommt?
🔹 Welche Themen brennen unseren Kundinnen und Kunden auf der Seele?
Früher: Bauchgefühl. Oder aufwändige Befragungen.
Heute? Silicon Sampling – also simulierte Menschen, die auf Basis realer Daten „antworten“, als wären sie Teil einer echten Umfrage. Klingt nach Science-Fiction? Ist aber längst Realität.
3 Aha-Erlebnisse für das moderne Büro
1. KI kann typische Zielgruppen simulieren
Ein Beispiel aus dem Vortrag:
Eine KI bekommt eine Beschreibung wie „Ich bin 45, männlich, evangelisch, Republikaner, aus Texas, liebe die US-Flagge.“
Frage: Für wen hat diese Person 2016 gestimmt?
Sie ahnen es: Donald Trump. Die KI auch. Und sie lag – wie viele echte Befragte – richtig.
Aha! Sekretärinnen können also nicht nur die Zielgruppe analysieren, sondern auch verschiedene Personas durchspielen: Wie würde jemand mit wenig Budget auf unser Angebot reagieren? Was denkt eine ältere Mitarbeiterin über digitale Tools?
2. Umfragen kosten Zeit – KI nicht
Klassische Umfragen sind teuer, zeitaufwendig und oft nervenaufreibend. Lensing erklärt das charmant:
„Eine bundesweite Umfrage kostet schnell fünf- bis sechsstellige Summen – synthetische Daten brauchen nur Rechenleistung und gute Prompts.“
Aha! Wer mal eben fünf Versionen einer Kundenmail testen will, braucht keine Testgruppe mehr – ein paar gut gewählte KI-Inputs reichen.
3. Das Sekretariat wird zur Ideen-Teststrecke
Ob neue Eventtitel, Einladungstexte oder Betreffzeilen für Newsletter – mit simulierten Feedbacks lässt sich schnell prüfen, was gut ankommt.
Aha! Warum nicht mit einer simulierten Mini-Zielgruppe verschiedene Varianten einer Ankündigung testen – und dann die Version nehmen, die den höchsten „simulierten“ Zuspruch bekommt?
Achtung, jetzt wird’s ethisch
Natürlich hat Lensing auch die Schattenseiten nicht verschwiegen:
❗ Wer entscheidet, welche Datensätze „repräsentativ“ sind?
❗ Können KI-generierte Meinungen echten Dialog ersetzen?
❗ Wie verhindert man, dass Politik und Marketing nur noch mit simulierten „Wählern“ kommunizieren?
Er spricht von der „algorithmischen Treue“ – also wie echt eine KI-Antwort im Vergleich zur Realität ist. Und warnt eindrücklich: Diese Technik darf nicht dazu führen, dass echte Meinungen verschwinden. Vor allem nicht, wenn Entscheidungen auf Basis solcher synthetischer Umfragen getroffen werden.
Was bedeutet das konkret für Ihren Büroalltag?
Sie sind keine Meinungsforscherin. Keine Politikerin. Kein Datenanalyst.
Aber Sie sind oft die Erste, die Ideen prüft, Vorschläge formuliert, Rückmeldungen bündelt und Kommunikation auf den Weg bringt.
Und genau da – zwischen Bauchgefühl und belastbarer Datenbasis – eröffnet Homo Silicus eine neue Spielwiese.
Beispiele aus dem Sekretariat:
Situation | Alte Lösung | Neue Möglichkeit mit synthetischen Daten |
---|---|---|
Sie wollen wissen, ob ein neuer Seminartitel „zieht“ | Kollegen fragen oder A/B-Test im Newsletter | 3 Zielgruppen simulieren & testen, welche Variante besser „ankommt“ |
Sie schreiben eine Info-Mail an unterschiedliche Altersgruppen | Eine neutrale Sprache für alle | KI analysiert, wie Ihre Zielgruppen auf verschiedene Tonlagen reagieren |
Sie wollen Feedback simulieren | Feedback abwarten oder raten | KI simuliert typische Teilnehmer:innen anhand früherer Daten |
🧠 Algorithmic Fidelity – Wie gut ist die KI wirklich?
Woran erkenne ich, ob die KI „wie ein Mensch“ antwortet?
Damit stellt sich natürlich die entscheidende Frage: Wie lässt sich überprüfen, ob die Antworten, die eine KI produziert, überhaupt mit denen echter Menschen vergleichbar sind? Genau hier setzt ein Konzept an, das in der sozialwissenschaftlichen Forschung nun zunehmend an Bedeutung gewinnt – es trägt den sperrigen, aber wichtigen Namen „Algorithmic Fidelity“. Dahinter verbergen sich vier einfache Prüfsteine, die zeigen sollen, ob eine KI tatsächlich menschenähnlich antwortet oder nur plausibel klingt.
Die folgende Übersicht erklärt, was hinter diesen vier Kriterien steckt – ganz ohne technisches Kauderwelsch:
Vier Prüfsteine, um die Zuverlässigkeit von KI-generierten Umfrageantworten zu bewerten:
Kriterium | Bedeutung im Klartext |
---|---|
1. Sozialwissenschaftlicher Turing-Test | Klingen die Antworten so natürlich, dass sie von echten Menschen stammen könnten? |
2. Rückwärtskontinuität | Kann man aus der Antwort zurückverfolgen, wie die Eingabedaten (z. B. Alter, Geschlecht) waren? |
3. Vorwärtskontinuität | Stimmt die Antwort zur Ausgangsbeschreibung – oder weicht sie unerwartet davon ab? |
4. Muster-Korrespondenz | Entsprechen die KI-Muster den bekannten Mustern aus echten Umfragen? |
👉 Wer diese vier Fragen im Blick behält, kann KI-Daten nicht nur kritisch hinterfragen, sondern auch gezielter einsetzen – z. B. für Pretests, Szenarien oder explorative Analysen im Büroalltag.
Stellen Sie sich vor: Sie arbeiten im Vorzimmer eines OB-Kandidaten
Ihr Schreibtisch ist gefüllt mit Terminlisten, E-Mail-Ausdrucken und Sitzungsprotokollen – doch das eigentliche Projekt ist der Wahlkampf. Ihr Chef – oder Ihre Chefin – tritt zur Kommunalwahl an. Die Frage, die dabei immer wieder aufkommt: Welche Themen sprechen welche Wählergruppen an? Was interessiert Menschen im nördlichen Stadtteil, was bewegt die Familien im Zentrum?
Bisher waren Meinungsumfragen das Mittel der Wahl – aufwendig, teuer, langsam. Doch jetzt kommt ein neues Instrument auf den Tisch: Synthetische Befragung mit KI. Das klingt sperrig, ist aber revolutionär einfach. Statt echte Menschen zu befragen, erstellen Sie digitale Wähler:innenprofile – sogenannte Silicon Subjects – basierend auf echten Daten.
Diese virtuellen „Personen“ lassen sich innerhalb weniger Minuten mit politischen Botschaften konfrontieren. Und: Sie liefern sofort Rückmeldung, wie ein Mensch mit vergleichbaren Eigenschaften vermutlich reagieren würde. Ob es um Mietpolitik, ÖPNV, Sicherheit oder Grünflächen geht – Sie erhalten Rückschlüsse, welches Thema bei wem funktioniert.
Was heißt das konkret?
Sie können auf Basis dieser Daten Wahlkampfbotschaften testen – bevor Sie auch nur ein einziges Plakat drucken lassen oder die Pressemitteilung versenden. Sie simulieren, wie Menschen aus unterschiedlichen Stadtteilen auf verschiedene Aussagen reagieren würden. Das macht den Wahlkampf datenbasiert, schneller, zielgenauer – und effizienter.
In seinem Vortrag spricht Johann Lensing von einem Paradigmenwechsel: weg vom Bauchgefühl, hin zu algorithmischer Voraussicht. Er nennt das Data Driven Campaigning – und zeigt, wie synthetische Daten in der Politik ebenso wie in der Marktforschung genutzt werden können.
📌 Was Sie mitnehmen sollten:
Diese Technologie eröffnet neue Möglichkeiten – gerade für Personen in Assistenz- oder Koordinationsrollen. Denn sie entscheiden mit, welche Botschaften tatsächlich in die Welt getragen werden. Vorausgesetzt, sie kennen die Werkzeuge – und wissen, wie man sie einsetzt.
Neugierig geworden? Dann lohnt sich ein Blick in das vollständige Video:
👉 Zum Vortrag von Johann Lensing auf YouTube
Der Mythos der Objektivität – und warum Sie ihm nicht aufsitzen sollten
Synthetische Daten, so faszinierend sie sein mögen, tragen ein schwerwiegendes Missverständnis mit sich: Sie gelten als objektiv. Schließlich antwortet die KI emotionslos, blitzschnell und ohne menschliche Fehler, oder?
Aber Vorsicht: Genau hier liegt der Denkfehler. Johann Lensing bringt es auf den Punkt: „Large Language Models sind keine objektiven Systeme.“ Sie berechnen Wahrscheinlichkeiten – basierend auf riesigen Mengen an bereits vorhandenem Textmaterial. Und dieses Material stammt – so ehrlich müssen wir sein – nicht aus einer idealtypisch ausgewogenen Welt, sondern spiegelt bestehende Verzerrungen, Vorurteile und Schieflagen wider.
Was bedeutet das für den Alltag – etwa in einem kommunalen Wahlkampf oder in der Verwaltung?
Wenn eine KI auf Basis von sozioökonomischen Merkmalen Aussagen trifft, dann liegt dem eine Annahme zugrunde: dass sich Menschen aufgrund ihrer Herkunft, ihres Alters oder ihrer Bildung stets in vorhersehbaren Mustern verhalten. Aber wir alle wissen: Das Leben ist nicht so einfach. Menschen sind mehr als Datenpunkte.
Hinzu kommt: Die Algorithmen selbst sind Blackboxes. Niemand weiß genau, welche Daten mit welcher Gewichtung eingeflossen sind. OpenAI, Google & Co. veröffentlichen keine vollständigen Trainingsdaten. Das heißt: Wenn Sie eine KI um eine Meinung oder ein Stimmungsbild bitten, wissen Sie nicht, woher diese Meinung stammt.
Lensing nennt das „algorithmische Vortäuschung von Realität“. Eine perfekt berechnete Antwort bedeutet nicht, dass sie richtig, fair oder gar neutral ist. Es ist – mit seinen Worten – „eine sehr wahrscheinliche Antwort. Mehr nicht.“
📌 Was heißt das für Sekretärinnen, Assistenzen und alle, die Entscheidungen vorbereiten oder Prozesse begleiten?
Nutzen Sie KI-gestützte Tools, aber mit klarem Blick auf ihre Grenzen. Verlassen Sie sich nicht blind auf das, was statistisch wahrscheinlich ist – sondern behalten Sie immer den Kontext im Auge. Die beste KI ist nur so gut wie der Mensch, der sie hinterfragt.
Wo synthetische Daten wirklich sinnvoll sind – fünf Einsatzfelder ohne schlechtes Gewissen
Sie fragen sich vielleicht: Muss ich jetzt grundsätzlich skeptisch gegenüber KI-basierten Befragungen sein? Die Antwort ist: Nein – aber Sie sollten sehr genau hinschauen, wo sie eingesetzt werden. Denn wie Johann Lensing betont, gibt es Einsatzbereiche, in denen synthetische Daten sogar besonders hilfreich und ethisch unbedenklich sind.
Hier sind fünf Beispiele aus dem Vortrag, bei denen Sie KI mit ruhigem Gewissen einsetzen dürfen – ob im Büro, in der Weiterbildung oder in der kommunalen Praxis:
Pretesting von Fragebögen und Kampagneninhalten
Bevor eine Umfrage live geht oder eine Kampagne startet, können synthetische Befragte helfen, Fragen auf Verständlichkeit und Reaktion zu testen. So vermeiden Sie Missverständnisse und holen später bessere Antworten aus der echten Zielgruppe heraus.
Methodenentwicklung im Team oder in der Weiterbildung
Wenn Sie in Ihrer Organisation neue Evaluationsmethoden entwickeln oder Feedbackprozesse etablieren wollen, lässt sich mit synthetischen Daten kostengünstig und schnell simulieren, wie bestimmte Varianten wirken könnten – ganz ohne sensible Echtzeitdaten.
Explorative Forschung
Gerade wenn Sie noch wenig über ein bestimmtes Thema wissen (z. B. interne Stimmungen zum hybriden Arbeiten oder Feedbackkultur), kann die KI erste Impulse liefern. Diese explorative Vorarbeit hilft, echte Befragungen zielgenauer zu planen.
Hypothesengenerierung für Projekte oder Förderanträge
Sie möchten eine These testen oder ein Projekt argumentativ untermauern? Dann lassen sich erste Annahmen durch simulierte Gruppenantworten stützen oder hinterfragen. So vermeiden Sie vorschnelle Fehleinschätzungen.
Lehre & Training – gerade für Auszubildende oder Quereinsteiger
Die Anwendung synthetischer Daten ist ein ideales Feld für didaktisches Arbeiten, etwa bei der Schulung von neuen Kolleginnen im Bereich Statistik, Befragung oder Digitalmethoden. Man kann mit fiktiven Szenarien realitätsnah üben – ganz ohne Datenschutzrisiken.
📌 Fazit: In diesen Feldern bieten synthetische Daten große Chancen. Wenn Sie also im Sekretariat, in der Projektkoordination oder im Wissensmanagement arbeiten, lohnt es sich, diese Möglichkeiten zu kennen – nicht zur Manipulation, sondern zur besseren Vorbereitung.
💡Und das Beste: Sie brauchen dazu kein ganzes Forschungsteam. Neugier, ein klarer ethischer Kompass und ein KI-Tool wie ChatGPT reichen oft schon aus, um erste Simulationen und Erkenntnisse zu gewinnen.
Fazit: KI ist kein Ersatz – aber ein Turbo
Niemand sagt, dass synthetische Umfragen Menschen ersetzen sollen. Aber sie bieten eine schnelle, kostengünstige Ergänzung, die gerade für kleinere Unternehmen oder öffentliche Einrichtungen mit begrenzten Mitteln spannend ist.
Johann Lensing hat das sehr klar formuliert: „Ich mache hier keine Werbung für die Methode – aber ich finde, wir sollten darüber sprechen, bevor andere sie einfach einsetzen.“
Mein Tipp für Sie:
📺 Schauen Sie sich den Vortrag unbedingt an! Sie brauchen keine Vorkenntnisse – und werden garantiert mit mehr Fragen (und Ideen!) rausgehen, als Sie vorher hatten.
Schlussgedanke:
Wer die Zukunft der Kommunikation gestalten will, sollte verstehen, wie sie entsteht – selbst wenn der „Gesprächspartner“ kein Mensch ist.