Was, wenn meine Azubine mehr darf als ich?
Warum KI im Büro längst Realität ist – und die wahren Konflikte an ganz anderer Stelle beginnen
Sie sitzt im Ausbildungsbüro. Kopf geneigt, Blick auf dem Bildschirm. In den Händen: kein Aktenordner, kein Lexikon. Sondern ChatGPT.
Sie schreibt Präsentationen. Optimiert Formulierungen. Übt sogar, wie man „gute Prompts“ stellt – also gezielte Eingaben, mit denen man der KI möglichst treffsichere Antworten entlockt.
Daneben: Sie.
Sie sind Teamleitung, Assistenz, Verwaltungskraft, Sachbearbeiterin. Sie kennen die Abläufe. Sie wissen, wie man sich absichert. Und vor allem: Sie kennen die Regeln.
Und eine dieser Regeln lautet:
„Bitte ChatGPT nicht verwenden.“
Willkommen im Büro 2025 – wo Verbote die Wirklichkeit nicht mehr einholen
Sie dürfen es nicht öffnen.
Sie dürfen keine beruflichen Inhalte eingeben.
Sie dürfen keine Texte vorschlagen lassen.
Nicht auf dem Rechner. Nicht auf dem Diensthandy. Nicht mal auf dem privaten Gerät, wenn es dienstlich genutzt wird.
Und trotzdem:
Sie wissen, dass es genutzt wird. Heimlich. Flüsternd. Still.
- „Ich hab mir die Formulierung schnell im ChatGPT bauen lassen…“
- „Ich hab da mal nach einer E-Mail-Vorlage gefragt…“
- „Ich hab’s nochmal gegenlesen lassen, ist besser als Word-Korrektur…“
Alle machen es. Keiner spricht drüber.
Nur Sie stehen da – mit dem Gefühl: Meine Azubine lebt im Jahr 2025. Und ich? Ich stecke in 2011.
Wie Generationen mit KI umgehen – und was das mit Macht zu tun hat
Generation X (geboren 1965–1980)
Sie sind die Routinierten. Die Verantwortungsbewussten. Die, die Systeme schützen, nicht hinterfragen. Für sie bedeutet KI nicht automatisch Entlastung, sondern Risiko. Kontrollverlust. Rechtsunsicherheit.
Typischer Gedanke:
„Wenn ich’s benutze, hafte ich. Also lieber nicht anfassen.“
Generation Z (geboren 1997–2010)
Digital aufgewachsen, aber nicht naiv. Diese Generation will Wirkung – schnell und pragmatisch. Sie nutzt KI als Hilfsmittel, nicht als Ersatz. Sie fragt nicht unbedingt um Erlaubnis, sondern nach Möglichkeiten.
Typischer Gedanke:
„Wenn’s mir hilft, warum sollte ich’s nicht tun?“
Generation Alpha (ab 2010)
Sie sind noch nicht im Büro – aber sie werden kommen. Und sie werden kein Problem mit KI haben. Weil sie von klein auf damit umgehen lernen. Für sie ist ChatGPT wie Google oder Wikipedia: ein Werkzeug. Kein Wunder.
Typischer Gedanke:
„Warum sollte ich warten, bis mir jemand erklärt, was ich längst verstanden habe?“
Die echte Kluft verläuft nicht zwischen Jung und Alt – sondern zwischen Verbotslogik und Lernlogik
Verstehen Sie mich nicht falsch:
Regeln sind wichtig. Datenschutz ist kein Spaß. Und nicht jede Eingabe in ChatGPT ist harmlos.
Aber die Frage, die wir uns stellen müssen, ist:
Was passiert, wenn wir Dinge verbieten, die in der Realität längst passieren?
Denn genau das ist der Alltag in vielen Büros:
- Azubis nutzen KI-Tools in der Berufsschule – offiziell gefördert.
- Führungskräfte dürfen nichts einsetzen – aus Angst vor Compliance-Verstößen.
- Und mittendrin: ein digitaler Schwebezustand. Zwischen Machen und Schweigen.
Zwischen Gefühl und Gesetz: Wenn Verbote mächtiger wirken als jede Firewall
Es beginnt subtil.
Sie sehen, wie sich die Azubine ihren Entwurf auf dem Bildschirm anzeigen lässt. Der Text ist klar gegliedert, mit Zwischenüberschriften, einer knackigen Einleitung, einem Fazit. Nicht perfekt – aber verdächtig effizient.
„Hast du das allein geschrieben?“ –
„Nee, ChatGPT hat mir geholfen.“
Stille.
Sie nicken. Lächeln.
Innerlich: Stirnrunzeln. Angst. Wut? Neid?
Denn tief drinnen denken Sie: Ich könnte das auch. Ich darf nur nicht.
Und da ist sie. Die eigentliche Spannung.
Nicht die Technik trennt die Generationen, sondern die Erlaubnis.
🍀 Die Jüngeren dürfen experimentieren.
🍀 Die Älteren müssen absichern.
🍀 Die einen lernen im Tun.
🍀 Die anderen dokumentieren, dass sie es nicht getan haben.
Das erzeugt Frust. Denn in Wahrheit wissen viele erfahrene Kräfte ganz genau, wo und wie ChatGPT hilfreich sein könnte:
💥 bei der höflichen, aber bestimmten Antwort auf eine Kundenreklamation,
💥 beim Formulieren einer Einladung, die modern, aber nicht anbiedernd klingt,
💥 bei der Übersetzung interner Texte für internationale Standorte,
💥 bei der Gliederung eines Sachberichts.
💥 Sie könnten all das – wenn man sie ließe.
Verbot als Kulturtechnik – oder: Warum das „Nein“ oft lauter ist als die Neugier
Viele Organisationen regulieren KI-Nutzung nach dem Prinzip:
„Lieber nichts erlauben, als was falsch machen.“
Das ist nachvollziehbar – aber gefährlich.
Denn es erzeugt keine Klarheit, sondern einen Raum des heimlichen Tuns. Der Unsicherheit. Der Schattenpraxis.
Und je mehr sich Azubis, jüngere Kolleg:innen und externe Partner*innen trauen, desto isolierter fühlt sich die Mitte – die tragende Säule des Büroalltags.
Sie.
Diejenigen, die verantwortlich handeln wollen, aber keine Werkzeuge bekommen.
Diejenigen, die loyale Prozesse befolgen, aber im Meeting die Einzigen sind, die bei „KI“ nervös werden.
Diejenigen, die funktionieren – aber sich nicht weiterentwickeln dürfen.

Was also tun?
1. Regeln? Ja – aber bitte verständlich.
Erklären Sie nicht nur, was verboten ist, sondern warum. Und zeigen Sie Alternativen.
2. Austauschformate schaffen.
Lassen Sie die Azubine ihre Erfahrung teilen. Im Teammeeting. Offen. Ohne Angst. So lernen alle.
3. Leitplanken statt Mauern.
Statt „Nein zu allem“: Definieren Sie, wo KI helfen darf. Und wo nicht. So entsteht Sicherheit – nicht Schweigen.
4. Digitale Selbstwirksamkeit fördern.
Stärken Sie das Gefühl: Ich darf fragen. Ich darf lernen. Ich darf sicher anwenden.
KI kommt. Der EU AI Act auch. Und mit ihm: neue Verantwortung für alle im Büro.
Vielleicht haben Sie davon gehört: Der EU AI Act – die weltweit erste umfassende KI-Verordnung – ist verabschiedet. Und damit wird klar:
KI im Büro ist nicht mehr bloß ein Trend. Sie ist ab jetzt ein rechtsverbindlicher Rahmen.
Was das heißt?
- Unternehmen müssen genau prüfen, welche KI sie einsetzen
- und wie sie diese einsetzen dürfen.
Das klingt technisch. Ist aber hochgradig politisch.
Denn es verändert Machtverhältnisse. Und Arbeitsweisen.
Was der EU AI Act konkret für die IT bedeutet
🔐 Die IT muss jetzt nicht nur Firewalls verwalten, sondern auch KI-Zugänge bewerten.
📚 Sie muss dokumentieren, wer welche Tools wofür nutzt.
⚠️ Sie trägt Mitverantwortung – für Transparenz, Sicherheit, Haftungsrisiken.
Und das in Zeiten, in denen neue KI-Tools im Wochentakt auftauchen.
Das ist kein IT-Problem. Das ist ein Organisationsproblem.
Denn wenn Sekretariate, Azubis und Sachbearbeiterinnen längst KI privat testen – wie will man dann mit einem einfachen „Verbot“ wirklich steuern?
Generation Alpha wird nicht fragen – sie wird handeln
Während Gen X mit Regelwerken ringt und Gen Z nach Erlaubnis fragt, wird Generation Alpha einfach tun.
Nicht aus Rebellion, sondern aus Selbstverständnis.
Sie wachsen mit Sprachmodellen, Lern-KI und automatisierter Kreativität auf. Für sie ist ChatGPT keine Revolution – sondern Alltag.
Und je länger Unternehmen zögern, desto größer wird der Graben zwischen digitaler Kompetenz und organisatorischer Wirklichkeit.
Also: Was tun wir jetzt – und mit wem?
Vielleicht ist die bessere Frage nicht:
„Wie verhindern wir KI im Büro?“
Sondern:
„Wie gestalten wir sie gemeinsam – sicher, offen, lernbereit?“
Mit der IT als Schutzraum.
Mit den Sekretariaten als Vermittlungsinstanz.
Mit den Azubis als Impulsgeber.
Und mit der Geschäftsleitung, die endlich erkennt:
KI ist keine Spielerei. Sie ist Infrastruktur.
Warum wir europäische KI-Lösungen brauchen – und die IT oft auf der Bremse steht
Viele Unternehmen stehen aktuell zwischen zwei Fronten:
Mitarbeitende wollen KI nutzen.
Die IT sagt: Nein – US-Software kommt uns nicht ins Haus.
Und das nicht ohne Grund.
🔍 Was macht US-KI so problematisch?
Die meisten derzeit frei verfügbaren KI-Modelle – darunter ChatGPT, Gemini, Claude – werden von US-amerikanischen Konzernen betrieben. Und mit ihnen kommen typische Risiken:
Risiko | Warum es die IT nervös macht |
---|---|
🔒 Datenabfluss | US-Server, unbekannte Speicherung, keine Kontrolle über „Prompt-Inhalte“ |
⚖️ Rechtsunsicherheit | Nicht EU-konform, unklare Verantwortlichkeiten, keine DSGVO-Garantie |
🤖 Undurchsichtige Modelle | Black Box: niemand weiß genau, wie Antworten entstehen |
💼 Keine Kontrolle über Updates | Was heute sicher ist, kann morgen verändert sein – ohne Ankündigung |
Selbst wenn Sie „nur“ eine Einladung oder eine Stellungnahme formulieren wollen: Sobald sensible Informationen eingegeben werden, verlässt der Text Ihre sichere Umgebung.
Deshalb sagen viele IT-Abteilungen: Nein – (noch).
- Nicht aus Prinzip.
- Nicht aus Technikfeindlichkeit.
- Sondern weil sie schützen wollen: Sie. Die Organisation. Die Daten.
Aber dieses Nein wird nicht ewig halten.
Denn: Die Nachfrage nach sicheren, DSGVO-konformen, transparenten KI-Lösungen steigt rasant. Besonders im Office-Umfeld.
Was wir brauchen: KI made in Europe
Wenn wir nicht wollen, dass jeder auf eigene Faust ChatGPT öffnet –
wenn wir nicht wollen, dass heimlich Lösungen gesucht werden –
dann brauchen wir Alternativen:
✅ Sichere europäische Rechenzentren
✅ Open-Source-KI mit Nachvollziehbarkeit
✅ klare Datenschutzstandards
✅ Lösungen, die auf die Sprache, Kultur und Gesetzgebung Europas abgestimmt sind
Das wäre ein echter Gamechanger – nicht nur technisch, sondern kulturell.
Denn nur mit solchen Lösungen wird aus einem pauschalen IT-Nein ein differenziertes „Ja, aber so“.
Und genau das ist der Weg nach vorn.
Schlussgedanke
Wenn Ihre Azubine heute mehr darf als Sie, ist das kein Zeichen von Schwäche – sondern ein Weckruf.
Ein Weckruf, dass wir in Europa nicht nur Regeln aufstellen, sondern eigene Werkzeuge entwickeln müssen, die Sicherheit, Transparenz und Innovation vereinen.
Denn wer KI nutzt, braucht Vertrauen – in die Technologie, in die Organisation und in die eigene Kompetenz.
Fragen Sie nach. Verstehen Sie das Nein der IT. Und fordern Sie das „Ja, aber sicher“.
Nur so gestalten wir Zukunft – gemeinsam, generationenübergreifend und auf Augenhöhe.

🧠 Was glauben Sie:
Wird die neue Generation KI-sicherer oder risikoreicher?
Und: Muss man alles verbieten, was man nicht versteht?
Ich freue mich auf Ihre Meinung – offen, ehrlich, gerne kontrovers.