Ein Protokoll, ein Prompt – und eine Entscheidung, die größer ist als gedacht
Das Meeting war lang, die Stimmung angespannt, Personalfragen lagen offen auf dem Tisch. Sie kommen zurück ins Büro, öffnen Ihr digitales Werkzeug und kopieren Ihre Notizen hinein. Drei Minuten später liegt ein strukturiertes, sprachlich elegantes Protokoll vor Ihnen. Effizient, klar, professionell. Genau so stellen Sie sich moderne Unterstützung vor.
Doch dann stocken Sie. In Ihrem Text stehen Namen, Bewertungen, interne Einschätzungen. Keine Dramatik, kein Geheimnis – aber personenbezogene Daten. Und plötzlich verschiebt sich der Fokus. War das gerade nur Textarbeit oder bereits eine datenschutzrelevante Handlung?
Viele amerikanische Leitfäden würden jetzt von Produktivität sprechen. Von Geschwindigkeit. Von Wettbewerbsvorteilen. In Europa stellt sich eine andere Frage: Wer trägt Verantwortung, wenn Systeme mitdenken? Genau hier beginnt der Unterschied zwischen Custom GPT und Agent. Und genau hier beginnt Ihre Rolle.
In Verwaltungen, in mittelständischen Unternehmen, im öffentlichen Dienst ist KI kein Spielzeug. Sie ist ein Organisationsfaktor. Der EU AI Act ist keine ferne Regulierungsidee, sondern geltendes Recht. Wer KI einsetzt, bewegt sich nicht nur technisch, sondern strukturell. Und strukturelle Entscheidungen verlangen Klarheit.
Ich möchte Ihnen heute Orientierung geben. Keine Technikschulung, keine Panikmache, sondern eine saubere Differenzierung. Denn die eigentliche Frage lautet nicht, welches Tool moderner wirkt. Die eigentliche Frage lautet: Wie tief greift es in Ihre Prozesse ein?
Zwischen Rathaus und Mittelstand – dieselbe Frage, unterschiedliche Ausgangslagen
Ob Sie im Rathaus arbeiten oder im mittelständischen Familienunternehmen, Ihr Alltag ähnelt sich erstaunlich stark. Termine koordinieren, Protokolle verfassen, Informationen bündeln, sensible Vorgänge strukturieren. Sie sind die Schnittstelle zwischen Leitung, Team und externen Partnern. Genau deshalb landen neue Werkzeuge zuerst auf Ihrem Schreibtisch.
In einer Verwaltung wirkt jede Veränderung formeller. Prozesse sind dokumentiert, Zuständigkeiten definiert, Prüfschritte etabliert. Wenn dort ein digitales System eingesetzt wird, stellt sich sofort die Frage nach Transparenz und Nachvollziehbarkeit. Wer darf was? Wer protokolliert Entscheidungen? Wer informiert den Datenschutzbeauftragten? Der Spielraum ist enger, aber auch klarer gerahmt.
Im mittelständischen Unternehmen zeigt sich ein anderes Bild. Entscheidungen fallen schneller, Wege sind kürzer, Abstimmungen informeller. Doch gerade diese Flexibilität kann zur Unsicherheit führen. Wer prüft, ob ein Agent Zugriff auf Kundendaten erhält? Wer legt fest, welche Informationen in ein Custom GPT eingegeben werden dürfen? Tempo ersetzt keine Struktur.
Beide Welten teilen jedoch eine Gemeinsamkeit. Sie arbeiten täglich mit personenbezogenen Daten. Bewerbungen, Krankmeldungen, Leistungsbeurteilungen, Kundenkommunikation – der Personenbezug ist kein Ausnahmefall, sondern Routine. Genau deshalb ist KI-Nutzung keine rein technische Frage, sondern eine organisationsbezogene Entscheidung.
Wenn Sie Custom GPT und Agent nicht unterscheiden, entsteht Grauzone. Und Grauzone ist im europäischen Rechtsrahmen kein komfortabler Ort. Der EU AI Act differenziert klar zwischen Anbietern und Betreibern. Betreiber ist die Organisation, die das System tatsächlich einsetzt. Das bedeutet: Ihre Behörde, Ihr Unternehmen trägt Verantwortung, nicht ein anonymer Softwarehersteller.
Vielleicht denken Sie jetzt, dass diese Verantwortung ohnehin bei der Leitung liegt. Formal betrachtet stimmt das. Praktisch beginnt Verantwortung jedoch dort, wo Entscheidungen vorbereitet werden. Und das ist häufig Ihr Arbeitsbereich. Sie wählen Tools aus, testen Funktionen, formulieren Prompts, integrieren Ergebnisse in bestehende Abläufe.
Die zentrale Frage lautet daher nicht, ob KI genutzt wird. Sie wird genutzt.
Die Frage lautet, ob sie bewusst oder beiläufig eingeführt wird. Bewusst bedeutet, Unterschiede zu verstehen. Beiläufig bedeutet, Tools wie Schreibprogramme zu behandeln. Zwischen diesen beiden Haltungen liegt ein erheblicher Unterschied.
Custom GPT vs. Agent – Wo genau liegt der entscheidende Unterschied?
Ein Custom GPT unterstützt Entscheidungen – ein Agent beeinflusst Prozesse.
Ein Custom GPT reagiert auf Ihre Eingaben. Sie formulieren eine Anfrage, das System strukturiert, verdichtet oder formuliert neu. Die Steuerung bleibt in Ihrer Hand, der Prozess endet nach Ihrer Prüfung. Das Werkzeug wirkt wie ein intelligenter Assistent, der auf Zuruf arbeitet. Es greift nicht eigenständig in bestehende Systeme ein.
Ein Agent hingegen plant Arbeitsschritte selbstständig. Er kann Aufgaben priorisieren, Daten aus verschiedenen Quellen zusammenführen und automatisierte Aktionen auslösen. Je nach Integration greift er auf Kalender, CRM-Systeme oder Dokumentenablagen zu. Damit verlässt er die reine Textebene und wird Teil der Prozessarchitektur.
Ein Custom GPT optimiert Texte – ein Agent verändert Abläufe.
Gerade in Verwaltungen ist dieser Unterschied entscheidend. Prozesse müssen nachvollziehbar, prüfbar und dokumentierbar bleiben. Der EU AI Act definiert klare Anforderungen an Betreiber von KI-Systemen, insbesondere bei risikorelevanten Anwendungen. Die Verantwortung liegt bei der Organisation, nicht beim Toolanbieter (EU-Verordnung 2024/1689). Quelle
Im mittelständischen Unternehmen entsteht dieselbe Verpflichtung aus wirtschaftlicher Vernunft. Automatisierte Fehlentscheidungen betreffen Kundenbeziehungen und Haftungsfragen. Geschwindigkeit darf nicht auf Kosten der Kontrollstruktur gehen.
Je höher die Autonomie, desto höher die Governance-Anforderungen.
Autonomie klingt attraktiv. Sie spart Zeit, reduziert manuelle Eingriffe und beschleunigt Routineaufgaben. Doch Autonomie verschiebt die Verantwortung vom Handeln zur Überwachung. Wenn ein Agent selbstständig Termine versendet oder Daten aktualisiert, kontrollieren Sie nicht mehr jeden einzelnen Schritt. Sie kontrollieren das System als Ganzes.
Genau hier wird Governance relevant. Wer prüft Protokolle? Wer dokumentiert Entscheidungslogiken? Wer definiert Freigabegrenzen? Diese Fragen sind nicht technischer Natur, sondern organisatorischer Natur. Der EU AI Act fordert Transparenz, insbesondere bei Systemen mit Einfluss auf Beschäftigte oder Bürger.
Autonomie spart Zeit – aber sie verlangt Struktur.
In der Praxis bedeutet das für Sie: Ein Custom GPT für Protokollentwürfe lässt sich durch klare Leitlinien absichern. Ein Agent, der Bewerbungen vorsortiert, benötigt hingegen eine strukturierte Risikoanalyse. Der Unterschied liegt nicht im Code, sondern im Eingriffsniveau.
Schreib-DNA, Tonalität und die Illusion der Neutralität
Viele glauben noch immer, KI sei neutral. Ein Werkzeug eben. Eine moderne Textmaschine ohne eigene Handschrift. Doch das ist eine gefährliche Vereinfachung. Jedes System arbeitet mit Trainingsdaten, mit Wahrscheinlichkeiten, mit Mustern. Und Muster sind niemals wertfrei.
In Ihrem Beitrag <a href="/tonalitaet-mit-ki-professionell-statt-nur-nett/">Tonalität mit KI: Professionell statt nur nett</a> haben Sie gezeigt, wie schnell Texte austauschbar klingen, wenn wir unsere eigene Schreib-DNA nicht bewusst einbringen. Genau hier beginnt die eigentliche Verantwortung. Sprache transportiert Haltung. Sie signalisiert Führungsstärke oder Unsicherheit, Klarheit oder Weichzeichnung, Professionalität oder Beliebigkeit.
Solange ein Custom GPT nur Formulierungen optimiert, bleibt die Wirkung auf der Textebene. Sie prüfen, Sie entscheiden, Sie tragen die letzte Verantwortung. Doch sobald ein Agent Prozesse vorbereitet, Antworten generiert oder Handlungsempfehlungen strukturiert, verschiebt sich der Einfluss. Aus Tonalität wird Taktung. Aus Wortwahl wird Entscheidungslogik.
KI ist nicht neutral – sie verstärkt die Muster, die wir ihr erlauben.
Wenn Ihre Organisation etwa Bewerbungsunterlagen vorsortieren lässt, wirkt nicht nur ein Algorithmus. Es wirken implizite Kriterien, Sprachmuster, Gewichtungen. Wenn interne Kommunikation automatisiert wird, prägt nicht nur Effizienz das Ergebnis, sondern auch Ton und Priorisierung. Was wie eine kleine sprachliche Nuance beginnt, kann auf Prozessebene strukturelle Wirkung entfalten.
Gerade deshalb dürfen Sie Ihre Schreib-DNA nicht auslagern. Sie ist Teil Ihrer professionellen Identität. Wer mit KI arbeitet, ohne die eigene Haltung zu reflektieren, delegiert mehr als Textarbeit. Er delegiert Deutungshoheit. Und Deutungshoheit ist im Büroalltag Macht.
Die Frage lautet daher nicht nur, welches System Sie einsetzen. Die Frage lautet: Welche Haltung lassen Sie in Ihre Systeme einfließen? Denn jedes Tool verstärkt das, was Sie hineinlegen – Klarheit ebenso wie Unschärfe.
Sichern Sie Ihre Schreib-und Denk-DNA bevor Sie die KI alles schreiben lassen. Lesen dazu:
Tonalität mit KI: Professionell statt nur nett
Datenschutz beginnt nicht beim Tool – sondern beim Prompt.
Viele Risiken entstehen nicht durch komplexe Architektur, sondern durch Alltagshandlungen. Ein kopiertes Protokoll, eine unbedachte E-Mail, ein Bewerbungsanschreiben im Originaltext. Sobald personenbezogene Daten eingegeben werden, greift die DSGVO. Das gilt unabhängig davon, ob Sie mit einem Custom GPT oder einem Agent arbeiten.
Wer personenbezogene Daten eingibt, verarbeitet Daten.
Dieser Satz ist juristisch nüchtern, aber strategisch kraftvoll. Er verhindert, dass KI als bloße Textoptimierung verharmlost wird. Gerade im öffentlichen Dienst, ist Sensibilität besonders hoch. Verwaltungsmitarbeiterinnen tragen Verantwortung gegenüber Bürgerinnen und Bürgern.
Im Mittelstand zeigt sich dieselbe Dynamik gegenüber Kunden. Ein Datenvorfall beschädigt Vertrauen schneller als jede technische Innovation es wieder aufbauen kann. Deshalb lautet die professionelle Haltung nicht Verzicht, sondern bewusste Steuerung.
Entscheidungsmatrix – Custom GPT vs. Agent mit EU-Blick
Die folgende Gegenüberstellung dient als strukturierte Orientierung. Sie ersetzt keine Rechtsberatung, schafft jedoch eine fundierte Gesprächsgrundlage für interne Abstimmungen. Nutzen Sie diese Matrix im Austausch mit IT, Datenschutz oder Leitungsebene. Klarheit entsteht nicht durch Schlagworte, sondern durch präzise Differenzierung.
| Kriterium | Custom GPT | Agent | EU AI Act – Einordnung (praxisnah) |
|---|---|---|---|
| Steuerung | Nutzerinitiiert, reaktiv | Teilweise autonom, zielorientiert | Je mehr Autonomie, desto höher der Bedarf an Aufsicht, Freigaben und Nachvollziehbarkeit. |
| Prozessintegration | Meist ohne direkte Systemanbindung | Verknüpft mehrere Tools oder Datenquellen | Mit Systemzugriff steigt die Pflicht zur Governance: Rollen, Berechtigungen, Logging und Kontrolle. |
| Datenverarbeitung | Punktuell durch konkrete Eingabe | Fortlaufend oder automatisiert | Risikoeinschätzung hängt am Use Case: personenbezogene/entscheidungsrelevante Daten erhöhen Prüf- und Dokumentationsbedarf. |
| Kontrollniveau | Direkte Prüfung jeder Ausgabe | Überwachung durch Freigaben und Logs | Praxisregel: „Human-in-the-loop“ bei sensiblen Vorgängen und dokumentierte Freigabepunkte für automatisierte Schritte. |
| Regulatorische Komplexität | Überschaubar bei klaren Leitlinien | Erhöhte Anforderungen an Dokumentation | Der Act ist risikobasiert: HR/Verwaltungsentscheidungen können schnell in strengere Pflichten fallen; Textassistenz ist meist niedriger. |
| Typische Einsatzfelder | Textarbeit, Strukturierung, Vorlagen | Workflow-Automatisierung, Prozessketten | Kritisch wird es, wenn KI über Text hinaus Entscheidungen vorbereitet (z. B. Bewerbung, Leistungsbewertung, Zugang/Leistungen). |
| EU-Risikoempfinden | Moderat bei datensensibler Nutzung | Höher bei personenbezogenen oder entscheidungsrelevanten Daten | Kernaussage: Nicht das Tool-Label entscheidet, sondern der Use Case und die Wirkung auf Menschen. |
Diese Tabelle enthält keine Wertung, sondern Verantwortungsdimensionen. Beide Systeme können sinnvoll eingesetzt werden, sofern ihr Einsatz bewusst gestaltet wird. Die Frage lautet nicht, ob KI genutzt wird, sondern in welcher Tiefe sie in Prozesse eingreift und unter welchen organisatorischen Rahmenbedingungen.
Für Verwaltungen bedeutet das häufig eine formalisierte Prüfung mit dokumentierten Zuständigkeiten. Für KMU kann es eine strukturierte interne Abstimmung mit klar definierten Freigaben sein. In beiden Fällen gilt: Wer entscheidet, wer prüft, wer dokumentiert? Diese Fragen sind kein bürokratischer Ballast, sondern Ausdruck professioneller Organisationsführung.
Nicht der Begriff entscheidet – die Eingriffstiefe entscheidet.
Die häufigsten Einwände warum das Sekretariat sich darum kümmern sollte – und warum sie nicht tragen
Wo Verantwortung wächst, entstehen Widerstände. Das ist kein Zeichen von Ablehnung, sondern von Verunsicherung. Gerade im Kontext von Custom GPT und Agents zeigt sich ein wiederkehrendes Muster. Die Einwände klingen rational, doch sie verschleiern oft strukturelle Fragen. Wer sie ernst nimmt und sachlich beantwortet, stärkt die Organisation.
„Das macht doch die IT.“
Dieser Satz entlastet im ersten Moment. Er verschiebt Zuständigkeit in eine technische Abteilung und schafft scheinbar klare Verhältnisse. Doch KI-Nutzung im Büro beginnt selten mit Serverarchitektur. Sie beginnt mit einem Prompt, einem kopierten Protokoll, einer automatisierten Antwort. Genau dort, wo operative Entscheidungen vorbereitet werden.
Die IT verantwortet Infrastruktur und Systemsicherheit. Sie entscheidet jedoch nicht über jeden konkreten Anwendungsfall im Fachbereich. Ob personenbezogene Daten anonymisiert werden oder nicht, liegt häufig im Arbeitsprozess selbst. Verantwortung ist daher nicht delegierbar, sondern geteilt. Wer diese Differenz versteht, handelt professionell.
„Das ist doch nur ein Textwerkzeug.“
Gerade bei Custom GPTs wirkt dieser Einwand plausibel. Der Arbeitsvorgang ähnelt einer erweiterten Textverarbeitung. Sie geben Inhalte ein und erhalten stilistische Verbesserungsvorschläge. Doch sobald personenbezogene Daten enthalten sind, verlässt der Vorgang die rein sprachliche Ebene. Dann liegt eine Datenverarbeitung vor.
Diese Unterscheidung ist juristisch nüchtern, aber organisatorisch entscheidend. Ein Mustertext ohne Personenbezug ist unkritisch. Ein personalisiertes Protokoll ist es nicht automatisch. Der Unterschied liegt nicht im Tool, sondern im Inhalt. Wer diesen Punkt ignoriert, unterschätzt die Tragweite alltäglicher Entscheidungen.
Unwissen schützt nicht vor Verantwortung.
„Dafür haben wir keine Zeit.“
Zeitdruck ist ein Dauerzustand im Büro. Genau deshalb erscheinen automatisierte Lösungen so attraktiv. Sie versprechen Beschleunigung ohne Mehraufwand. Doch fehlende Struktur erzeugt später Korrekturaufwand. Unklare Zuständigkeiten führen zu Nachfragen, Prüfungen und im schlimmsten Fall zu Vertrauensverlust.
Ein klar definierter KI-Einsatz spart langfristig Zeit. Ungeklärte Nutzung erzeugt Unsicherheit. In Verwaltungen kann das formale Konsequenzen haben. Im Mittelstand können wirtschaftliche Risiken entstehen. Zeitersparnis entsteht nicht durch Hast, sondern durch Struktur.
„Wir sind zu klein für solche Regelungen.“
Dieser Einwand begegnet vor allem im mittelständischen Umfeld. Man geht davon aus, dass regulatorische Anforderungen nur große Organisationen betreffen. Doch Datenschutz und EU AI Act unterscheiden nicht nach Unternehmensgröße. Auch kleine Teams verarbeiten personenbezogene Daten. Verantwortung skaliert nicht mit Umsatz, sondern mit Wirkung.
Gerade kleinere Organisationen profitieren von klaren Leitlinien. Entscheidungswege sind kürzer, Abstimmungen direkter. Wer hier früh Orientierung schafft, handelt vorausschauend. Professionalität ist keine Frage der Größe, sondern der Haltung.
„Das merkt doch niemand.“
Dieser Satz ist der gefährlichste von allen. Er basiert auf der Annahme fehlender Kontrolle. Doch Organisationen unterliegen internen und externen Prüfmechanismen. Datenschutzaufsicht, interne Revision oder externe Beschwerden können KI-Nutzung sichtbar machen. Transparenz ist daher kein Idealismus, sondern Selbstschutz.
Darüber hinaus geht es nicht nur um Sanktionen. Es geht um Vertrauen. Bürgerinnen und Bürger erwarten in Verwaltungen sorgfältigen Umgang mit Daten. Kundinnen und Kunden erwarten dasselbe im Mittelstand. Vertrauen ist schwer aufzubauen und schnell verspielt. Wer KI bewusst einführt, schützt dieses Vertrauen.
Die Einwände kreisen selten um Technik. Sie kreisen um Unsicherheit, Tempo und Verantwortung. Wer KI als reines Effizienzwerkzeug betrachtet, übersieht ihre strukturelle Wirkung. Custom GPT und Agent sind keine Spielarten derselben Idee. Sie markieren unterschiedliche Eingriffstiefen in organisatorische Abläufe.
Die professionelle Haltung besteht daher nicht im Verzicht. Sie besteht in bewusster Steuerung. Nicht jedes Tool ist problematisch. Problematisch wird es erst, wenn es unreflektiert eingesetzt wird. Genau hier liegt Ihre Gestaltungsmacht.
Schlussgedanke: Verantwortung ist kein Nebeneffekt von KI
Am Ende geht es nicht um die Frage, welches System moderner wirkt. Es geht um die Frage, wie bewusst Ihre Organisation mit Eingriffstiefe umgeht. Custom GPT und Agent unterscheiden sich nicht nur technisch, sondern strukturell. Sie markieren zwei unterschiedliche Ebenen von Einfluss. Wer das erkennt, entscheidet nicht reflexhaft, sondern strategisch.
In Verwaltungen bedeutet diese Strategie vor allem Nachvollziehbarkeit. Prozesse müssen überprüfbar bleiben, Zuständigkeiten klar benannt sein, Freigaben dokumentiert erfolgen. Der EU AI Act ist dabei kein Hindernis, sondern ein Ordnungsrahmen. Er zwingt Organisationen, sich mit Risiko und Wirkung auseinanderzusetzen. Und genau das ist professionelle Führung.
Im Mittelstand liegt die Verantwortung nicht weniger hoch. Automatisierte Prozesse beeinflussen Kundenbeziehungen, Personalentscheidungen und wirtschaftliche Abläufe. Wer hier Autonomie einführt, ohne Kontrollstruktur zu definieren, delegiert mehr als Routinearbeit. Er delegiert Entscheidungsmacht.
KI entlastet nur dort, wo Verantwortung mitwächst.
Vielleicht fragen Sie sich, wie Sie diesen Anspruch konkret umsetzen können. Beginnen Sie mit Klarheit über Ihre Anwendungsfälle. Definieren Sie, wo Textunterstützung endet und Prozesssteuerung beginnt. Legen Sie fest, welche Daten niemals ungeprüft in Systeme gelangen dürfen. Und sorgen Sie dafür, dass jede Automatisierung einen klaren Freigabepunkt besitzt.
Diese Schritte sind keine Bürokratie. Sie sind Ausdruck organisatorischer Reife. Sie schützen Vertrauen, sichern Entscheidungsqualität und stärken Ihre Position im Haus. Denn wer Prozesse versteht und Risiken benennen kann, wird zur Gestalterin, nicht zur Anwenderin.
Der EU AI Act wird bleiben. KI-Systeme werden leistungsfähiger werden. Was sich jedoch nicht ändert, ist die Notwendigkeit klarer Verantwortung. Custom GPT oder Agent – die Wahl ist weniger entscheidend als die Struktur dahinter. Und Struktur beginnt bei Ihnen.
Nicht das Tool macht den Unterschied, sondern die Haltung, mit der Sie es einführen.
Wenn Sie das Thema nicht nur lesen, sondern konkret umsetzen möchten, haben wir eine strukturierte Arbeitshilfe für Sie vorbereitet. In unserem neuen Freebie erhalten Sie ein paar praxisorientierte Beispiele für CustomGPTs im Sekretariat .
Das Freebie erhalten Sie im Rahmen unseres Newsletters. Es ergänzt diesen Beitrag.
Denn Orientierung entsteht nicht nur durch Information, sondern durch Anwendung.
Fertige CustomGPTs im Büro einsetzen
Wir haben einige CustomGPTs direkt für die Arbeit im Sekretariat vorbereitet. Nutzen Sie diese um mit Custom GPTs einige Aufgaben schneller zu erledigen.
Zwei Beispiele unsere CustomGPTs



Spam ist doof, deshalb erhalten Sie mit unserem Newsletter den Zugang zu den GPTs und wöchentliche Updates zu vielen Themen rund um die Arbeit im Büromanagement.

Viele der hier behandelten Inhalte entstehen aus dem Austausch mit Teilnehmenden der Fachtagungsreihe des Verbands der Sekretärinnen. Sie spiegeln Fragen, Erfahrungen und Entwicklungen aus dem Büroalltag rund um das Thema Ki & ChatGPT im Sekretariat wider.
