Was bleibt, wenn KI Agenten alles optimieren?

TLDR: Wissensarbeiter:innen delegieren zunehmend nicht nur Aufgaben, sondern Denkprozesse an KI-Agenten. Was als Produktivitätsgewinn vermarktet wird, ist in Teilen ein schleichender Kompetenzverlust. Wer nicht mehr unterscheidet zwischen Execution-Delegation und Thinking-Delegation, optimiert sich still und leise weg. Die entscheidende Frage lautet nicht, wie man Agenten einsetzt, sondern wann man es nicht tut.

Die Beziehung hat sich umgekehrt

Lange war das Verhältnis zwischen Mensch und Werkzeug eindeutig geregelt. Das Werkzeug wartet. Der Mensch entscheidet. Eine Tabellenkalkulation rechnet, wenn man ihr Zahlen gibt. Ein Hammer liegt, bis jemand greift.

KI-Agenten haben diese Logik invertiert. Laut einer Analyse des Tech for Impact Summit 2026 empfängt ein Agent heute ein Ziel, zerlegt es in Teilaufgaben, führt sie aus, bewertet das Ergebnis und iteriert, bis es erreicht ist. Er wartet nicht. Er arbeitet.

Das ist keine Metapher. Das ist eine Systemarchitektur mit Konsequenzen.

Eine PwC-Erhebung aus dem Jahr 2026 zeigt: 79% der Unternehmen setzen bereits agentic AI ein. Das Time Magazine prognostiziert, dass bis 2050 die meisten Menschen digitale Belegschaften führen werden, grösser als heutige Konzerne. Das ist keine Science-Fiction. Das ist eine Organisations- und Machtfrage, die wir gerade beantworten, ob wir es merken oder nicht.

Das eigentliche Optimierungsproblem

Wir optimieren auf Durchsatz. Mehr Output, schneller, günstiger. Das ist legitim. Aber es ist nicht die einzige Dimension, und sie verdrängt gerade alle anderen.

“We underestimate how valuable friction is.” Kartik Hosanagar, Professor an der Wharton School

Wenn KI die erste Entwurfsstufe übernimmt, das Zusammenfassen, die Recherche, das strukturierte Denken, fehlt dem Menschen der produktive Widerstand. Nicht als romantisches Konzept, sondern neurobiologisch. ScienceInsights beschreibt es in einer Analyse zu kognitiver KI-Delegation von November 2025: Wer intellektuelle Reibung umgeht, umgeht den Prozess, der Verständnis erst erzeugt.

Die Konsequenzen sind messbar, und sie kommen aus einer unerwarteten Richtung. Kartik Hosanagar, Professor an der Wharton School, dokumentiert einen medizinischen Befund mit struktureller Übertragbarkeit: Endoskopist:innen, die regelmässig KI zur Polyp-Erkennung nutzten, wurden schlechter darin, Polypen zu finden, sobald die KI abgeschaltet wurde. Adenomdetektionsraten sanken von 28% auf 22%. Die Delegation veränderte das klinische Verhalten, ohne dass die Betroffenen es bemerkten.

Das ist kein Ausreisser. Das ist ein Mechanismus mit einem Namen.

Eine Arxiv-Studie vom März 2026, “The Cognitive Divergence: AI Context Windows, Human Attention Decline, and the Delegation Feedback Loop”, beschreibt ihn präzise: Mit wachsender KI-Kompetenz sinkt die kognitive Schwelle, ab der Menschen delegieren. Sie delegieren zunehmend auch Aufgaben, die kognitive Kapazitäten eigentlich aufrechterhalten würden. Die entstehenden Fähigkeitsverluste sind neurobiologisch nachweisbar und nicht spontan reversibel.

Der Prompt wozu?

Das ist die strategische Frage, die selten gestellt wird.

Wenn ich einen Agenten beauftrage, einen Kundenbericht zu formatieren, spare ich Zeit. Wenn ich ihn beauftrage, meine Argumentation zu strukturieren, spare ich Denken. Das ist kein gradueller Unterschied. Das ist ein kategorialer.

ScienceInsights formuliert die Konsequenz klar: Wer KI-generierte Outputs, Code, Analysen, Texte, akzeptiert, ohne die zugrundeliegende Logik nachvollziehen zu können, verliert die Fähigkeit, das Ergebnis zu prüfen.

“Ein Agent-Manager, der nicht mehr beurteilen kann, ob der Output gut ist, ist kein Manager. Er ist eine Weiterleitungsstation.”

Was übrig bleibt, ist Zustimmung ohne Verständnis. Das sieht aus wie Entscheidungskompetenz. Es ist keine.

Die Automation wohin?

Der World Economic Forum schätzt im Future of Jobs Report 2025, dass sich 39% der Kernkompetenzen von Arbeitnehmenden bis 2030 verändern werden. KI und Datenanalyse führen die Liste der wachsenden Fähigkeiten an. Kreatives Denken, Resilienz und Urteilsvermögen bleiben laut WEF kritisch.

Das klingt beruhigend. Es ist eine normative Aussage, keine empirische Garantie.

Das Stanford SALT Lab hat 2025 in Zusammenarbeit mit dem Stanford Digital Economy Lab 1’500 Arbeitnehmende aus 104 Berufen analysiert. Befund: Rund 80% der US-amerikanischen Wissensarbeiter:innen werden durch LLMs in mindestens 10% ihrer Aufgaben betroffen, 19% sehen über die Hälfte ihrer Kernverantwortlichkeiten potenziell verändert. Die Frage ist nicht mehr ob, sondern wie bewusst wir diese Transformation gestalten.

Niemand sichert uns die kritischen menschlichen Fähigkeiten, wenn wir sie nicht aktiv trainieren.

Drei Beobachtungen, die ich für entscheidungsrelevant halte

Delegation ist kein neutraler Akt. Jede Aufgabe, die ich delegiere, ist eine Aufgabe, bei der ich nicht mehr übe. Mitarbeitende wachsen durch das Delegierte. Agenten nicht. Der Unterschied ist nicht trivial.

“Agent-Manager” als Rolle ist nur dann wertvoll, wenn die Urteilsfähigkeit erhalten bleibt. Das setzt voraus, dass die Person, die delegiert, das Delegierte noch versteht. Wer nur noch orchestriert, ohne zu verstehen, ist nicht unersetzlich. Er ist ersetzbar durch eine bessere Orchestrierung.

Wir brauchen eine Unterscheidung zwischen Execution-Delegation und Thinking-Delegation. Erstere entlastet. Letztere atrophiert. Die meisten Produktivitätsversprechen machen diese Unterscheidung nicht, weil sie den Verkauf erschwert.

Die eigentliche Frage

“Für welche Art von Denken wollen wir weiterhin persönlich verantwortlich sein?”

Das ist keine technische Entscheidung. Es ist eine, die wir heute treffen, stillschweigend, durch jeden Prompt, den wir abschicken, durch jede Zusammenfassung, die wir lesen, ohne das Original.

Die wichtigste Kompetenz der nächsten Jahre ist nicht zu wissen, wie man Agenten einsetzt. Es ist zu wissen, wann man es nicht tut.

Disclaimer

Dieser Artikel wurde nach meinem eigenen Wissen und dann mit Recherchen mit KI (Perplexity.ai und Claude) manuell zusammengestellt und mit Deepl.com/write vereinfacht. Der Text wird dann nochmals von zwei Personen meiner Wahl gelesen und kritisch hinterfragt. Das Bild stammt von KI-generierter Bildgebung (Ideogram/Adobe Firefly). Dieser Artikel ist rein edukativ und erhebt keinen Anspruch auf Vollständigkeit. Bitte melde dich, wenn Du Ungenauigkeiten feststellst, danke.

Fragen zu KI und Digitalen Geschäftsmodellen? #fragRoger Willst du mehr wissen? Sehr gerne komme ich auch bei Dir, bei deiner Firma, deiner ERFA Gruppe oder deinem Verband vorbei und helfe mit einem Workshop oder Impulsreferat.

Lass uns gerne mal unverbindlich sprechen. Also wenn ich helfen kann, wende dich gerne an mich #fragRoger und abonnier meinen offiziellen Newsletter.

Und darum bin ich nach wie vor überzeugt: Die Zukunft gehört nicht dem Delegieren um jeden Preis, sondern dem bewussten Entscheid, was der Mensch behält. Nicht weil Maschinen es nicht könnten. Sondern weil wir es können müssen. Also wenn Du reden willst, und wenn Du mit mir zusammenarbeiten willst: melde Dich gerne unter www.rogerbasler.ch

Quellen (APA)

Hosanagar, K. (2025, Dezember). AI is deskilling you. Here’s how to prevent it. Substack. https://hosanagar.substack.com/p/ai-is-deskilling-you-heres-how-to

PwC & Time Magazine. (2026, Januar). AI changed work forever in 2025. Time. https://time.com/7342494/ai-changed-work-forever/

ScienceInsights. (2025, November). Is AI making us lazy or redefining effort? https://scienceinsights.org/is-ai-making-us-lazy-or-redefining-effort/

Stanford SALT Lab & Stanford Digital Economy Lab. (2025). Future of work with AI agents: Auditing automation and augmentation potential across the U.S. workforce. https://futureofwork.saltlab.stanford.edu/

Tech for Impact Summit. (2026, März). The future of work: Human talent, AI agents, or post-work society? https://tech4impactsummit.com/blog/future-of-work-human-talent-ai-agents-2026/

World Economic Forum. (2025). Future of jobs report 2025. https://www.weforum.org/reports/the-future-of-jobs-report-2025/

Zheng, Y., et al. (2026, März). The cognitive divergence: AI context windows, human attention decline, and the delegation feedback loop. arXiv. https://arxiv.org/html/2603.26707v1

Accessibility Toolbar