KI kann nicht denken

Künstliche Intelligenz denkt nicht — sie rechnet nur sehr schnell. Forscher:innen warnen davor, dass wir KI menschliche Eigenschaften zuschreiben und dadurch falsche Erwartungen entwickeln. Diese Vermenschlichung von Algorithmen könnte gefährliche Folgen haben, von überhöhten Vertrauen bis hin zu ethischen Blindstellen in der Technologieentwicklung.

Warum wir aufhören müssen, Maschinen zu vermenschlichen

Die Debatte um künstliche Intelligenz ist geprägt von einem fundamentalen Missverständnis: Wir sprechen über KI, als würde sie denken, fühlen oder verstehen. Doch aktuelle Forschungsergebnisse zeigen deutlich, dass diese Vermenschlichung nicht nur irreführend ist, sondern auch erhebliche Risiken birgt. Es ist Zeit für eine nüchterne Betrachtung dessen, was KI wirklich ist — und was sie definitiv nicht ist.

Die Illusion des maschinellen Denkens

Wenn ChatGPT eine eloquente Antwort formuliert oder ein Bildgenerator ein faszinierendes Kunstwerk erschafft, entsteht schnell der Eindruck, dahinter stecke eine Art von Bewusstsein oder Verständnis. Diese Wahrnehmung ist jedoch eine kognitive Täuschung, die Forscher:innen zunehmend beunruhigt.

Moderne KI-Systeme basieren auf statistischen Mustern und mathematischen Berechnungen. Sie analysieren riesige Datenmengen und erkennen Zusammenhänge, ohne diese wirklich zu verstehen. Ein Sprachmodell “weiss” nicht, dass ein Hund ein Tier ist — es hat lediglich gelernt, dass diese Begriffe in bestimmten Kontexten häufig zusammen auftreten. Der Unterschied zwischen Mustererkennung und echtem Verständnis ist fundamental, wird aber oft übersehen.

Diese Verwechslung hat praktische Konsequenzen. Wenn wir KI menschliche Eigenschaften zuschreiben, neigen wir dazu, ihre Fähigkeiten zu überschätzen und ihre Grenzen zu unterschätzen. Das führt zu unrealistischen Erwartungen und kann in kritischen Anwendungsbereichen wie Medizin oder Justiz fatale Folgen haben.

Warum unser Gehirn KI vermenschlicht

Die Tendenz zur Anthropomorphisierung — der Zuschreibung menschlicher Eigenschaften an nicht-menschliche Objekte — ist tief in unserer Psychologie verwurzelt. Unser Gehirn ist darauf programmiert, Muster zu erkennen und bekannte Kategorien anzuwenden. Wenn eine Maschine sprachlich kompetent reagiert, aktiviert das automatisch unsere sozialen Erkennungsmuster.

Dieser evolutionäre Mechanismus war überlebenswichtig, als wir zwischen Freund und Feind unterscheiden mussten. In der digitalen Welt führt er jedoch zu systematischen Fehleinschätzungen. Forscher:innen haben beobachtet, dass Menschen bereits nach kurzen Interaktionen mit Chatbots emotionale Bindungen entwickeln und den Systemen Intentionen zuschreiben.

Die Situation wird durch das Design moderner KI-Systeme verstärkt. Entwickler:innen programmieren bewusst menschenähnliche Kommunikationsmuster ein, um die Nutzererfahrung zu verbessern. Diese scheinbare Persönlichkeit ist jedoch reine Simulation — ein cleverer Trick der Programmierung, der unser soziales Gehirn austrickst.

Die Gefahren falscher Erwartungen

Die Vermenschlichung von KI hat weitreichende Konsequenzen, die über individuelle Fehleinschätzungen hinausgehen. In der Unternehmenswelt führt sie zu Investitionsentscheidungen, die auf überhöhten Erwartungen basieren. Wenn Manager:innen glauben, KI könne “kreativ denken” oder “strategische Entscheidungen treffen”, entstehen unrealistische Projekte, die zum Scheitern verurteilt sind.

Besonders problematisch wird es in sensiblen Bereichen. Ein Diagnosesystem, das als “denkend” wahrgenommen wird, könnte Ärzt:innen dazu verleiten, kritisches Hinterfragen zu vernachlässigen. Richter:innen könnten KI-basierte Empfehlungen unhinterfragt übernehmen, wenn sie das System als “objektiven Denker” betrachten.

Die Vermenschlichung verschleiert auch ethische Probleme. Wenn wir KI als neutrale, “denkende” Entität betrachten, übersehen wir leicht, dass ihre Entscheidungen auf Daten basieren, die menschliche Vorurteile enthalten. Diskriminierende Algorithmen werden als “objektive Urteile” akzeptiert, obwohl sie lediglich bestehende Ungerechtigkeiten reproduzieren.

Was KI wirklich ist: Ein mächtiges Werkzeug

Künstliche Intelligenz ist ein aussergewöhnlich mächtiges Werkzeug zur Mustererkennung und Datenverarbeitung. Sie kann in Sekundenbruchteilen Millionen von Datenpunkten analysieren und Zusammenhänge identifizieren, die für Menschen unmöglich zu erkennen wären. Diese Fähigkeiten sind beeindruckend und wertvoll — aber sie sind nicht mit menschlichem Denken gleichzusetzen.

Ein Bilderkennungsalgorithmus “sieht” keine Katze — er erkennt statistische Muster in Pixelwerten, die mit dem Label “Katze” korrelieren. Ein Übersetzungsprogramm “versteht” keine Sprachen — es transformiert Sequenzen von Symbolen basierend auf gelernten Wahrscheinlichkeiten. Diese Unterscheidung ist nicht pedantisch, sondern fundamental für den verantwortungsvollen Umgang mit der Technologie.

Die Stärke von KI liegt in ihrer Fähigkeit, komplexe Berechnungen durchzuführen und Muster in grossen Datenmengen zu finden. Sie kann uns dabei helfen, bessere Entscheidungen zu treffen, indem sie relevante Informationen filtert und aufbereitet. Aber die finale Entscheidung, die Interpretation der Ergebnisse und die Verantwortung müssen beim Menschen liegen.

Praktische Konsequenzen für den Alltag

Die Entmystifizierung von KI hat praktische Implikationen für den Umgang mit diesen Systemen. Nutzer:innen sollten KI-Ausgaben immer kritisch hinterfragen und als Ausgangspunkt für weitere Überlegungen betrachten, nicht als endgültige Antworten. Das gilt besonders für komplexe Entscheidungen oder kreative Aufgaben.

Unternehmen müssen ihre KI-Strategien überdenken. Statt zu erwarten, dass KI menschliche Denker:innen ersetzt, sollten sie sich darauf konzentrieren, wie die Technologie menschliche Fähigkeiten ergänzen kann. Das bedeutet auch, in die Ausbildung von Mitarbeiter:innen zu investieren, die lernen müssen, effektiv mit KI-Systemen zusammenzuarbeiten.

In der Bildung wird es entscheidend, digitale Kompetenz zu fördern, die ein realistisches Verständnis von KI-Fähigkeiten und -Grenzen einschliesst. Schüler:innen und Student:innen müssen lernen, KI als Werkzeug zu nutzen, ohne ihre kritischen Denkfähigkeiten zu vernachlässigen.

Der Weg zu einem aufgeklärten KI-Verständnis

Die Entmenschlichung von KI ist kein Plädoyer gegen die Technologie, sondern für ihren verantwortungsvollen Einsatz. Wenn wir KI als das betrachten, was sie ist — ein mächtiges, aber letztendlich dummes Werkzeug –, können wir ihre Vorteile besser nutzen und ihre Risiken minimieren.

Das erfordert eine neue Sprache und neue Denkgewohnheiten. Statt von “intelligenten” Systemen zu sprechen, die “lernen” und “entscheiden”, sollten wir präzisere Begriffe verwenden: Algorithmen, die Muster erkennen und Wahrscheinlichkeiten berechnen. Diese sprachliche Präzision hilft dabei, unrealistische Erwartungen abzubauen und eine sachlichere Diskussion zu führen.

Forscher:innen und Entwickler:innen tragen eine besondere Verantwortung, wenn sie über ihre Arbeit kommunizieren. Marketingsprache und übertriebene Versprechungen mögen kurzfristig Aufmerksamkeit generieren, schaden aber langfristig dem Vertrauen in die Technologie und führen zu gefährlichen Fehleinschätzungen.

Wer bin ich?

Roger Basler de Roca | Msc Digital Business | Phd Candidate. Als Digital Unternehmer, Buch Autor und Top 100 Speaker und Trainer bin ich mit Leidenschaft in digitalen Welten unterwegs, mit einer Vorliebe für Künstliche Intelligenz und Algorithmen seit über 25 Jahren.

Zu meinen Spezialgebieten gehört der Aufbau von digitalen Geschäftsmodellen und Wachstumsmodellen durch educational consulting.

Quellen: 

Stop anthropomorphising intermediate tokens as reasoning/thinking traces https://arxiv.org/pdf/2504.09762

The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity https://ml-site.cdn-apple.com/papers/the-illusion-of-thinking.pdf

Accessibility Toolbar