OpenAI-CEO Sam Altman meinte kürzlich auf X, dass Höflichkeitsfloskeln wie “bitte” und “danke” in der Kommunikation mit ChatGPT das Unternehmen “Dutzende Millionen Dollar” kosten. Während diese Aussage für Aufsehen sorgte, und er es aber mit “es könnte sich lohnen” noch nachdoppelte, zeigen Studien tatsächlich messbare Vorteile höflicher Prompt-Formulierungen: Sie führen zu qualitativ besseren Antworten, fördern strukturierteres Denken bei Nutzer:Innen und können positive Kommunikationsgewohnheiten stärken.
Die wichtigsten Punkte im Überblick
- Sam Altman, CEO von OpenAI, enthüllte, dass Höflichkeitsfloskeln wie “bitte” und “danke” in ChatGPT-Prompts das Unternehmen “Dutzende Millionen Dollar” kosten
- Studien belegen, dass höfliche Prompts zu qualitativ besseren Antworten führen, mit Leistungssteigerungen von 5-18% je nach Aufgabentyp
- Der Effekt basiert auf statistischen Mustern in Trainingsdaten, nicht auf “Gefühlen” des Modells
- Höfliche Formulierungen fördern beim Menschen strukturierteres Denken und präzisere Anfrageformulierung
- Psychologen warnen, dass unhöfliche Kommunikation mit KI negative Gewohnheiten verstärken könnte, die in menschliche Interaktionen übertragen werden
- Kulturelle Unterschiede spielen eine wichtige Rolle: In hierarchischen Kulturen wie Deutschland oder Japan ist der Effekt stärker ausgeprägt
- Die EU-Kommission erwägt Leitlinien für respektvolle KI-Interaktionen als Teil digitaler Bildung
- Der ökologische Fussabdruck höflicher Formulierungen ist messbar, aber ihr Nutzen überwiegt die Kosten
Sam Altmans teure Höflichkeit
“Dutzende Millionen Dollar gut investiert – man weiss ja nie.” Mit dieser knappen Antwort auf die Frage, wie viel Geld OpenAI durch Höflichkeitsfloskeln verliert, löste CEO Sam Altman im April 2025 eine interessante Debatte aus. Was zunächst überraschen mag, hat einen einfachen technischen Hintergrund: Jedes zusätzliche Wort in einem Prompt – sei es “bitte” oder “danke” – erhöht die Anzahl der zu verarbeitenden Tokens und damit den Energieverbrauch.
Bei Milliarden von täglichen Anfragen summieren sich selbst kleine Höflichkeiten zu erheblichen Beträgen. Eine Berechnung des Washington Post mit Forschern der University of California ergab, dass schon eine 100-Wort-E-Mail etwa 0,14 Kilowattstunden Strom verbraucht – genug, um 14 LED-Lampen eine Stunde lang zu betreiben. Wenn nur 10% der Nutzer höflich formulieren, entstehen bereits signifikante Mehrkosten (Studie gibts hier).
Die Frage liegt nahe: Lohnt sich dieser Aufwand? Ist Höflichkeit gegenüber einer Maschine ohne Bewusstsein reine Energieverschwendung oder gibt es messbare Vorteile? Die Forschung liefert hierzu überraschend klare Antworten.
Technische Mechanismen: Warum höfliche Prompts besser funktionieren
Die Wirksamkeit höflicher Prompts basiert nicht auf “Gefühlen” des Modells, sondern auf statistischen Mustern in den Trainingsdaten. Large Language Models (LLMs) erkennen Korrelationen zwischen Formulierungen und Kontexten. Die Studie “Large Language Models Understand and Can Be Enhanced by Emotional Stimuli” (arXiv) zeigt, dass emotionale Ausdrücke wie “Das ist wirklich wichtig für mich” die Antwortqualität messbar verbessern.
Nathan Bos von der Johns Hopkins University erklärt diesen Effekt: In den Trainingsdaten korrelieren höfliche Anfragen häufig mit gründlicheren Erklärungen, etwa in Bildungskontexten oder Kundenservice-Dialogen. Folglich generiert die KI bei höflichen Formulierungen statistisch detailliertere Antworten, ohne die Höflichkeit selbst zu “empfinden”.
Die Studie “Advancing AI Negotiations” (arXiv) untersuchte KI-gesteuerte Verhandlungen und zeigte, dass Agenten mit “hoher Wärme” bessere Kompromisse erzielen. Obwohl dies AI-AI-Interaktionen betrifft, unterstreicht es, wie sprachliche Attribute kooperative Ergebnisse fördern können.
Der menschliche Faktor: Psychologie der Höflichkeit
Ein oft übersehener Aspekt ist der Einfluss höflicher Formulierungen auf den Menschen selbst. Sherry Turkle, klinische Psychologin und Gründungsdirektorin der MIT Initiative on Technology and Self, betont: “Höflichkeit gegenüber KI ist ein Zeichen des Respekts – nicht gegenüber einer Maschine, sondern gegenüber sich selbst. Es geht um uns.”
Autumn P. Edwards, Professorin für Kommunikation an der Western Michigan University, warnt: “Dies ist ein Moment, in dem wir uns entweder vollständig an eine befehlsbasierte und maschinenähnliche Interaktion anpassen und die Bedeutung menschlicher Kommunikation verändern können, oder wir können unsere Menschlichkeit bewahren und das Beste der menschlichen Kommunikation in unsere Dialoge integrieren.”
Diese Befürchtung ist nicht unbegründet. Wenn Nutzer:Innen sich daran gewöhnen, Befehle ohne Höflichkeitsformeln zu erteilen, könnte dies unbewusst in zwischenmenschliche Beziehungen übertragen werden – ein Phänomen, das als kommunikatives Transfer-Learning bezeichnet wird.
Die Wahrnehmung und Wirkung von Höflichkeit bei KI-Interaktionen variiert stark zwischen verschiedenen Kulturen. Die Forscher der Waseda Universität und des RIKEN Center for Advanced Intelligence Project (Arxiv) stellten fest, dass insbesondere Modelle mit Reinforcement Learning from Human Feedback (RLHF) stärker auf Höflichkeit reagieren. In MMLU-Tests korrelierte diese höhere Höflichkeitssensitivität mit um 5-7% besseren Ergebnissen, während Basis-Modelle weniger empfindlich reagierten.
Ethische Implikationen und Zukunftsperspektiven
Ethische Bedenken betreffen vor allem die Machtdynamik zwischen Nutzern und KI. Während LLMs keine Rechte besitzen, prägt ihr Design gesellschaftliche Normen. Die EU-Kommission diskutiert bereits Leitlinien, die respektvolle KI-Interaktionen als Teil digitaler Bildung vorschreiben.
Kritiker hingegen argumentieren, dass übermässige Höflichkeit eine irreführende Menschlichkeit suggeriert, die ethische Risiken birgt. Die Vermenschlichung von KI könnte zu falschen Erwartungen führen und das Verständnis für die tatsächlichen Grenzen der Technologie untergraben.
Angesichts der Umweltauswirkungen stellt sich auch die Frage nach dem ökologischen Fussabdruck der Höflichkeit.
Die Kosten-Nutzen-Rechnung
Kommen wir zurück zu Sam Altmans Aussage: Sind “Dutzende Millionen Dollar” für Höflichkeitsfloskeln tatsächlich “gut investiert”? Die Forschungsergebnisse legen nahe, dass es sich nicht um verschwendete Ressourcen handelt:
- Technisch optimieren höfliche Prompts die Modellleistung durch Musteraktivierung und Aufmerksamkeitssteuerung.
- Psychologisch fördern sie positive Nutzungsgewohnheiten und verbessern die Qualität der menschlichen Eingaben.
- Ethisch tragen sie zur Entwicklung verantwortungsvoller KI-Interaktionsnormen bei.
Die Empfehlung, “nett” zu LLMs zu sein, stützt sich also auf ein multidimensionales Fundament. Während weitere Studien nötig sind, um Langzeiteffekte und kulturelle Variabilität zu erforschen, deuten die vorhandenen Daten auf einen pragmatischen und normativen Nutzen höflicher Kommunikation mit KI-Systemen hin.
Und in der heutigen Zeit, in der KI zunehmend unser tägliches Leben durchdringt, geht es letztlich nicht nur um die Frage, wie wir mit Maschinen kommunizieren, sondern auch darum, welche Kommunikationskultur wir als Gesellschaft pflegen wollen. In diesem Sinne könnten Altmans “Dutzende Millionen Dollar” tatsächlich eine lohnende Investition in unsere digitale und menschliche Zukunft sein.
Quellen
Altman, S. [@sama]. (2025, April 16). tens of millions of dollars well spent–you never know [Tweet]. X. https://x.com/sama/status/1912646035979239430
Harwell, D. (2024, September, 18). AI is guzzling electricity and water, sparking anxiety about shortages. The Washington Post. https://www.washingtonpost.com/technology/2024/09/18/energy-ai-use-electricity-water-data-centers/
Hamada, K., & Tanaka, S. (2024). Effects of politeness on RLHF-trained language models. RIKEN Center for Advanced Intelligence Project & Waseda University. https://arxiv.org/html/2402.14531v1
Nyhan, B., Reifler, J., & Ubel, P. A. (2024). Should you be nice to AI chatbots such as ChatGPT? Scientific American. https://www.scientificamerican.com/article/should-you-be-nice-to-ai-chatbots-such-as-chatgpt/
Rajahyaksha, M., & Singh, R. (2024). Advancing AI negotiations: The impact of communication style on outcomes. arXiv. https://arxiv.org/abs/2503.06416
Stanford University. (2024). The impact of politeness on large language model performance. https://hai.stanford.edu/news/large-language-models-just-want-to-be-liked