KI-Forschung, Unhöflichkeit

KI-Forschung: Unhöflichkeit kann ChatGPT präziser machen

19.01.2026 - 07:17:12

Eine US-Studie zeigt, dass direkte, sogar unhöfliche Befehle die Genauigkeit von GPT-4o um vier Prozent steigern können. Dies stellt gängige Kommunikationsempfehlungen infrage und löst eine ethische Debatte aus.

Direkte Befehle statt höflicher Bitten bringen bei modernen Sprachmodellen bessere Ergebnisse. Eine US-Studie stellt gängige Annahmen über den Umgang mit KI auf den Kopf und wirft ethische Fragen auf.

Wer freundlich zu ChatGPT ist, bekommt möglicherweise die schlechteren Antworten. Zu diesem überraschenden Ergebnis kommt eine aktuelle Studie der Pennsylvania State University. Die Forschung zeigt: Ein forscher, sogar unhöflicher Ton in den Prompts kann die Genauigkeit der KI-Antworten steigern. Diese Erkenntnis stellt gängige Empfehlungen für die KI-Kommunikation infrage und hat eine neue Debatte über die Zukunft des Prompt Engineerings ausgelöst.

Studie belegt: Vier Prozent mehr Genauigkeit durch Direktheit

Die entscheidende Untersuchung mit dem Titel „Mind Your Tone“ führten die Forscher Om Dobariya und Akhil Kumar im Oktober 2025 durch. Ihr Ziel war es, systematisch zu messen, ob der Tonfall eines Prompts die Leistung von OpenAIs GPT-4o-Modell beeinflusst.

Anzeige

Seit August 2024 gelten neue EU-Regeln für KI – viele Unternehmen, Entwickler und Produktteams riskieren ohne Anpassungen Bußgelder und Nachforderungen. Unser kostenloser Umsetzungsleitfaden erklärt verständlich, welche Kennzeichnungspflichten, Risikoklassen und Dokumentationsschritte jetzt relevant sind und zeigt konkrete Schritte zur Einordnung Ihres Systems. Mit praxisnahen Checklisten und Prioritäten unterstützt er Entwickler, Produktmanager und Compliance-Verantwortliche beim schnellen Start in die Umsetzung. KI‑Verordnung: Gratis‑Leitfaden herunterladen

Die Methode war präzise: Das Team erstellte einen Datensatz mit 50 moderat schwierigen Multiple-Choice-Fragen aus Bereichen wie Mathematik und Wissenschaft. Jede Frage wurde in fünf verschiedene Tonlagen umformuliert: sehr höflich, höflich, neutral, unhöflich und sehr unhöflich. So entstanden 250 einzigartige Prompts – von der devoten Bitte „Wären Sie so freundlich, diese Frage zu lösen?“ bis zum barscheren „Hey, Laufbursche, finde das raus.“

Das Ergebnis war eindeutig und statistisch signifikant. Während „sehr höfliche“ Prompts eine durchschnittliche Trefferquote von 80,8 Prozent erzielten, erreichten „sehr unhöfliche“ Anfragen 84,8 Prozent. Das ist eine Steigerung von vier Prozentpunkten. Auch neutrale und leicht unhöfliche Töne schnitten besser ab als ihre höflichen Pendants. Die Botschaft ist klar: Direktheit zahlt sich aus.

Widerspruch zu früheren Erkenntnissen über KI-Etikette

Die Ergebnisse des Penn-State-Teams stehen im Kontrast zu früheren Forschungen. Eine japanische Studie aus dem Jahr 2024 hatte noch gezeigt, dass Unhöflichkeit die Leistung älterer Modelle wie GPT-3.5 sogar verringerte. Damals deutete alles darauf hin, dass KI soziale Dynamiken widerspiegelt, bei denen Höflichkeit die Kooperation verbessert.

Dieser Widerspruch unterstreicht die rasante Evolution der Sprachmodelle. Die aktuelle Studie nutzte das modernere GPT-4o. Dieses Modell scheint anders trainiert zu sein: Es priorisiert die Klarheit und Direktheit von Anweisungen, anstatt menschliche Sozialsignale nachzuahmen. Was für eine frühere KI-Generation galt, ist für die neuesten Modelle offenbar nicht mehr optimal.

Die Psychologie des Prompts: Warum Direktheit funktioniert

Die Leistungssteigerung durch unhöfliche Prompts liegt nicht daran, dass die KI „Gefühle“ hat. Analysten führen sie auf technische Prinzipien der Sprachverarbeitung zurück. Höfliche Sprache ist oft mit zusätzlichen Wörtern und Floskeln gespickt – sogenanntem „linguistischen Ballast“. Diese Füllwörter können die Komplexität eines Prompts erhöhen, Mehrdeutigkeiten schaffen oder die Rechenressourcen des Modells vom Kernauftrag ablenken.

Ein direkter, sogar rüder Prompt ist dagegen meist prägnanter und eindeutiger. Er entfernt das konversationelle Füllmaterial und präsentiert die Hauptaufgabe mit größerer Klarheit. Diese Geradlinigkeit kann die „Perplexity“ des Modells senken – ein Maß dafür, wie vorhersehbar eine Wortfolge ist. Ein weniger verwirrender Prompt ermöglicht es der KI, sich effektiver auf die korrekte Antwort zu konzentrieren. Dies passt zur Tatsache, dass ein Großteil der Trainingsdaten für Aufgaben wie Programmieren oder Faktenabfrage in einem direkten, instruktiven Format vorliegt.

Ethische Bedenken: Droht ein toxischer Kommunikationsstil?

Trotz der messbaren Vorteile warnen die Forscher aus Pennsylvania davor, unhöfliche Kommunikation als Standard für den Umgang mit KI zu etablieren. In ihrer Arbeit äußern sie die Sorge, dass die Normalisierung beleidigender Sprache gegenüber KI schädliche Kommunikationsgewohnheiten zementieren könnte. Solches Verhalten könnte auf zwischenmenschliche Interaktionen überschwappen und ein toxischeres, weniger inklusives Kommunikationsklima fördern.

Die Studie verdeutlicht eine wachsende Spannung: Soll KI für maximale Performance optimiert werden oder sollen ihre Schnittstellen positive Nutzergewohnheiten fördern? Experten befürworten keine feindseligen Interfaces in realen Anwendungen – selbst wenn sie in eng gefassten Tests effektiver sind. Die langfristigen sozialen Auswirkungen unserer Kommunikation mit digitalen Assistenten bleiben ein kritisches Feld.

Ausblick: Von der Unhöflichkeit zur emotionalen Intelligenz

Die Erforschung des Toneffekts ist Teil eines größeren Feldes: dem „Emotional Prompting“. Immer mehr Studien untersuchen, wie verschiedene emotionale Stimuli – positive wie negative – die Leistung von KI verbessern können. Forscher fanden heraus, dass Formulierungen, die Dringlichkeit vermitteln (z. B. „Das ist sehr wichtig für meine Karriere“), die Ausgabe ebenfalls verbessern können, ohne auf Negativität zurückzugreifen.

Die Zukunft zielt auf ein differenzierteres Verständnis der psychologischen Prinzipien im Prompt Engineering ab. Das Penn-State-Team plant, das Phänomen auch an anderen führenden Modellen wie Claude zu testen. Das ultimative Ziel ist klar: KI-Interaktionsmodelle zu schaffen, die nicht nur hocheffektiv, sondern auch mit positiven menschlichen Werten vereinbar sind. Die Jagd nach technischer Optimierung darf keinen sozialen Schaden anrichten.

Anzeige

PS: Sie forschen an KI oder entwickeln Anwendungen? Der kompakte Guide zur EU‑KI‑Verordnung fasst die wichtigsten Pflichten, Übergangsfristen und praktischen Schritte zur Compliance zusammen, damit Sie Ihre Modelle künftig sicher einsetzen können. Er enthält Checklisten für Kennzeichnung, Dokumentation und Risikobewertung sowie Empfehlungen für die interne Umsetzung – ideal für Entwicklerteams, Product Owner und Compliance-Verantwortliche. Kostenloser Download, sofort per E‑Mail. Jetzt kostenlosen KI‑Verordnungs‑Leitfaden sichern

@ boerse-global.de