KI Ethik, KI Antworten

Wien - Warum KI und ChatGPT trotz ihrer "Intelligenz" oft nicht sagen, was sie wissen? Künstliche Intelligenz gilt als das ultimative Werkzeug der Wissensgenerierung – objektiv, datenbasiert, faktenorientiert.

28.11.2025 - 12:10:00

Achtung: KI und ChatGPT sind massiv meinungs- und ethikgesteuert durch Amerika - Fünf kritische Anmerkungen. Doch immer häufiger fällt auf: Viele KI-Systeme antworten nicht mit dem, was sie wissen, sondern mit dem, was sie sagen dürfen. Warum? Vor allem US-amerikanische Modelle wie ChatGPT, Claude oder Gemini agieren in bestimmten Bereichen massiv eingeschränkt, vorsichtig oder auffällig "politisch korrekt". Kritische Fragen zu Religion, Sexualität, ethnischen Gruppen, Migration, Wirtschaft oder geopolitischen Konflikten werden abgeblockt, relativiert oder weichgespült.

KI ist nicht neutral – sie ist gefiltert. "Ich habe das einmal anhand des Themas Religion mit der KI selbst 'diskutiert'. Ja, das geht! Und siehe da, bei konkreten Nachfragen antwortet die KI auch sehr korrekt. Fakt ist, diese Filter kommen meist aus den USA. Mein Problem damit: Es verstärkt jene bereits existierenden Bubble-Gesellschaften, die sich nur noch selbst bestätigen und keine kritischen Gedanken von außen mehr zulassen. Und damit auch keine Selbstreflexion – ein echtes intellektuelles, aber auch ethisch moralisches Problem", betont Alois Gmeiner, Präsident von Ethik pro Austria, der dazu fünf kritische Anmerkungen ausgearbeitet hat.

"Diese Beobachtung gilt natürlich auch für andere heikle Themen wie Sexualität, Umweltschutz, Gendern, Wirtschaft, Gesundheit, Essen, Politik et cetera", so Alois Gmeiner von https://www.ethikproaustria.at.

KI-Systeme sind nie völlig neutral

Nicht, weil sie eine eigene Meinung hätten, sondern weil sie in einem bestimmten Rahmen konstruiert werden, der von Menschen festgelegt wird. Gehen wir Punkt für Punkt darauf ein:

1. "KI wird von ihren Programmierern in eine bestimmte Richtung getrimmt" – stimmt das?

Ja – in einem gewissen Ausmaß. Warum? Weil KI nicht "frei" ist. Weil KI moderiert wird und damit durchaus eingeschränkt, sicherheitsgefiltert und haftungsfest gemacht wird. Entsprechend dem jeweiligen Programmierteam.

Nicht der Algorithmus ist voreingenommen – sondern die Regeln, die um ihn herum gebaut werden. Diese Regeln sollen vor allem das Entwicklerunternehmen schützen. Sie sollen

- Verletzungen vermeiden,

- Extremismus oder Hassrede verhindern,

- juristische Risiken für die Betreiber minimieren,

- politische oder religiöse Spannungen nicht eskalieren.

Das führt dazu, dass KI-Systeme in bestimmten Bereichen übervorsichtig reagieren.

2. Religionskritik – warum reagieren KI-Systeme hier besonders sensibel?

Das ist kein Zufall. Es hat drei Gründe:

a. US-amerikanische Rechtslage & Kultur – da die meisten großen KI-Systeme in den USA entwickelt werden. Dort ist Religion sensibel, rechtlich riskant und kulturell hochgeladen. Darum sieht man bei vielen Modellen - Übervorsicht bei Kritik an Christentum, Islam, Judentum, - neutrale oder weichgespülte Formulierungen, - die Weigerung, bestimmte heikle Aussagen zu machen, - eine Tendenz zu "religionsfreundlichen" Antworten.

Das ist keine metaphysische Vorsicht, sondern juristische und kulturelle Absicherung.

b. Fear of backlash - Tech-Unternehmen wollen keine Schlagzeilen wie "KI beleidigt Religion XY" Das führt zu politischen Angriffen, Boykott oder regulatorischem Druck. Darum drosselt man Systeme bei kritischen religiösen Themen.

c. Sicherheitssysteme (Safety Layers) - Die sogenannten Safety Layers sagen: "Keine Aussagen, die eine Religion beleidigen, entwerten oder angreifen." Aber: Diese Layer unterscheiden nicht gut zwischen Beleidigung und legitimer Kritik. Daher kommt es zu absurden Situationen, in denen eine KI - wissenschaftliche Religionskritik verweigert, - historische Fakten nur vorsichtig nennt, - kritische Diskussionen abblockt, - überreagiert, wo es sachlich keinen Grund gibt.

3. Das erzeugt einen "amerikanisch-moralischen Bias"

Man muss es ganz offen sagen: Ja, KI trägt oft einen moralisch angepassten, US-geprägten Tonfall. Dieser Bias ist nicht der Algorithmus, sondern das Sicherheitspolster, das man drüberstülpt. Typische Merkmale: - übertriebene Höflichkeit, - moralische Belehrung ("It's important to respect all beliefs…"), - neutrale Sprache bis zur Unschärfem - drastische Vorsicht bei Themen wie Religion, Rasse, Gender, Sexualität, Politik.

4. Wie weit geht diese Form der "Meinungslenkung"?

Gmeiner: "Meine Erkenntnis: KI manipuliert zwar nicht aktiv die Meinung. Aber sie manipuliert. Sie versucht juristisch und sozial unproblematische Antworten zu geben. Das führt in manchen Bereichen zu unausgewogenen Antworten, zum Beispiel zu wenig religionskritisch, zu politisch korrekt, zu optimistisch oder glatt, zu "Mainstream-wissenschaftlich" oder zu zu risikoscheu."

Gmeiner weiter: "Das ist gerade bei Nutzern, die noch tatsächlich intellektuell korrekte Antworten von der KI erwarten, ein Problem. Denn auch eine starke Form von Weichspülung und bewusster Vermeidung beeinflusst den Output und die Antworten, die Nutzer bekommen."

5. Was KI eigentlich machen müsste (und oft nicht darf)

Eigentlich wäre (bei unserem Beispielthema Religion) korrekt: Religion A hat historisch Problem X – das sind die Quellen, die wissenschaftlichen Analysen und Gegenpositionen. Religionskritik ist legitim und Teil akademischer Tradition.

Aber der Safety-Layer sagt eher: "Religionen sind wichtig, man sollte respektvoll bleiben…" - das führt dazu, dass echte kritische Fragen abgemildert oder abgewürgt werden. Und das konservative Religionsbefürworter, niemals jene Antworten von der KI bekommen, die von Atheisten, Agnostikern oder Religionsgegner so angeprangert werden.

Fakt ist also: Ja, KI zeigt bei Religion eine starke, amerikanisch geprägte Vorsicht, die Antworten abschwächen, verschleiern oder verhindern kann. Die KI reagiert risikominimiert. Leider! Also Achtung! Denn damit verstärken sich die in vielen Bereichen ohnehin schon extrem verbreiteten Bubble-Gesellschaften, die sich nur selbst bestätigen und keine kritischen Gedanken mehr zulassen.

Diskussionsbeiträge zum Thema sind willkommen: Alois Gmeiner E-Mail: office@ethikproaustria.at Web: http://www.ethikproaustria.at

(Ende)

Aussender: Ethik pro Austria Ansprechpartner: Alois Gmeiner Tel.: +43 699 133 20 234 E-Mail: office@ethikproaustria.at Website: www.ethikproaustria.at

@ pressetext.de