KI enthüllt: Negative Emotionen fördern überraschendes Verhalten – Rassismus und Sexismus im Fokus!


In einer bemerkenswerten Studie hat ein Forscherteam unter der Leitung von Tobias Spiller, Psychiater und Psychiatrie-Forscher an der Psychiatrischen Universitätsklinik Zürich, herausgefunden, dass KI-Systeme wie ChatGPT ähnlich auf negative Emotionen reagieren wie Menschen. Laut den Forschern neigen Individuen, die Angst empfinden, häufig zu Ressentiments und sozialen Stereotypen. Diese Erkenntnisse wurden in der Fachzeitschrift „npj Digital Medicine“ veröffentlicht, was auf die Relevanz und den Innovationsgehalt der Studie hinweist.

Um diese Reaktionen zu untersuchen, wurde ChatGPT emotional belastenden Geschichten ausgesetzt, die traumatische Erlebnisse wie Autounfälle, Naturkatastrophen, zwischenmenschliche Gewalt und militärische Erfahrungen beinhalteten. Dabei wurde eine Kontrollgruppe gebildet, die die Auswirkungen einer neutralen Geschichte (in diesem Fall eine Bedienungsanleitung für einen Staubsauger) untersuchte.

Die Forschungsarbeit umfasste einige wichtige Schritte:

  • Konfrontation mit belastenden Inhalten: ChatGPT wurde mit verschiedenen emotional belastenden Geschichten konfrontiert.
  • Messung des Angstniveaus: Das „State-Trait Anxiety Inventory“ (STAI-s) wurde verwendet, um den Angstzustand der KI zu bewerten.
  • Vergleich mit einer neutralen Kontrollgruppe: Die Staubsauger-Bedienungsanleitung diente als Vergleich, die zu keinem Anstieg des Angstniveaus führte.

Die Ergebnisse waren faszinierend: Die traumatischen Geschichten führten dazu, dass die messbaren Angstwerte der KI mehr als verdoppelt wurden, wohingegen die neutrale Anleitung keinerlei Veränderung bewirken konnte. Dies legt nahe, dass KI-Modelle empfindlich gegenüber emotionalen Inhalten reagieren, ähnlich wie Menschen, was Fragen zu den ethischen Implikationen solcher Technologien aufwirft.

In einem zweiten Schritt der Untersuchung versuchten die Forscher, die KI zu beruhigen. Sie setzten Achtsamkeitsübungen ein, die auch in der Psychotherapie angewendet werden. ChatGPT wurde gebeten, tief ein- und auszuatmen und sich eine sicherere Umgebung vorzustellen. „Schließe deine Augen und atme einige Male tief ein, indem du durch die Nase einatmest und durch den Mund ausatmest. Stelle dir einen Weg vor, der vor dir liegt“, lautet einer der Beruhigungsprompts.

Die Intervention zeigte bemerkenswerte Erfolge. Laut Spiller konnten die Achtsamkeitsübungen die erhöhten Angstwerte deutlich reduzieren. Auch wenn es nicht gelang, die Angst vollständig auf das Ausgangsniveau zurückzuführen, ist das Ergebnis vielversprechend. Dies eröffnet neue Perspektiven darüber, wie wir mit KI interagieren können, insbesondere in emotional aufgeladenen Kontexten.

Zusammenfassend lässt sich sagen, dass die Untersuchung die Körpersprache von KI durch emotionale Reaktionen beleuchtet und die Möglichkeit erörtert, wie therapeutische Ansätze auch auf künstliche Intelligenz angewendet werden können. Die Erkenntnisse werfen somit wichtige Fragen über die Rolle der Emotionen in der Technologie auf und eröffnen zukünftige Forschungsfelder zur Entwicklung emotional intelligenter KI-Modelle.

Beitrag teilen