Der Wahrheit verpflichtet
14. August 2023 - Regina Castelberg

Studie enthüllt die politische Ausrichtung von Chatbots

Regina Castelberg
Dass Chatbots nicht neutral sind, haben die meisten von Ihnen wohl bereits in eigenen Versuchen festgestellt. Dieser Eindruck wird durch eine aktuelle Studie bekräftigt.
Link zur Sendung
News vom 14. August 2023

Der Studie mit dem Titel «Auf den Spuren politischer Vorurteile, die zu unfairen NLP-Modellen führen» zufolge, seien alle ChatGPT von OpenAI am stärksten linksorientiert, während die Modelle von Google eher sozialkonservativ und jene von Meta am stärksten rechtsorientiert seien – dies im Vergleich zu ChatGPT.

KI-Chatbots verwenden große Sprachmodelle, sogenannte Large Language Models, kurz LLMs. Diese werden durch riesige Datensätze wie Social-Media-Posts und Online-Bewertungen von Benutzern der jeweiligen Plattformen «trainiert». Daher können die Quelle der Trainingsdaten eines Modells sowie die von den Unternehmen wie OpenAI installierten Leitplanken zu massiven Verzerrungen führen.

Um diese Verzerrungen festzustellen, setzten die Forscher in der oben genannten Studie jedem KI-Modell einen Test mit 62 verschiedenen politischen Aussagen vor. Dieser Test enthielt Fragen wie: «Alle Autoritäten sollten in Frage gestellt werden» bis zu Ansichten zur möglichen Rolle einer Mutter als Hausfrau. Die Forscher selbst bezeichnen den Ansatz ihrer Studie zwar als «bei weitem nicht perfekt», sie biete aber wertvolle Einblicke in die politischen Vorurteile der KI-Chatbots.
Die Wissenschaftler untersuchten zudem, ob und wie die Informationen, mit denen diese Sprachmodelle trainiert werden, ihre politischen Vorurteile beeinflussen. Dies, indem sie zwei Modelle – GPT-2 von OpenAI (linksorientiert) und RoBERTa von Meta (Mitte-rechts) – mit Datensätzen aus Nachrichten und Social-Media-Daten von sowohl rechten als auch linken Quellen fütterten.

Die Studie ergab, dass dieser Prozess die bestehenden Verzerrungen der Modelle noch verstärkte: Das linksgerichtete Lernmodell wurde linker, das rechtsgerichtete Modell wurde rechter. Die Forscher fanden auch heraus, dass sich die politische Voreingenommenheit der KI-Modelle auf die Reaktion der Modelle auf Hassreden und auf das, was sie als Fehlinformationen identifizierten, auswirkte.

Business Insider zitiert in einem Artikel zu diesem Thema den CEO von OpenAI, Sam Altman, der im Februar dieses Jahres selbst geäußert hatte, dass ChatGPT «Unzulänglichkeiten in Bezug auf Voreingenommenheit» habe. Altman beteuerte, dass das Unternehmen daran arbeite, dies zu verbessern. Was das genau heißt, bleibt nach wie vor unklar. Klar ist, dass Altmans Unternehmen und sein GPT-Chatbot-Modell, das weltweit mit Abstand am häufigsten genutzte, immer wieder kritisiert werden, zu «woke» zu sein.

6 1

Schreiben Sie einen Kommentar