Politische Entwicklung bei KI-Modellen im Fokus
Eine neue Studie der Peking-Universität hat festgestellt, dass ChatGPT, der beliebte KI-Chatbot von OpenAI, eine zunehmende Verschiebung nach rechts im politischen Spektrum aufweist. Forscher dokumentierten signifikante Veränderungen in den Antworten von ChatGPT-Modellen wie GPT-3.5 und GPT-4 über einen längeren Zeitraum.
Die in der Fachzeitschrift Humanities and Social Science Communications veröffentlichte Untersuchung nutzte 62 Fragen des Political Compass Tests. Diese wurden mehr als 3.000 Mal pro Modell wiederholt, um die Entwicklung der Antworten zu analysieren. Obwohl ChatGPT weiterhin als “libertär-links” eingestuft wird, zeigt die Studie eine “deutliche Neigung nach rechts”. Diese Ergebnisse seien relevant, da große Sprachmodelle wie ChatGPT zunehmend gesellschaftliche Werte beeinflussen können, so die Autoren.
Gründe für den Rechtsruck und seine Folgen
Die Studie baut auf früheren Analysen des Massachusetts Institute of Technology (MIT) und des britischen Centre for Policy Studies aus dem Jahr 2024 auf. Während frühere Arbeiten eine Linksneigung in den Antworten von Sprachmodellen feststellten, untersuchten sie nicht, wie sich diese Antworten über die Zeit verändern können.
Die Forscher der Peking-Universität identifizierten drei Hauptgründe für die Rechtsverschiebung: Änderungen in den Trainingsdaten, die zunehmende Interaktion mit Nutzern oder Anpassungen durch Updates der Modelle. Da KI-Modelle wie ChatGPT kontinuierlich aus Nutzerfeedback lernen, könnten diese Veränderungen auch größere gesellschaftliche Trends widerspiegeln. Globale Ereignisse wie der Russland-Ukraine-Krieg könnten polarisierende Nutzeranfragen verstärken und somit die Antworten der Modelle beeinflussen.
Transparenz und Kontrolle gefordert
Die Forscher warnen, dass KI-Modelle wie ChatGPT, wenn sie unbeaufsichtigt bleiben, verzerrte Informationen liefern und gesellschaftliche Polarisierung fördern könnten. Es bestehe die Gefahr, dass sogenannte “Echokammern” entstehen, in denen bestehende Überzeugungen verstärkt werden.
Um diesen Risiken entgegenzuwirken, empfehlen die Studienautoren regelmäßige Audits und Transparenzberichte, um sicherzustellen, dass die Antworten der Modelle fair und ausgewogen bleiben.
„Strikte Überprüfung und klare Richtlinien sind essenziell, um den verantwortungsvollen Einsatz von KI-Technologien zu gewährleisten”, betonen die Forscher. Nur durch solche Maßnahmen könne verhindert werden, dass KI unbeabsichtigt gesellschaftliche Spannungen verschärft.