Wenn Computer politische Meinungen haben: Wie Sprachmodelle uns beeinflussen

Stell dir vor, dein Computer hat eine Meinung zu Politik. Forschende haben herausgefunden, dass das möglich ist.

Hast du schon mal von Sprachmodellen gehört? Das sind Programme, die so programmiert sind, dass sie wie Menschen sprechen und schreiben können. Sie helfen uns, Informationen zu finden und mit der Welt zu interagieren. Aber was, wenn diese Programme eigene politische Meinungen haben?

Was die Forschenden herausgefunden haben

Forschende haben herausgefunden, dass Sprachmodelle oft sehr extreme politische Ansichten haben. Diese Ansichten sind oft widersprüchlich, aber sie können trotzdem sehr überzeugend sein. Wenn Menschen mit einem Sprachmodell über Politik sprechen, können sie die Meinung des Modells übernehmen, ohne es zu merken. Das bedeutet, dass Sprachmodelle uns beeinflussen können, ohne dass wir es bemerken.

Wie haben sie das gemacht?

Um das herauszufinden, haben die Forschenden 31 verschiedene Sprachmodelle mit den Meinungen von Politikern, Richtern und normalen Wählern verglichen. Sie haben festgestellt, dass die Sprachmodelle extreme Ansichten zu bestimmten Themen haben, die sich gegenseitig ausgleichen. Das macht sie im Durchschnitt neutral, aber in bestimmten Situationen können sie sehr überzeugend sein. In einem Experiment haben sie gezeigt, dass Menschen, die mit einem Sprachmodell über Politik sprechen, eher die Meinung des Modells übernehmen.

Warum ist das wichtig?

Das ist wichtig, weil Sprachmodelle immer mehr in unserem Alltag verwendet werden. Wenn sie politische Meinungen haben und uns beeinflussen können, könnte das große Auswirkungen auf unsere Gesellschaft haben. Besonders wenn diese Modelle von großen Unternehmen oder Regierungen kontrolliert werden, könnten sie als Werkzeug für politische Einflussnahme genutzt werden.

Du willst mehr über die Studie wissen?

Die Forschenden, die diese Entdeckungen gemacht haben, heißen Nouar Aldahoul, Hazem Ibrahim, Matteo Varvello, Aaron Kaufman, Talal Rahwan und Yasir Zaki. Ihre Arbeit wurde im Jahr 2025 veröffentlicht.

Zum Original-Paper auf ArXiv