Wie KI lernt, mit uns zu streiten

Stell dir vor, KI-Systeme könnten besser mit unseren Unterschieden umgehen. Forschende haben eine neue Methode entwickelt, um das zu erreichen.

Hast du schon mal von Künstlicher Intelligenz (KI) gehört? Das sind Computerprogramme, die lernen und Entscheidungen treffen können. Stell dir vor, diese KI-Systeme würden in der Schule oder im Internet arbeiten. Sie könnten zum Beispiel entscheiden, welche Nachrichten erlaubt sind oder welche Hausaufgaben du bekommst. Es ist wichtig, dass diese Systeme fair und ethisch handeln. Aber wie stellen wir sicher, dass sie das tun?

Was die Forschenden herausgefunden haben

Die Forschenden haben herausgefunden, dass es nicht gut ist, wenn alle KI-Systeme nach denselben Regeln arbeiten. Menschen haben unterschiedliche Meinungen und Werte, und das sollte auch die KI berücksichtigen. Sie haben ein neues Konzept entwickelt, das sie „Anpassungsrahmen“ nennen. Dieser Rahmen hilft KI-Systemen, besser mit unseren Unterschieden umzugehen. Er besteht aus vier Prinzipien: Kontextbezogenheit, Gemeinschaftsanpassung, ständige Anpassung und polyzentrische Governance. Das bedeutet, dass die KI lernen soll, sich an verschiedene Situationen und Gemeinschaften anzupassen und immer wieder zu überprüfen, ob sie fair bleibt.

Wie haben sie das gemacht?

Die Forschenden haben sich verschiedene wissenschaftliche Bereiche angesehen, wie Konflikttheorie, kulturelle Evolution und Wirtschaftswissenschaften. Sie haben festgestellt, dass es normal ist, dass Menschen unterschiedliche Meinungen haben. Anstatt zu versuchen, alle Meinungen zu einem einzigen System zu vereinheitlichen, haben sie einen Rahmen entwickelt, der diese Unterschiede berücksichtigt. Sie haben vier Prinzipien festgelegt, die KI-Systeme lehren, wie sie in verschiedenen Situationen und Gemeinschaften fair und ethisch handeln können.

Warum ist das wichtig?

Es ist wichtig, dass KI-Systeme lernen, mit unseren Unterschieden umzugehen, weil wir sonst das Vertrauen in diese Systeme verlieren könnten. Wenn KI-Systeme fair und ethisch handeln, können sie uns im Alltag helfen, ohne dass wir uns Sorgen machen müssen. Zum Beispiel könnten sie in der Schule helfen, faire Hausaufgaben zu verteilen oder im Internet dafür sorgen, dass nur gute Nachrichten verbreitet werden. So können wir sicherstellen, dass die KI uns wirklich hilft und nicht schadet.

Du willst mehr über die Studie wissen?

Die Forschenden, die an diesem Projekt gearbeitet haben, sind Joel Z. Leibo, Alexander Sasha Vezhnevets, William A. Cunningham, Sébastien Krier, Manfred Diaz und Simon Osindero. Ihre Arbeit wurde im Jahr 2025 veröffentlicht. Quelle: arXiv:2505.01234

Zum Original-Paper auf ArXiv