Stell dir vor, du siehst ein Bild von dir, das gar nicht echt ist. Forschende haben herausgefunden, wie das passieren kann und was wir dagegen tun können.
Hast du schon mal von Text-zu-Bild-KI gehört? Das sind Programme, die aus Texten Bilder erstellen. Diese Programme werden immer besser und können sogar personalisiert werden, sodass jeder sie für seine eigenen Ideen nutzen kann.
Was die Forschenden herausgefunden haben
Die Forschenden Laura Wagner und Eva Cetinic haben herausgefunden, dass diese personalisierten KI-Bilder oft missbraucht werden. Sie fanden heraus, dass viele Bilder, die von diesen Programmen erstellt werden, nicht für alle Altersgruppen geeignet sind. Außerdem gibt es viele Bilder, die echte Menschen nachahmen, ohne deren Zustimmung.
Wie haben sie das gemacht?
Die Forschenden haben eine Plattform namens CivitAI untersucht, auf der viele dieser KI-Bilder geteilt und entwickelt werden. Sie haben über 40 Millionen Bilder und mehr als 230.000 Modelle analysiert. Dabei haben sie festgestellt, dass viele dieser Bilder und Modelle von Internet-Subkulturen beeinflusst werden, die oft problematische Inhalte verbreiten.
Warum ist das wichtig?
Es ist wichtig, dass wir uns mit diesen Problemen auseinandersetzen, weil sie reale Menschen schaden können. Wenn Bilder ohne Zustimmung erstellt und verbreitet werden, kann das zu großen Problemen führen. Die Forschenden schlagen vor, dass Plattformen bessere Regeln und Werkzeuge brauchen, um solche Missbräuche zu verhindern.
Du willst mehr über die Studie wissen?
Die Forschenden Laura Wagner und Eva Cetinic haben diese Studie durchgeführt. Ihre Arbeit zeigt, wie wichtig es ist, dass wir uns Gedanken darüber machen, wie wir Technologie nutzen und wie wir sie sicherer machen können.