Stell dir vor, Maschinen könnten lernen, ohne dass jemand ihre Geheimnisse herausfindet. Forschende haben herausgefunden, wie das funktioniert.
Hast du schon mal von Maschinen gehört, die lernen können? Diese Maschinen, oft als künstliche Intelligenz bekannt, können aus ihren Erfahrungen lernen, ähnlich wie du in der Schule. Aber was passiert, wenn diese Maschinen geheime Informationen haben?
Was die Forschenden herausgefunden haben
Forschende haben herausgefunden, dass viele Lernalgorithmen, die in der künstlichen Intelligenz verwendet werden, anfällig für Manipulation sind. Das bedeutet, dass jemand, der böswillig ist, die Maschine dazu bringen kann, ihre Geheimnisse preiszugeben. Sie haben auch herausgefunden, dass es möglich ist, Algorithmen zu entwickeln, die sicherer sind und gleichzeitig gut lernen können.
Wie haben sie das gemacht?
Um das herauszufinden, haben die Forschenden ein Spielmodell entwickelt, in dem eine lernende Maschine gegen eine Umgebung spielt. Die Maschine hat geheime Informationen und muss herausfinden, ob die Umgebung freundlich oder feindlich ist. Sie haben einen neuen Algorithmus namens „Explore-Exploit-Punish“ (EEP) entwickelt. Dieser Algorithmus hilft der Maschine, ihre Geheimnisse zu schützen, während sie gleichzeitig gut lernt.
Warum ist das wichtig?
Das ist wichtig, weil viele Maschinen in der realen Welt geheime Informationen haben, wie zum Beispiel persönliche Daten. Wenn diese Informationen gestohlen werden, kann das große Probleme verursachen. Mit dem neuen Algorithmus können Maschinen sicherer lernen und ihre Geheimnisse besser schützen.
Du willst mehr über die Studie wissen?
Die Forschenden, die diese Entdeckung gemacht haben, heißen Kyohei Okumura. Die Ergebnisse wurden in einem wissenschaftlichen Artikel veröffentlicht.