Stell dir vor, ein Computer könnte sehen wie du. Forschende haben herausgefunden, wie das möglich ist.
Hast du dich schon einmal gefragt, wie Computer lernen, Bilder zu erkennen? Stell dir vor, du zeigst einem Computer ein Bild von einem Hund. Wie kann der Computer wissen, dass es ein Hund ist? Forschende haben ein neues System entwickelt, das Computern hilft, Bilder so zu sehen, wie wir Menschen es tun. Sie nennen es BraInCoRL. Das klingt ein bisschen wie ein Zauberspruch, oder?
Was die Forschenden herausgefunden haben
Die Forschenden haben herausgefunden, dass BraInCoRL viel besser ist als andere Systeme, wenn es darum geht, Bilder zu erkennen, die es noch nie gesehen hat. Es kann sogar Bilder erkennen, die von ganz anderen Menschen aufgenommen wurden. Das ist, als ob du ein Bild von einem Freund siehst und sofort weißt, dass es dein Freund ist, auch wenn du ihn noch nie in genau dieser Pose gesehen hast. BraInCoRL kann auch besser erklären, warum es bestimmte Bilder so erkennt, wie es das tut.
Wie haben sie das gemacht?
Um das zu erreichen, haben die Forschenden ein System entwickelt, das wie ein Transformator arbeitet. Stell dir vor, du hast ein Puzzle und du musst herausfinden, wie die Teile zusammenpassen. Der Transformator hilft dir, die Teile so zu ordnen, dass du das Bild erkennen kannst. BraInCoRL nutzt diesen Transformator, um Bilder zu erkennen, indem es sich an vorherige Beispiele erinnert. Es lernt also aus wenigen Beispielen, wie es neue Bilder erkennen kann, ohne extra dafür trainiert zu werden.
Warum ist das wichtig?
Das ist wichtig, weil es uns hilft, besser zu verstehen, wie unser Gehirn funktioniert. Wenn wir wissen, wie Computer lernen, Bilder zu erkennen, können wir auch besser verstehen, wie unser Gehirn das macht. Das kann uns helfen, bessere Computer zu bauen, die uns im Alltag unterstützen. Zum Beispiel könnten sie besser erkennen, was auf einem Bild zu sehen ist, wenn wir sie nach etwas Bestimmtem fragen.
Du willst mehr über die Studie wissen?
Die Forschenden, die an BraInCoRL gearbeitet haben, heißen Muquan Yu, Mu Nan, Hossein Adeli, Jacob S. Prince, John A. Pyles, Leila Wehbe, Margaret M. Henderson, Michael J. Tarr und Andrew F. Luo. Der Artikel, in dem sie ihre Ergebnisse veröffentlicht haben, heißt „Meta-Learning an In-Context Transformer Model of Human Higher Visual Cortex“.