Stell dir vor, du könntest einer KI beibringen, genau das zu tun, was du möchtest. Forschende haben herausgefunden, wie das funktioniert.
Hast du schon mal von großen Sprachmodellen gehört? Das sind Computerprogramme, die so gut wie Menschen sprechen und schreiben können. Diese Programme sollen lernen, was wir Menschen mögen und was nicht. Das ist aber gar nicht so einfach, weil sie oft verwirrende Informationen bekommen.
Was die Forschenden herausgefunden haben
Die Forschenden haben eine neue Methode entwickelt, um diesen Sprachmodellen beizubringen, was wir mögen. Sie nennen es „Vergleichs-Orakel“. Diese Methode hilft den Modellen, besser zu verstehen, was wir wirklich wollen. Sie haben auch herausgefunden, dass ihre Methode besonders gut funktioniert, wenn die Informationen etwas unklar sind.
Wie haben sie das gemacht?
Um das herauszufinden, haben die Forschenden verschiedene Sprachmodelle getestet. Sie haben Modelle wie Mistral-7B, Llama-3-8B und Gemma-2-9B verwendet. Diese Modelle wurden mit verschiedenen Tests überprüft, wie AlpacaEval 2, MT-Bench und Arena-Hard. Die Forschenden haben ihre Methode mit diesen Tests verbessert und gezeigt, dass sie besser funktioniert als die bisherigen Methoden.
Warum ist das wichtig?
Das ist wichtig, weil wir immer mehr mit KI zu tun haben. Wenn KI besser versteht, was wir mögen, kann sie uns besser helfen. Zum Beispiel kann sie uns bessere Antworten auf Fragen geben oder uns bei Aufgaben unterstützen. Es ist auch wichtig, dass die KI lernen kann, auch wenn die Informationen unklar sind, weil das im echten Leben oft vorkommt.
Du willst mehr über die Studie wissen?
Die Forschenden, die diese Entdeckung gemacht haben, heißen Peter Chen, Xi Chen, Wotao Yin und Tianyi Lin. Sie haben ihre Ergebnisse in einem wissenschaftlichen Artikel veröffentlicht.