KI sagen nicht immer die Wahrheit. Trotzdem findet sich in ihrem Ton keinerlei Unsicherheit. Forscher haben nun herausgefunden, was passiert, wenn die KI sich nicht mehr so sicher ist. KI-Chatbots sind dafür bekannt, manchmal falsche Tatsachen auszugeben, was als "Halluzinieren" bezeichnet wird. Sie tun das in einem sicheren Ton, da sie selbst nicht wissen, ob ihre Aussagen korrekt sind oder nicht.AnzeigeAnzeige Ein Forscherteam um Jenn Wortmann ...Den vollständigen Artikel lesen ...
© 2024 t3n
