Forscher:innen haben herausgefunden, dass KI-Systeme oft die richtige Antwort "wissen", auch wenn sie falsch antworten. Die Erkenntnisse könnten neue Ansätze für den Kampf gegen Halluzinationen bringen, werfen aber auch neue Fragen auf. Große Sprachmodelle (LLM), auf denen etwa Chatbots wie ChatGPT basieren, sind berüchtigt für ihre Halluzinationen. Darunter werden im KI-Bereich überzeugend formulierte, aber falsche Antworten auf teils einfache Anfragen ...Den vollständigen Artikel lesen ...
© 2024 t3n