Sprachmodelle halluzinieren. Weil das ein großes Problem ist, suchen Forscher nach neuen Wegen, ihnen auf die Schliche zu kommen. Ein neuer Ansatz versucht es nun mit "semantischer Entropie". Halluzinationen sind und bleiben ein großes Problem großer Sprachmodelle. Wer ein Modell wie ChatGPT oder Gemini nutzt, kann nie hundertprozentig sicher sein, ob die Antworten tatsächlich der Wahrheit entsprechen oder ob das Sprachmodell nicht Fakten erfunden ...Den vollständigen Artikel lesen ...
© 2024 t3n