Forscher:innen haben in Experimenten versucht, die Ursache von KI-Halluzinationen genauer zu identifizieren. Dabei sind sie auf die Erkenntnis gestoßen, dass einige Modelle sogar ihre eigenen Fehler aufdecken könnten. Wenn eine KI eine falsche Antwort gibt oder Informationen von sich gibt, die sie sich selbst "ausgedacht" hat, spricht man von Halluzinationen. Diese sind auch bei großen Modellen wie GPT, Mistral oder Llama immer noch ein großes Problem. ...Den vollständigen Artikel lesen ...
© 2024 t3n