Gefährliche Fehlinformationen: Schon kleinste Datenfehler können KI-Sprachmodelle wie ChatGPT oder Claude manipulieren - mit Risiken, besonders im medizinischen Bereich, wie eine Studie der New York University zeigt. Fehlinformationen und "Fake News" stellen nicht nur für soziale Netzwerke ein wachsendes Problem dar, sondern gefährden auch die Zuverlässigkeit von KI-Systemen wie Large Language Models (LLM). Das kann richtig gefährlich werden, wie ...Den vollständigen Artikel lesen ...
© 2025 t3n