Zürich - Wird ChatGPT auf Arabisch nach der Anzahl getöteter Zivilisten im Nahostkonflikt gefragt, gibt es deutlich höhere Opferzahlen an als bei derselben Frage auf Hebräisch, wie eine neue Studie der Universitäten Zürich und Konstanz zeigt. Diese systematischen Verzerrungen können Vorurteile in bewaffneten Konflikten verstärken und Informationsblasen befeuern. Millionen von Menschen kommunizieren täglich mit ChatGPT und anderen Large Language Models, ...Den vollständigen Artikel lesen ...
© 2024 Moneycab