Obwohl Chatbot-Betreiber Filter einbauen, lassen sich Sprachmodelle einfach für Fake News nutzen. Doch ihr Missbrauch-Potenzial ist damit noch lange nicht ausgeschöpft. Als Forscher:innen aus den USA 2021 zeigten, wie leicht es ist, mit GPT-3 Fake News und Hasspostings zu erzeugen, handelten sie mit ausdrücklicher Erlaubnis von OpenAI. Das Unternehmen argumentierte damals, solch ein Missbrauch sei rein hypothetisch, weil es den Zugang zu seinem Sprachmodell ...Den vollständigen Artikel lesen ...
© 2024 t3n