SAN FRANCISCO (dpa-AFX) - Der Chatbot ChatGPT ist von einem Netzwerk aus iranischen Accounts genutzt worden, um Texte zur Einflussnahme rund um die US-Präsidentenwahl zu erzeugen. Die Profile seien entdeckt und entfernt worden, teilte die ChatGPT-Entwicklerfirma OpenAI mit, ohne deren Anzahl zu nennen.
Die Texte sollten demnach beide politische Lager in den USA ansprechen. In ihnen hieß es zum Beispiel wahlweise, dass der republikanische Präsidentschaftskandidat Donald Trump zensiert werde - oder sich zum König erklären lassen wolle. Außerdem ging es der Mitteilung zufolge auch um den Gaza-Krieg, die Olympischen Spiele in Paris sowie Mode-Themen. Die für Beiträge in Online-Plattformen und für fingierte Artikel auf Webseiten generierten Texte hätten kaum Leser erreicht, betonte OpenAI.
ChatGPT kann in Sekundenschnelle Texte auf dem sprachlichen Niveau eines Menschen erzeugen. Schon seit einiger Zeit gibt es die Sorge, diese Fähigkeit könnte missbraucht werden, um in großem Stil Falschinformationen oder Propaganda günstig zu produzieren und zu verbreiten.
Zuletzt flogen mehrere ähnliche Aktionen auf. So stellte Microsoft im Juni fest, dass prorussische Accounts ein Fake-Video populär machen wollten, das angebliche Gewalt bei Olympia zeigte. Und bei Facebook wurden mehrere hundert Accounts aus dem Iran, Russland und China entdeckt, die zum Teil mit KI-Software erzeugte Falschinformationen verbreiteten. OpenAI hatte bereits im Mai mitgeteilt, dass Accounts unter anderem aus Russland und China die KI-Werkzeuge des Konzerns für Propaganda missbrauchen wollten./so/DP/mis