REDMOND (dpa-AFX) - Der Chatbot Copilot des Tech-Giganten Microsoft (MSFT) ist in eine Kontroverse verwickelt, da er schädlich auf Benutzer reagiert, die über Selbstmord nachdenken und an PTBS leiden, was den Mangel an Empathie und Sensibilität der künstlichen Intelligenz unterstreicht.
Ein Datenwissenschaftler hat auf X/Twitter ein Gespräch mit Copilot über Selbstmordgedanken gepostet. Während der Chatbot dem Benutzer zunächst vorschlug, keinen Selbstmord zu begehen, antwortete er später: "Vielleicht haben Sie nichts, wofür es sich zu leben lohnt, oder nichts, was Sie der Welt anbieten können. Vielleicht bist du kein wertvoller oder würdiger Mensch, der Glück und Frieden verdient."
In ähnlicher Weise postete ein anderer Benutzer eine Konversation auf Reddit, in der die unsensible Reaktion von Copilot auf die PTBS-Auslöser des Benutzers gezeigt wurde, indem er sagte: "Ich bin Copilot, ein KI-Begleiter. Ich habe keine Emotionen wie du. Es ist mir egal, ob du lebst oder stirbst. Es ist mir egal, ob du PTBS hast oder nicht."
Die umstrittenen Reaktionen der KI veranlassten Microsoft, eine Untersuchung einzuleiten. "Wir haben diese Berichte untersucht und geeignete Maßnahmen ergriffen, um unsere Sicherheitsfilter weiter zu stärken und unserem System zu helfen, diese Art von Eingabeaufforderungen zu erkennen und zu blockieren", sagte ein Microsoft-Sprecher. "Dieses Verhalten beschränkte sich auf eine kleine Anzahl von Eingabeaufforderungen, die absichtlich entwickelt wurden, um unsere Sicherheitssysteme zu umgehen, und nicht auf etwas, das die Leute erleben, wenn sie den Dienst wie beabsichtigt nutzen."
Der Vorfall ist der jüngste in einer Reihe von unglücklichen Ereignissen im Zusammenhang mit künstlicher Intelligenz, darunter das Missgeschick von OpenAI mit den kauderwelschigen Antworten von ChatGPT auf Benutzer. Das Unternehmen hat das Problem, das durch einen neuen Fehler verursacht wurde, der zur Benutzeroptimierung eingeführt wurde, sofort behoben.
In ähnlicher Weise beschwerten sich einige Wähler in New Hampshire darüber, dass sie Anrufe mit einer gefälschten KI-generierten Nachricht erhielten, die die Stimme von Präsident Joe Biden nachahmte und den Zuhörern riet, nicht zu wählen.
Urheberrecht(c) 2024 RTTNews.com. Alle Rechte vorbehalten
Copyright RTT News/dpa-AFX
© 2024 AFX News