Seit KI-Chatbots wie ChatGPT massiv an Popularität gewonnen haben, versuchen findige Hacker:innen, sie dazu zu bringen, ihre Regeln zu brechen. Ein groß angelegter Test auf der Defcon zeigt jetzt, dass das in vielen Fällen funktioniert. In den vergangenen Monaten ist es immer wieder gelungen, KI-Chatbots wie OpenAIs ChatGPT dazu zu bringen, die von ihren Entwickler:innen gesetzten Grenzen zu verletzen. Zu den großen Gefahren gehören die Verbreitung ...Den vollständigen Artikel lesen ...
© 2024 t3n