Chatbots wie ChatGPT lassen sich offenbar recht einfach knacken, um sie von ihren selbstauferlegten Verhaltensregeln zu jailbreaken. Auch Bild- und Sprach-Modelle ließen sich problemlos hacken. Um Missbrauch zu verhindern, haben Firmen wie OpenAI oder Anthropic ihren Chatbots ein Set von Verhaltensregeln mitgegeben. Doch wie etliche, teils schlichte handgemachte Experimente seit dem Durchbruch von ChatGPT gezeigt haben, lassen die sich leicht umgehen, ...Den vollständigen Artikel lesen ...
© 2025 t3n