Verschiedene Sicherheitsmechanismen sollen verhindern, dass euch ChatGPT die Bauanleitung für eine Bombe gibt. Jetzt haben Sicherheitsforscher:innen herausgefunden, dass sich die umgehen lassen - mit Ascii-Kunst. Die KI-Branche hat eine Reihe von Methoden entwickelt, mit denen sichergestellt werden soll, dass große Sprachmodelle nicht einfach Anleitungen zum Bombenbau liefern oder andere potenzielle gefährliche Informationen preisgeben. Immer wieder ...Den vollständigen Artikel lesen ...
© 2024 t3n