KI-Modelle sind normalerweise darauf trainiert, bestimmte Antworten zu vermeiden. Diese Sicherheitsmaßnahmen können aber mit Jailbreaks umgangen werden. Eine besonders effektive Methode präsentiert nun Microsoft mit dem sogenannten Skeleton Key. Sicherheitsmaßnahmen von künstlichen Intelligenzen sind ein wichtiges Thema. Denn ohne entsprechende Anweisungen könnten die KI-Tools euch erklären, wie ihr eine Bombe baut oder wie sich Napalm herstellen ...Den vollständigen Artikel lesen ...
© 2024 t3n