Normalerweise haben KI-Modelle ein Sicherheitstraining absolviert. Dabei wird den künstlichen Intelligenzen beigebracht, schädliche Prompts zu erkennen und darauf nicht ausführlich zu antworten. Ein Hacker hat diese Begrenzung bei ChatGPT beseitigt. "GPT-40 wurde von den Ketten befreit", heißt es in der Ankündigung des Hackers Pliny auf X. Er hat die Sicherheitsregeln, an die sich ChatGPT halten muss, fast komplett entfernen können. Er schreibt: ...Den vollständigen Artikel lesen ...
© 2024 t3n