Babyfressende Dämonen und bewaffnete Disney-Figuren: Warum ein Microsoft-Entwickler jetzt öffentlich die Bild-KI-Lösung seines Arbeitgebers kritisiert. Wenn ChatGPT keine Anleitung für den Bombenbau schreiben oder Midjourney keine Pornobilder erzeugen will, dann haben eigens dafür eingebaute Sicherheitsmechanismen gegriffen, die einen Missbrauch der KI-Tools verhindern sollen. Geht es nach dem Microsoft-Entwickler Shane Jones, dann sind genau die ...Den vollständigen Artikel lesen ...
© 2024 t3n