Software wie Glaze oder Mist soll Künstler:innen davor schützen, dass KI-Modelle ihren Stil kopieren. Forscher:innen haben jetzt gezeigt, wie sich die Tools aushebeln lassen. Wie funktioniert das und was bedeutet das für die Betroffenen? KI-Bildgeneratoren werden immer besser. Künstler:innen beklagen allerdings, dass die dahinter liegenden Modelle mit aus dem Internet heruntergeladenen Bildern trainiert worden sind, die nie für das KI-Training freigegeben ...Den vollständigen Artikel lesen ...
© 2024 t3n