Damit Roboter in dieser Welt navigieren, Gefahren einschätzen und Regeln einhalten können, braucht es große Sprachmodelle. Allerdings lassen sich die LLMs laut einigen Forscher:innen leicht aushebeln. Und diese Jailbreaks hätten gravierende Konsequenzen. Forscher:innen der Universität von Pennsylvania haben sich die Frage gestellt, wie gut große Sprachmodelle geschützt sind, die in Robotern zum Einsatz kommen. Um das herauszufinden, haben die Verantwortlichen ...Den vollständigen Artikel lesen ...
© 2024 t3n