Forschende aus den USA haben erstmals systematisch untersucht, wie Cyberkriminelle große Sprachmodelle nutzen und wie gefährlich generative Technologie in diesem Bereich ist. Während einschlägige Schwarzmark-Services wie WormGPT recht brauchbaren Schadcode produzieren, kann ein Großteil ihrer Phishing-Versuche von menschlichen Nutzern noch immer als solche erkannt werden. Technische Einzelheiten veröffentlichten Forschende jetzt in einem Preprint ...Den vollständigen Artikel lesen ...
© 2024 t3n