Berlin - Das Bundesjustizministerium fordert klare Grenzen für den Einsatz von Künstlicher Intelligenz (KI) auf europäischer Ebene. "Wir müssen festlegen, welche Aspekte von Künstlicher Intelligenz für uns als freiheitliche demokratische Gesellschaft inakzeptabel sind", sagte Justizstaatssekretär Christian Kastrop dem "Handelsblatt".
Es müsse "rote Linien" beim Einsatz von KI geben. Handlungsbedarf sieht Kastrop etwa beim Thema "dark pattern". Das ist KI zur Beeinflussung von Personen durch unterschwellige Techniken. Damit werden beispielsweise bestimmte Emotionen angesprochen, um zu einem Kauf im Internet zu verleiten oder einen bestimmten Link anzuklicken.
"Das umfasst auch eine Cookie-Einwilligung, die so designt ist, dass Webseiten-Besucher am ehesten die von den Anbietern gewünschte Auswahl mit dem größtmöglichen Zugriff auf die Nutzerdaten treffen", so der Staatssekretär. Problematisch sei auch Social Scoring, angefangen bei einer auf Algorithmen basierten Kreditwürdigkeitsprüfung und endend bei einem gläsernen Bürger. "Hier können Fehlentscheidungen erhebliche Folgen für Einzelne haben." Kritisch sieht Kastrop auch die biometrische Fernüberwachung, Gesichtserkennung zum Beispiel.
Hier würden Grundrechte unmittelbar tangiert. "Solche Anwendungen können ganz schnell diskriminieren und zu Ausgrenzung führen." Die EU-Kommission hatte im April Regeln für den Umgang mit KI vorgeschlagen, die sowohl mögliche Risiken von Anwendungen als auch die Grundrechte der EU-Bürger berücksichtigen. Die Klassifizierung in Risikobereiche hält Kastrop für sinnvoll.
"Hochrisiko-KI sollte auch unabhängig zertifiziert sein", sagte er. Es sei zwar nachzuvollziehen, dass die Wirtschaft Geschäftsgeheimnisse wie Algorithmen schützen möchte. "Wichtig ist dennoch, dass KI-Systeme vollständig nachvollziehbar und überprüfbar sind", sagte der Staatssekretär. "Deshalb braucht es unabhängige Prüfinstanzen. Das können der TÜV oder andere Zertifizierungsinstitutionen sein."
Es müsse "rote Linien" beim Einsatz von KI geben. Handlungsbedarf sieht Kastrop etwa beim Thema "dark pattern". Das ist KI zur Beeinflussung von Personen durch unterschwellige Techniken. Damit werden beispielsweise bestimmte Emotionen angesprochen, um zu einem Kauf im Internet zu verleiten oder einen bestimmten Link anzuklicken.
"Das umfasst auch eine Cookie-Einwilligung, die so designt ist, dass Webseiten-Besucher am ehesten die von den Anbietern gewünschte Auswahl mit dem größtmöglichen Zugriff auf die Nutzerdaten treffen", so der Staatssekretär. Problematisch sei auch Social Scoring, angefangen bei einer auf Algorithmen basierten Kreditwürdigkeitsprüfung und endend bei einem gläsernen Bürger. "Hier können Fehlentscheidungen erhebliche Folgen für Einzelne haben." Kritisch sieht Kastrop auch die biometrische Fernüberwachung, Gesichtserkennung zum Beispiel.
Hier würden Grundrechte unmittelbar tangiert. "Solche Anwendungen können ganz schnell diskriminieren und zu Ausgrenzung führen." Die EU-Kommission hatte im April Regeln für den Umgang mit KI vorgeschlagen, die sowohl mögliche Risiken von Anwendungen als auch die Grundrechte der EU-Bürger berücksichtigen. Die Klassifizierung in Risikobereiche hält Kastrop für sinnvoll.
"Hochrisiko-KI sollte auch unabhängig zertifiziert sein", sagte er. Es sei zwar nachzuvollziehen, dass die Wirtschaft Geschäftsgeheimnisse wie Algorithmen schützen möchte. "Wichtig ist dennoch, dass KI-Systeme vollständig nachvollziehbar und überprüfbar sind", sagte der Staatssekretär. "Deshalb braucht es unabhängige Prüfinstanzen. Das können der TÜV oder andere Zertifizierungsinstitutionen sein."
© 2021 dts Nachrichtenagentur