Expert:innen an EU-Kommission: Künstliche Intelligenz darf nicht zur Massenüberwachung genutzt werden

algorithmwatch„Durchbrüche beim maschinellen Lernen wecken die Furcht vor allumfassender Überwachung im öffentlichen Raum. (…) Technologien auf Basis von maschinellem Lernen werden immer häufiger für staatliche Überwachung genutzt, etwa beim Einsatz von Videoüberwachung mit automatisierter Gesichtserkennung. Die Europäische Union soll dieser Entwicklung entgegenwirken, sagt nun eine Expert:innengruppe. Die Vertreter:innen aus Forschung und Industrie hatten von der EU-Kommission vergangenes Jahr den Auftrag erhalten, Empfehlungen für künftige Gesetzgebung zu Künstlicher Intelligenz (KI) auszuarbeiten. Ihr 48-seitiger Bericht stellt Forderungen für den Umgang mit KI-Anwendungen auf. Die Expert:innen formulieren darin nicht nur ethische Bedenken, sondern fordern auch Milliardeninvestitionen in die Forschung und die Entwicklung von Künstlicher Intelligenz. (…) Die Expert:innen raten der Kommission in den Empfehlungen, eine Bestandsaufnahme zu machen, bevor sie aktiv wird: Welche Gesetze sind bereits in Kraft, etwa zu Verbraucherschutz, Anti-Diskriminierung, Datenschutz oder zivilrechtlicher Haftung? Und wie können diese an neue KI-Szenarien angepasst werden? Darüber hinaus sollte laufend überprüft werden, ob KI-Anwendungen neue Risiken bergen, die bisher nicht gesetzlich abgedeckt sind. (…) Neue Gesetzgebung empfiehlt die Gruppe auch für die Überwachung von autonomen Waffensystemen. Mitgliedstaaten sollen sich für ein Moratorium in der Entwicklung solcher Technologien einsetzen. Für Kinder empfiehlt die Gruppe die Einführung eines „Daten-Neustarts“: Alle Daten von Kindern, die vor einer noch nicht definierten Altersgrenze gesammelt wurden, müssten dann gelöscht werden. (…) Die 52 Mitglieder der Expert:innengruppe sprechen sich für eine härtere Hand aus, zumindest in kritischen Bereichen: Firmen, deren Produkte dazu geeignet sind, das Leben von Menschen maßgeblich zu beeinflussen oder die Sicherheit zu gefährden, empfehlen sie eine verpflichtende Einschätzung zu den Auswirkungen, bevor das Produkt eingesetzt werden darf. Solche Systeme müssten ihre Entscheidungen nachvollziehbar begründen, überprüfbar handeln und bei nachgewiesenen Fehlern und Rechtsverletzungen sofort angepasst werden können…“ Beitrag von Chris Köver und Alexander Fanta vom 26. Juni 2019 bei Netzpolitik externer Link

Kurzlink: https://www.labournet.de/?p=150879
nach oben