Mehrheit der Bundesbürger für Algorithmen-Checks

+++ 83 Prozent befürworten unabhängige Prüfungen von Systemen mit künstlicher Intelligenz +++ Vor allem sicherheitskritische Anlagen und Fahrzeuge sollten getestet werden +++ Rechtliche Vorgaben notwendig +++ Politischer Abend mit Justizministerin Dr. Katarina Barley
KI-Robot-Digital-AI-Teaser
Photo by Franck V on Unsplash.com

Eine große Mehrheit der Bundesbürger spricht sich dafür aus, dass Anwendungen mit künstlicher Intelligenz (KI) von einer unabhängigen Stelle überprüft werden. Das hat eine Forsa-Umfrage im Auftrag des TÜV-Verbands ergeben. Demnach halten 83 Prozent der Befragten solche „Algorithmen-Checks“ für wichtig oder sogar sehr wichtig. 11 Prozent halten sie für nicht wichtig und 6 Prozent machen keine Angabe. „Fahrzeuge, Geräte, Maschinen oder Online-Anwendungen mit künstlicher Intelligenz werden Teil unseres täglichen Lebens“, sagte Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands (VdTÜV). „Wir müssen sicherstellen, dass automatisierte Entscheidungen nachvollziehbar bleiben, Menschen nicht in Gefahr bringen und niemanden benachteiligen. Dafür sind neutrale Algorithmen-Checks ein wichtiges Instrument.“ Parallel zur rasanten Verbreitung von künstlicher Intelligenz müssten jetzt neue Testverfahren für die Wirkung komplexer Algorithmen entwickelt und eingeführt werden. Dafür seien auch geeignete rechtliche Grundlagen notwendig.

Systeme mit künstlicher Intelligenz können ihre Umgebung wahrnehmen, lernen und auf dieser Basis eigenständig Aktionen durchführen. In der Praxis unterstützen sie Menschen dabei, Entscheidungen zu treffen oder ihnen Aufgaben abzunehmen. Praktische Anwendungen sind zum Beispiel komplexe medizinische Diagnosen, digitale Sprachassistenten oder Roboter, die situativ auf ihre Umgebung reagieren. „Die Möglichkeiten und Chancen künstlicher Intelligenz sind unbestritten“, sagte Bühler. „Gleichzeitig stehen wir noch am Anfang, wenn es darum geht, die Nutzung künstlicher Intelligenz so sicher, diskriminierungsfrei und transparent wie möglich zu machen.“ So könnten fehlerhafte KI-Systeme zum Beispiel bestimmte Personengruppen bei der Kreditvergabe benachteiligen, die öffentliche Meinung mit Falschnachrichten beeinflussen oder beim automatisierten Fahren Unfälle verursachen. Zudem besteht wie bei allen vernetzten Systemen die Gefahr von Cyberangriffen.

Algorithmen-Checks sind ein Mittel, um die Sicherheit von künstlicher Intelligenz zu verbessern. Im Rahmen von Algorithmen-Checks können unabhängige Prüfer beispielsweise kontrollieren, ob ein KI-System wie vorgesehen funktioniert, ob Fehler im Software-Code enthalten sind oder ob es den gesetzlichen Anforderungen entspricht. Wichtig ist zudem, ob KI-Systeme mit einer ausreichenden und ausgewogenen Datenbasis trainiert worden sind. „Beim maschinellen Lernen als Teilgebiet der künstlichen Intelligenz können fehlerhafte oder unausgewogene Trainingsdaten zu verzerrten Ergebnissen führen, die zum Beispiel bestimmte Personengruppen benachteiligen“, sagte Bühler. „Algorithmen-Checks von unabhängigen Stellen sind insbesondere bei sicherheitskritischen Produkten wie Fahrzeugen, Maschinen, Geräten oder auch bei bestimmten Online-Anwendungen dringend erforderlich.“

Nach den Ergebnissen der Umfrage halten 88 Prozent der Bundesbürger „vorgeschriebene Prüfverfahren“ bei sicherheitskritischen Anlagen wie Kraftwerke oder Aufzüge für „unbedingt erforderlich“, wenn sie mit Hilfe von künstlicher Intelligenz gesteuert werden. 86 Prozent halten solche Prüfverfahren auch bei hoch automatisierten Funktionen in Fahrzeugen für dringend geboten. 72 Prozent sehen eine Notwendigkeit bei intelligent gesteuerten Maschinen, zum Beispiel in der industriellen Produktion. 55 Prozent halten verpflichtende Prüfungen auch für intelligente Hausgeräte im Smart Home für notwendig. 44 Prozent befürworten vorgeschriebene Prüfverfahren auch bei der automatisierten Einordnung von Personen in Versicherungstarife und 32 Prozent bei Preisvergleichsportalen. Bühler: „Die Bundesregierung hat in ihrer jüngst beschlossenen KI-Strategie die Potenziale von künstlicher Intelligenz klar benannt. Jetzt kommt es darauf an, Vertrauen für die Zukunftstechnologie in der Bevölkerung zu schaffen. Sicherheit muss zentraler Bestandteil der KI-Strategie sein.“

Beim Politischen Abend des TÜV-Verbands diskutieren heute VdTÜV-Präsident Dr.-Ing. Michael Fübi, Bundesjustizministerin Dr. Katarina Barley und Prof. Christiane Wendehorst, Co-Sprecherin der Datenethikkommission der Bundesregierung, über das Thema „Algorithmen-Checks für Künstliche Intelligenz? Ethik, Sicherheit und Verbraucherschutz in der digitalen Welt“. Moderator ist der Tech-Journalist und Autor Thomas Ramge. Weitere Infos zum Event finden Sie hier. https://www.vdtuev.de/termine/politischer-abend-2018-algorithmen-checks

Hinweis zur Methodik: Grundlage der Angaben ist eine repräsentative Umfrage des Marktforschungsinstituts Forsa im Auftrag des TÜV-Verbands unter 1.004 Internetnutzern ab 18 Jahre. Aktuell sind 89 Prozent der Bundesbürger ab 18 Jahre Internetnutzer (private Nutzung in den letzten 3 Monaten).

@metadocs/VdTÜV

Zusatzinformationen

Ansprechpartner

Leiter Kommunikation & Pressesprecher
T +49 30 760095-320