Politik Digitalgipfel: Künstliche Intelligenz im Zentrum

Der humanoide Roboter Sophia sprach schon mit Bundeskanzlerin Angela Merkel über KI.
Der humanoide Roboter Sophia sprach schon mit Bundeskanzlerin Angela Merkel über KI.

Auf dem heute in Nürnberg beginnenden Digitalgipfel wird das Thema künstliche Intelligenz (KI) im Zentrum stehen. Die Bundesregierung will den Forschungsstandort stärken und Anwendungen von KI in der Wirtschaft vorantreiben. Doch auch über Risiken der Technologie muss nachgedacht werden, Regeln sind erforderlich.

„Hal 9000“ ist ein abschreckendes Beispiel. Ein IT-System, das ein eigenes Bewusstsein entwickelt hat und sich gegen den Menschen wendet. Der Bordcomputer eines Raumschiffs wird auf der Reise zum Jupiter zunehmend neurotisch und tötet am Ende fast die gesamte Besatzung. Klar, das ist Science-Fiction, es geht um den 50 Jahre alten Film „2001 – Odyssee im Weltraum“ von Stanley Kubrick. Solche Horrorszenarien haben immer auch unsere Vorstellung von künstlicher Intelligenz geprägt.

Alexa, Siri und Cortana

Mit heutigen Anwendungen hat das nicht viel zu tun. Bisher begegnen uns Programme, die dazulernen, sich optimieren, Entscheidungen treffen (siehe: „Zur Sache“). Übersetzungshelfer, Sprachassistenten wie Alexa, Siri und Cortana, einfache Serviceroboter. Sie zeigen menschenähnliche Verhaltensweisen und können teils erstaunliche Aufgaben lösen. Ob sie den Menschen einmal tatsächlich übertreffen können, ist umstritten. Ein Aufstand der Roboter, den es zu bändigen gälte, ist so schnell nicht zu befürchten. Doch der Einsatz künstlicher Intelligenz schreitet voran. Bereits heute stellen sich ethische Fragen nach dem gewünschten Verhalten sowie rechtliche Probleme, ganz abgesehen von den Auswirkungen auf die Arbeitswelt. Das autonom fahrende Auto wird in einer nicht mehr zu verhindernden Unfallsituation womöglich Herr über Leben und Tod. Auf welcher Grundlage? Und wer haftet für die Entscheidung der Maschine? Gesichtserkennung ermöglicht die Überwachung der Bevölkerung. Will man das? KI-gesteuerte Systeme können diskriminieren. Bei der Auswahl von Bewerbern für einen Job etwa. Wie beugt man dem vor? Durch Bots verbreitete Falschmeldungen in sozialen Medien können die öffentlichen Meinung manipulieren. Was will man dagegen tun? In der medizinischen Diagnostik kann die KI beim Erkennen von Krankheiten viel leisten. Wie regelt man die Nutzung sensibler persönlicher Daten?

Chance oder Gefahr?

Der Branchenverband Bitkom hat zum Digitalgipfel eine Umfrage publiziert: Danach halten 62 Prozent der Bundesbürger KI vor allem für eine Chance, immerhin 35 Prozent für eine Gefahr. Verbandspräsident Achim Berg spricht von der „wichtigsten Schlüsseltechnologie der kommenden Jahrzehnte“ für die Wirtschaft. Und sagt: Von entscheidender Bedeutung sei es nun, die notwendigen Debatten über ethische Grenzen und entsprechende Regeln zu führen. Der Bundesregierung geht es zunächst darum, wirtschaftlich den Anschluss an die USA und China nicht zu verlieren und durch gezielte Förderung die KI-Forschung und ihre Anwendungen voranzubringen. Die Technologie wird als „Treiber der Digitalisierung“ in allen Lebensbereichen gesehen. Aber die bei der Kabinettsklausur in Potsdam gebilligte Strategie hebt auch eine „verantwortungsvolle und gemeinwohlorientierte Nutzung“ hervor. In Reaktion auf den ersten Entwurf empfahl Anfang Oktober die gerade eingesetzte Datenethik-Kommission zwei Punkte, die ebenfalls aufgenommen wurden: Ethische und rechtliche Grundsätze, die sich an unserer freiheitlich demokratischen Grundordnung orientieren, müssten im gesamten Prozess der KI-Entwicklung beachtet werden. Digital- und Medienkompetenz müssten gefördert werden. Die Experten nennen vier Kernbegriffe, an der sich das gesamte „Ökosystem der KI“ orientieren soll: Transparenz, Nachvollziehbarkeit, Diskriminierungsfreiheit, Überprüfbarkeit.

Fokus auf den sozialen Nutzen

Solche Überlegungen sind keine deutsche Besonderheit, die Diskussion über Maschinenethik begleitet dieses Feld der Informatik schon lange. So forderten Hunderte Wissenschaftler vor drei Jahren in einem offenen Brief: „Die Fortschritte bei künstlichen Intelligenzen machen es dringend notwendig, die Forschung nicht nur auf die Leistungsfähigkeit der KI zu konzentrieren, sondern auch ihren sozialen Nutzen zu maximieren.“ Zu den Unterzeichnern zählten der Unternehmer Elon Musk und der Physiker Stephen Hawking. 2017 erarbeiteten Forscher Leitsätze für Entwickler und Nutzer von KI – im kalifornischen Asilomar, wo gut 40 Jahre zuvor Molekularbiologen über Sicherheitsvorkehrungen bei der Erforschung des menschlichen Genoms diskutiert hatten. KI-Forschung soll demnach nützliche und wohltätige Intelligenz erschaffen, KI-Systeme sollten während ihrer gesamten Funktionszeit sicher sein und menschliche Werte achten.

Dichten, belohnen, strafen

In Deutschland arbeitet sich neuerdings eine Enquête-Kommission des Bundestages an diesen Fragen ab. Bei ihrer Konstituierung sagte Bundestagspräsident Wolfgang Schäuble: „Künstliche Intelligenz gilt vielen als neue Zauberformel des technischen Fortschritts.“ Sie werde dichten, belohnen, strafen. Es gebe aber auch Warnungen, so Schäuble mit Blick auf Überwachung durch KI-Systeme, wegfallende Arbeitsplätze und neue Formen der Kriegsführung. Es stelle sich die Frage, wie diese Entwicklung gestaltet und wie sichergestellt werden könne, dass KI dem Menschen diene. Bis Sommer 2020 sollen die Parlamentarier Antworten finden. Während manche Informatiker zweifeln, ob man Ethik überhaupt einprogrammieren kann, hat sich die Forscherin Katharina Zweig von der Technischen Universität Kaiserslautern mit konkreten Ansätzen beschäftigt und diese in einem Fachgespräch der Enquête-Kommission präsentiert. Die meisten industriellen Anwendungen seien unproblematisch, sagt die Professorin. Kümmern müsse man sich hauptsächlich um algorithmische Systeme, die über Menschen entscheiden und eine lernende Komponente haben – wo also Abläufe nicht mehr vorhersehbar sind. Die Bandbreite reicht von der eher harmlosen Produktempfehlung über die Bewertung der Kreditwürdigkeit bis hin zu autonomen Waffen. Die Tiefe regulierender Eingriffe richte sich danach, wie hoch ein möglicher Schaden für das Individuum oder die Gesellschaft durch algorithmische Fehlurteile ist. Am Ende bleiben laut Zweig derzeit eher wenige Systeme, die genau kontrolliert werden sollten. Die Aufgabe sei „gar nicht so schlimm und groß, wie man manchmal das Gefühl hat“.

Ihre News direkt zur Hand
Greifen Sie auf all unsere Artikel direkt über unsere neue App zu.
Via WhatsApp aktuell bleiben
x