Rheinpfalz Modell von Welt in Frage stellen

Sensibilisiert nicht nur Informatiker für die Wirkmechanismen von Algorithmen: Katharina Zweig.
Sensibilisiert nicht nur Informatiker für die Wirkmechanismen von Algorithmen: Katharina Zweig.

«Kaiserslautern.» Katharina Zweig kommt ursprünglich aus Hamburg und kam zum Studium nach Tübingen. „Ich wollte verstehen, wie der Mensch funktioniert“, sagt sie. Daher entschied sie sich für ein Studium der Biochemie. Nebenbei belegte sie Informatik – und verliebte sich in die theoretische Informatik, in der es sehr strukturiert zugeht und sich Probleme effizient lösen lassen, wie sie erzählt. „Algorithmen sind geprüfte Anweisungen, wie man ein Problem garantiert löst“, sagt Zweig. Sie gibt ein einfaches Beispiel: Einem neuen Mitarbeiter würde man erklären, wie er ein Formular auszufüllen habe und worauf er dabei achten müsse. Im Prinzip sei dies bereits ein Algorithmus – eine definierte Handlungsanweisung, wie in bestimmten Situationen verfahren wird, um eine wiederkehrende Aufgabe zu lösen. Nur, dass die Handlungen nicht vom Menschen, sondern mit Hilfe eines Algorithmus’ vom Computer ausgeführt werden. Doch es gebe ein Aber, das beim Entwickeln von Algorithmen immer mitgedacht werden müsse, betont Zweig: „Wenn Algorithmen auf Daten angewendet werden, müssen die Ergebnisse interpretiert werden.“ Dabei können Fehler passieren. Etwa bei Produktempfehlungen, die von Algorithmen ausgesprochen werden. Das Prinzip dahinter sehe so aus: Ein Algorithmus stelle fest, dass Kunden, die Produkt A kauften, häufig auch Produkt B kauften. Also werde neuen Kunden, die Produkt A kauften, automatisch auch Produkt B angeboten, schildert Zweig. Dass dies nicht immer funktioniert, zeigte die Wissenschaftlerin am sogenannten „Beer & Diaper“-Paradoxon auf. Ein Algorithmus hatte in den USA ermittelt, dass zu bestimmten Tageszeiten Bier und Windeln besonders häufig zusammen gekauft wurden. Dieses Ergebnis sei nicht in Frage gestellt worden. Stattdessen seien Erklärungsmodelle entwickelt worden, woher dieser Zusammenhang komme. „Ich fand das unintuitiv“, sagt Zweig. Also hat sie sich daran gemacht, das Rätsel zu lösen. Und tatsächlich: Es waren keine genervten Ehemänner, die abends schnell Windeln und Bier im Internet bestellten. Stattdessen lag dem Algorithmus ein Erklärmodell zugrunde, das wichtige Eigenschaften von Daten übersehen und nicht mitmoduliert hatte. „Hinter jedem Algorithmus steht ein Modell der Welt“, sagt Zweig. Dass dieses Modell nicht immer stimmt, sei ein wichtiger Punkt, den sie ihren Studenten vermitteln will. Nachdem sie das Erklärmodell im „Beer & Diaper“-Paradoxon geändert hatte, verschwanden die merkwürdigen Resultate und ein 20 Jahre altes Paradoxon hatte sich in Luft aufgelöst, wie Zweig berichtet. Menschen seien nicht gut darin zu bemerken, wann ein Modell, das einem Algorithmus zugrunde liegt, nicht so richtig passe. Stattdessen lassen sie sich mögliche Erklärungen einfallen: „Sie müssen aber das grundlegende Modell in Frage stellen“, sagt Zweig. Eine Möglichkeit, Algorithmen zu prüfen, sind Testgruppen. Etwa, wenn ein Algorithmus Bewerbungen katalogisieren soll. Dafür gebe es eine Testgruppe von Bewerbungen, über die bereits in der realen Welt eine Entscheidung getroffen worden sei. Mit dieser Kontrollgruppe lasse sich überprüfen, ob der Algorithmus funktioniere oder ob er zu anderen Ergebnissen komme als das Unternehmen selbst gekommen ist. „Eine Software kann gut gemeint sein, aber das Modell dahinter kann trotzdem fehlerhaft sein“, sagt Zweig. Daher sei es wichtig, sich einzumischen. Dazu allerdings müssten die Menschen verstehen, was genau Algorithmen machen und wo sie ihnen im Alltag und der Arbeitswelt begegnen. Die Nachfrage nach Erklärungen ist groß. Für die Bayrische Landeszentrale für neue Medien hat Zweig die Broschüre „Dein Algorithmus – meine Meinung!“ entwickelt. Für die Bertelsmann-Stiftung hat sie ein Arbeitspapier zum Thema erstellt, für das Museum Pfalzgalerie Kaiserslautern an einem Kunstkatalog zum Thema gearbeitet. Sie hat über 100 Vorträge zum Thema gehalten, über 40 Interviews dazu gegeben. Dafür, dass sie dieses Thema gut verständlich in die Öffentlichkeit bringt, hat Katharina Zweig den Communicatorpreis der Deutschen Forschungsgemeinschaft bekommen. „Die Aufgabe eines Algorithmus-Designers macht wahnsinnig viel Spaß, doch es muss klar sein, dass die Designer damit auch ethische Entscheidungen treffen“, betont Zweig. Sie hat die Initiative AlgorithmWatch mitgegründet, die die Öffentlichkeit über Algorithmen aufklären will. Mittlerweile ist Zweig Mitglied der Enquete-Kommission Künstliche Intelligenz des Deutschen Bundestages und gibt ihr Wissen dort weiter. „Für die meisten Situationen, in denen Algorithmen angewendet werden, gibt es eine zivilrechtliche Schutzeinrichtung“, sagt Zweig. Ganz neu ist Zweig mit der Trusted AI GmbH am Start, die sie mit ihrem Mann Winfried Zweig und Kollege Tobias Krafft gegründet hat. Die Firma berät Menschen, die mit Algorithmen zu tun haben: Betriebsräte, Richter, Politiker, Gewerkschaften, Kirche, Kommunen, Firmen. Sie sollen die Befähigung erhalten, sich eine eigene Meinung zu bilden und das Rüstzeug, um die richtigen Fragen zu stellen. „Wir bräuchten mehr unabhängige Institutionen, die sich um den Transfer in die Gesellschaft kümmern“, findet Zweig. Das Interesse dazu sei gegeben.

x