Daten-Ethik „Im Moment liegt sehr viel Bürde auf den Schultern der Nutzer“

Prof. Dr. Judith Simon
Prof. Dr. Judith Simon
© UHH/Nicolai
In Zeiten, in denen Big Data und Künstliche Intelligenz in immer mehr Lebensbereiche vordringen, muss man über ethische Probleme sprechen. Capital bat die IT-Ethikerin Judith Simon zum Gespräch

Prof. Dr. Judith Simon hat den Lehrstuhl für Ethik in der Informationstechnologie an der Universität Hamburg inne. Sie ist zudem seit 2018 Mitglied der Datenethikkomission und des Deutschen Ethikrats.

Capital: Ihr Lehrstuhl heißt „Ethik in der Informationstechnologie“ – das kann ganz viel heißen. Woran genau forschen Sie im Moment?

JUDITH SIMON: Ich beschäftige mich im Moment vor allem mit zwei Themen. Das eine ist das Forschungsfeld Big Data, also die Analyse großer Datenmengen. Und das andere sind ethische Fragen, die sich im Kontext Künstlicher Intelligenz stellen. Da bestimmte Entwicklungen der Künstliche Intelligenz oft großer Datenmengen bedürfen, hängen beide Themen stark zusammen.

Geht es im Forschungsfeld Big Data vor allem um Datenschutz oder womit beschäftigen Sie sich?

Mich interessiert tatsächlich die Verschränkung von ethischen, erkenntnistheoretischen und politischen Fragen. Datenanalysen werden in verschiedensten Kontexten für Prognosen oder Entscheidungsfindung eingesetzt und diese Praktiken erforsche ich. Zum Beispiel gibt es Software, die aufgrund verschiedenster Daten versucht vorherzusagen, mit welcher Wahrscheinlichkeit jemand zukünftig erneut straffällig wird oder seinen Kredit zurückzahlen wird. Oder man versucht zu prognostizieren, wo Straftaten vermutlich stattfinden oder wie man Verkehrsflüsse optimieren kann. In all diesen Fällen werden Big Data-Analysen genutzt. Daraus ergeben sich verschiedene Fragen.

Und zwar?

Auf der einen Seite erkenntnistheoretische Fragen: Wie funktioniert diese Analyse? Wie gut ist die Qualität der Daten und Methoden, wie gut die Prognose? Und dann ethische: Welche Auswirkungen hat der Einsatz von Big Data in diesen verschiedenen Kontexten für unterschiedliche Personengruppen? Werden Werte und Prinzipien wie Gerechtigkeit oder Freiheit betroffen? Und im letzten Schritt stehen politische Fragen der Regulierung und Steuerung: In welcher Art und Weise kann man Big Data und Künstliche Intelligenz so gestalten, dass es sowohl dem Gemeinwohl als auch dem Individuum nutzt?

Wer trägt die Verantwortung darauf zu achten, dass es dem Gemeinwohl und dem Individuum dient?

Das ist eine verteilte Verantwortung unterschiedlicher Akteure vom Unternehmen, über den Gesetzgeber bis hin zum Nutzer selbst. Es ist nicht so einfach zu beantworten, wer in welchem speziellen Fall die Verantwortung trägt, weil es meist niemand alleine ist. Die Gesetzgebung jedoch muss in einer Art und Weise gestaltet sein, dass die, die verantwortlich sind, sich nicht um die Verantwortung drücken können. Kurz gesagt gilt: je mehr Macht, desto mehr Verantwortung.

Wie gehen Sie privat mit Ihren Daten um? Sind Sie durch Ihren Job sensibler geworden?

Sicherlich bin ich sensibler für die Probleme geworden, aber ich setze auch nicht immer alles um. Ich bin beinahe täglich am Hadern, weil ich immer noch bei Facebook und Twitter bin. Aber mir ist auch bewusst, dass ich dort natürlich aus bestimmten Gründen bin. Zum Beispiel um mit Leuten in Kontakt zu bleiben aus Orten, wo ich früher gelebt und gearbeitet habe. Und das müsste ich mangels gleichwertiger Alternativen teils aufgeben. Es ist dieses Dilemma aus dem Wissen über die negativen Seiten und dem Wissen darüber, dass man Systeme und Anwendungen auch immer aus bestimmten Gründen nutzt. Und sicherlich wäre auch Spielraum nach oben, was Verschlüsselung und den Schutz meiner eigenen Daten angeht. Ich glaube, ich bin nicht total nachlässig, aber das könnte ich sicherlich noch absolut optimieren.

Ist das ein Zeichen dafür, dass die Verantwortung nicht beim Individuum alleine liegen kann, wenn sogar eine Wissenschaftlerin in dem Gebiet, es nicht optimal umsetzt?

Absolut. Im Moment liegt sehr viel Bürde auf den Schultern der Nutzer. Wenn bestimmte Schutzmaßnahmen wie Verschlüsselung und Ähnliches einfach der Standard wären und man sich als Endnutzer nicht immer um alles kümmern müsste, würde das sicherlich vieles leichter machen. Es darf nicht immer alle Verantwortung dem Nutzer überlassen werden.

Müssten wir auch besser gebildet werden in dem Bereich?

Ja, prinzipiell ist Bildung eine absolut wichtige Sache. Aber sie alleine wird nicht rechtfertigen, dass wir die Verantwortung allein dem Bürger überlassen. Diese Annahme, dass Menschen schon mündig entscheiden können, wenn wir sie nur ausreichend informieren, greift zu kurz. Das unterschlägt die Komplexität des unserer digitalen Welt. Selbst Leute, die sich technisch wirklich auskennen, können oft nicht in letzter Instanz durchsteigen, zu welchen Zwecken ihre Daten von wem verwendet werden. Dementsprechend wäre es eine Fehleinschätzung, da von einer Mündigkeit durch Informierung zu sprechen. Nichtsdestotrotz ist Bildung im starken Sinne eine ganz wichtige Komponente. Bildung betrifft hier alle Teile der Bevölkerung – vom Kindergarten bis zur Universität. Auf der einen Seite nutzen wir nahezu alle, wenn auch in unterschiedlichem Ausmaß, digitale Technologien. Daher ist es für alle Menschen sinnvoll besser zu verstehen, wie diese Technologien selbst und die dahinterliegenden Geschäftsmodelle funktionieren. Andererseits beschäftigen sich zunehmend mehr Leute auch beruflich mit Daten und dies erfordert neue Ausbildungsinhalten und -formate. Hier spielt Interdisziplinarität eine zunehmend große Rolle.

Ein weiteres Forschungsfeld von Ihnen ist „Values in Design“ – was bedeutet das?

Bei „Values in Design“ oder auch „Value-Sensitive-Design“ geht es im Grunde genommen um die Frage, ob man Technologien und insbesondere Informations- und Kommunikationstechnologien so gestalten kann, dass sie bestimmte Werte verkörpern. Also: Wie kann man den Wert Gerechtigkeit oder Privatssphärenschutz bei der Entwicklung einer Software berücksichtigen?

Ist Software denn nicht erst einmal neutral? Warum sollte man da Werte einbauen?

Das ist genau der Punkt. Im Prozess des Entwickelns von Technologien werden oft unbewusst gesellschaftliche Werte, Normen, aber auch Stereotypen und Vorurteile in Programme reingeschrieben. Und dann ist die Idee: Wenn das sowieso passiert, kann man das nicht konstruktiv wenden, um einerseits unbewusste Stereotypen, Vorurteile und Verzerrungen zu vermeiden und andererseits bewusst positive Werte einzuschreiben?

Aber wie kommen diese Verzerrungen oder Stereotypen unbewusst in Programme?

Nehmen wir mal an, in der Gesellschaft gibt es bestimmte Vorannahmen über Männer und Frauen. Wenn man dann ein Auto für die Zielgruppe Frauen entwickelt, manifestieren sich diese Vorannahmen möglicherweise in bestimmten Designentscheidungen. Über ein anderes Beispiel bin ich auf Twitter gestolpert. Da gab es ein Video von einem Seifenspender, der einen Sensor hatte, so dass er automatisch Seife spendet, wenn man die Hand darunter hält. Nur hat dieser Sensor zwar auf helle Haut reagiert, nicht aber auf dunkle. Dahinter steckte sicherlich keine rassistische Absicht. Vielleicht war im Entwicklerteam schlicht niemand mit dunkler Haut und so ist das beim Entwickeln und Testen niemandem aufgefallen. Das Team ist einfach von sich selbst ausgegangen.

https://twitter.com/nke_ise/status/897756900753891328

Aber gibt es das Problem nicht genauso, wenn man bei „Values in Design“ bewusst Werte in eine Technologie einspeist? Das Team wird ja auch nur Werte einarbeiten, die es in diesem Team für richtig hält.

Das ist richtig. In dem Moment, wo ich über Technologien entscheide, auch wenn ich das wertbewusst mache, schreibe ich meine Werte ein. Und es kann natürlich sein, dass jemand anders das anders sieht und anders entwickeln würde. Aber ich glaube, dass der erste Schritt, sich darüber Gedanken zu machen, welche Werte man einbauen möchte, schon alleine wichtig ist. Zweitens gilt, dass Diversität in Entwicklerteams sinnvoll ist, um Einseitigkeit zu verringern. Eine weitere wichtige Komponente ist auch, darüber nachzudenken, wer von den Technologieentscheidungen betroffen ist und diese Personen miteinzubeziehen. Wenn ich zum Beispiel eine Controlling-Software für ein Krankenhaus entwickle, dann sollte ich als Entwicklerin nicht nur mit den Personen sprechen, die die Software am Ende bedienen. Sondern auch mit Ärzten, Pflegern, Patienten und Angehörigen, denn gegebenenfalls wird die Software die Arbeits- und Lebenswelt all dieser Menschen zu einem gewissen Grad betreffen. Es geht also darum den Blick zu weiten von den Nutzern der Software hin zu allen, die sie betrifft.

Ist es denn überhaupt ein Unterschied, ob eine Technologie diskriminiert oder Menschen diskriminieren, die das ja auch schon getan haben, bevor es zum Beispiel Big Data-Analysen gab? Ist das problematischer oder weniger problematisch?

Es kann unter Umständen problematischer sein. Ein Hauptproblem von diskriminierenden Systemen ist, dass bestehende Ungerechtigkeiten nochmal verschärft werden können. Nehmen wir an, aufgrund von Datensammlungen wissen wir, dass Frauen im Durchschnitt weniger verdienen. Diese Daten werden dann in ein System gefüttert, das automatisiert Vorschläge macht für Gehaltsverhandlungen. Dann hat das System eine bestehende Ungerechtigkeit in der Welt abgebildet, nämlich dass bisher Frauen weniger verdienen. Doch nicht nur das, das System beeinflusst auch die Zukunft und zwar dadurch, dass Frauen geringere Gehaltsangebote bekommen. Die bestehende Ungerechtigkeit wurde also weitergeführt und gegebenenfalls verschärft. Ein zweites Problem ist, dass diese systemische Diskriminierung nicht mehr zufällig ist. Wenn ich vor einem Richter stehe, kann es mir auch passieren, dass ich einen besonders strengen oder einen besonders liberalen Richter habe. Aber das ist zufällig. Wenn es aber systematische Verzerrungen gibt, die mich immer benachteiligen, ist das ein zusätzliches Problem. Und möglicherweise ist ein drittes Problem, dass maschinelle Entscheidungen oft den Anschein machen, objektiv zu sein, es aber meist nicht sind – vor allem dann nicht, wenn sie mit verzerrten Trainingsdaten gefüttert werden.

Wenn eine Maschine einen Fehler macht, wer trägt dann die Verantwortung dafür?

Also einfacher zu sagen ist, wer sie nicht trägt. Eine Maschine oder künstliche Intelligenz ist kein moralischer Akteur und kann daher kein Träger von Verantwortung sein. Verantwortung haben daher Menschen oder Unternehmen, die KI einsetzen. Dann ist immer noch die Frage, wer genau? Ist es der Entwickler, ist es der Nutzer? Das wird von Fall zu Fall zu entscheiden sein.

Aber ist es nicht denkbar, dass künstliche Intelligenz irgendwann so weit entwickelt ist, dass sie zu einem moralischen Akteur wird?

Ich würde niemals nie sagen, aber zum jetzigen Zeitpunkt ist sie es definitiv nicht. Sie verfügt überhaupt nicht über die Voraussetzungen. Und ich halte es für höchst fragwürdig, ob sie es irgendwann werden kann.

Worüber werden Sie in fünf Jahren forschen? Ist das schon abzusehen oder wissen wir einfach nicht, was bis dahin die Themen sein werden?

Das ist wirklich ganz schwierig. Ich bin mir sicher, dass Fragestellungen rund um künstliche Intelligenz und Big Data weiter wichtig bleiben und mich auch in fünf Jahren noch beschäftigen werden, da diese Technologien sich in immer mehr Lebensbereiche ausgeweitet werden und sich somit immer wieder neue Fragen ergeben. Und sicher werden mit neuen Technologien und Anwendungsfelder auch neue Themen hinzukommen, aber welche genau das sein könnten, weiß ich noch nicht. Ich glaube, wer sich mit Ethik und digitalen Technologien beschäftigt, wird zumindest nicht so schnell arbeitslos.


Mehr zum Thema



Neueste Artikel