Autonomes Fahren„Wir überschätzen die Technik“

Ex-Verfassungsrichter Udo di Fabio
Ex-Verfassungsrichter Udo di FabioJulia Sellmann


Udo Di Fabio war von 1999 bis 2011 Richter am Bundesverfassungsgericht in Karlsruhe. Der 63-Jährige gilt als liberal-konservativer Denker und ist einer der einflussreichsten Intellektuellen in Deutschland. Er beschäftigt sich immer wieder mit Problemen der Digitalisierung – wie etwa mit der Frage, ob die Urheber von Informationen im Internet anonym bleiben dürfen. Als Leiter der Ethik-Kommission zum automatisierten Fahren legte er außerdem im vergangenen Juni 20 Regeln vor, die den Rahmen für den Betrieb selbstfahrender Autos bilden sollen


Capital: Herr Di Fabio, ist der Einsatz künstlicher Intelligenz eine Revolution für den Menschen?

Udo Di Fabio: Das ist, als ob man fragen würde, ob der Auftritt des Homo sapiens in der Evolutionsgeschichte eine ­Revolution war. Wenn Intelligenz beginnt, sich aus den Bahnen der Programmierung zu lösen, kommt es zu Entwicklungssprüngen.

Warum?

Weil es einen Unterschied macht, ob man physische Fähigkeiten verbessert oder ob plötzlich das kognitive Moment hinzutritt. Bisher bedeutete Automatisierung: Der Mensch wird von physischen Bewegungen entlastet oder von einfachen Aufgaben wie Rechnen. Die Möglichkeit, assoziative Denkleistungen zu ersetzen, hatten wir bisher trotz aller Science-Fiction-Träume noch nicht.

Haben wir sie denn heute?

Nein, wenn man unter Denken assoziatives, selbstreflektiertes Denken versteht. Aber wir nähern uns schrittweise. Wir fangen an, kognitive Fähigkeiten zu ersetzen. Und zur gleichen Zeit entwickelt sich das Internet, das verstanden werden kann wie ein Netz für neuronale Bahnen der globalen Information. Das Netz in künftiger Verbindung mit künstlicher Intelligenz bedeutet wirklich einen Paradigmenwechsel. Es wälzt gesellschaftlich etwas um, und es wälzt Wertschöpfungsmodelle um.

Worin besteht diese Umwälzung?

Künstliche Intelligenz bedeutet ja, dass wir es mit einem selbstlernenden System zu tun haben. Wenn ein System fest programmiert ist, bleibt es auf dem Niveau eines Schachcomputers. Auch Schachmeister können ihn nicht schlagen, aber das hat mit Intelligenz nichts zu tun, sondern nur mit Rechenleistung. Das Besondere an künstlicher Intelligenz ist, dass sich die Programmierung plötzlich verflüssigt. Und das ähnelt dann schon dem echten Denken. Weil spontane Verbindungen möglich sind, die der Programmierer nicht vorausgesehen hat.

Das heißt, Maschinen werden dem Menschen ähnlicher? Müssten sie dann für ihre Handlungen nicht auch haften?

Wenn eine Technik kognitive Leistungen ersetzt oder simuliert, glaubt man rasch an Menschenähnlichkeit. Die Diskussion über eine neue Rechtspersönlichkeit für KI halte ich gelinde gesagt für sehr verfrüht, juristisch geradezu abwegig.

Was wäre das Problem?

Dann könnte man auch Haustieren eine Rechtspersönlichkeit zusprechen. Wir überschätzen die Technik. Es gibt eine Tendenz dazu, technische Artefakte zu humanisieren und etwas in ihnen zu sehen, was sie nicht sind. Wenn Sie einen Hund haben, der Sie treu anschaut und schon früh ahnt, dass Sie mit ihm Gassi gehen wollen, dann neigt man dazu, ihm menschliche Eigenschaften zuzubilligen. Aber der Hund denkt nie wie ein Mensch, er bleibt immer ein Hund. Wir sollten Technik nicht vermenschlichen, solange wir keinen Anlass dazu haben.

Und wer haftet, wenn mit der neuen Technik etwas schiefläuft?

Jemand, der ein Produkt mit künstlicher Intelligenz erzeugt, muss dafür die Haftung übernehmen. Der Gesetzgeber könnte sie ihm abnehmen und das Risiko vergesellschaften. Aber die Haftung würde nie auf die Maschine übergehen. Das wäre einer humanen Gesellschaft fremd, und es wäre auch nur eine Fiktion.