InterviewJulian Nida-Rümelin: Die ultimative Grenze Künstlicher Intelligenz

Julian Nida-Rümelin
Julian Nida-Rümelindpa

Capital: Ihrem Buch zufolge wird es keine intelligenten Roboter wie C3PO aus Star Wars geben, also Sie halten den Anspruch einer solchen „starken KI“ für unerfüllbar?

JULIAN NIDA-RÜMELIN: Ja, und auch den einer schwachen. Horribile dictu – beide Varianten halte ich für unerfüllbar. Ich verstehe unter starker KI im philosophischen Sprachgebrauch die These, die auf den Computer-Pionier Alan Turing zurückgeht. Er hat den berühmten Turing-Test entwickelt, der besagt, wenn Softwaresysteme oder Rechenmaschinen bestimmte Leistungen vollbringen, dann haben wir keinen Grund, diese anders zu interpretieren als wir Menschen interpretieren, die diese Leistungen vollbringen. Ich habe mir die Korrespondenzen von Turing, aber auch von seinem Gegenspieler, dem Logiker und Mathematiker Kurt Gödel angesehen. Dabei stellt sich heraus, dass Turing selbst skeptischer war als viele seiner Anhänger. Es ist eine kühne behavioristische These, die in die damalige Zeit gut passt. Eine Zeit des Positivismus, das heißt, dass man das Gegebene, das Positive, zum Ausgangspunkt nimmt. Zweifellos stimmt es, dass wir von Verhalten auf mentale Eigenschaften und Zustände schließen, aber der Behaviorismus identifiziert das betreffende Verhalten selbst mit dieser Eigenschaft, das ist aber wenig plausibel.

Diese These hat sich zu einem zentralen Bestandteil dessen verfestigt, was ich Silicon-Valley-Ideologie nenne. Nämlich, dass wir mit künstlicher Intelligenz Akteure schaffen, kognitive Systeme. Wir statten am Ende diese Softwaresysteme mit mentalen Eigenschaften aus, etwa Erkenntnisfähigkeit, Einsichtsfähigkeit, vielleicht Bewertungsfähigkeit. Damit fast zwangsläufig auch mit einer gewissen Emotionalität. Gegen diese These der starken KI, also dass künstliche Intelligenz dann auch dieselben Eigenschaften hat wie zum Beispiel Menschen oder hochentwickelte Säugetiere, dagegen wenden wir uns. Und zwar mit dem Argument, dass wir mit KI’s lediglich etwas simulieren.

Die Gegenthese ist: Wir schaffen zwar unglaublich effiziente und beeindruckende Systeme, aber man muss sich davor hüten, das animistisch aufzuladen und diese Simulationen für Personen zu halten.

Kurz gesagt, es gibt keine Seele im Algorithmus?

Ja. Diese algorithmischen Systeme können alles simulieren, was sich bei uns auch in berechenbaren Prozessen zeigt; aber man sollte sie darüber hinaus nicht mystisch aufladen. Das ist übrigens auch für die technikfreundliche Position wichtig. Wenn es wirklich so wäre, dass diese Systeme menschenähnliche Intelligenz besitzen, dann haben sie am Ende auch vergleichbare Rechte wie Menschen oder zumindest wie Tiere. Also Vorsicht! Das führt eventuell zu einer Blockade der technischen Entwicklung, weil man dann Computer nicht mehr abschalten kann.

Und die schwache KI?

Darunter wird die These verstanden, dass grundsätzlich alle menschlichen Fähigkeiten durch eine Software-Simulation zu leisten sind. Das ist eine sehr komplexe Fragestellung. Da gibt es viel Streit in der Mathematik, Logik, Philosophie. Was spricht dagegen? Ein altes Argument des Gegenspielers von Turing, Kurt Gödel. In den 30er-Jahren entwickelte er die berühmten Unvollständigkeitssätze. Das sind die wichtigsten Theoreme der Logik und Metamathematik. Ich bin der Meinung, dass damit eine ultimative Grenze gesetzt ist. Nämlich zwischen der menschlichen Denkfähigkeit wie dem Abwägen von Gründen und auf der anderen Seite algorithmengesteuerten Software-Systemen. Wir verwenden im Alltag, wenn wir Gründe abwägen, wenn wir miteinander reden, eine ziemlich anspruchsvolle Logik. So anspruchsvoll, dass sie sich nur in Teilen formalisieren ließ. Zum Beispiel die Verbots- und Gebotslogik in der Rechtswissenschaft, da ist kein hinreichend gutes logisches Abbildungssystem entwickelt worden. Erst recht gilt das für Alltagsüberlegungen.

Jetzt kommt Gödel ins Spiel. Der hat bewiesen dass schon die Theoreme eines relativ simplen Logiksystems, nämlich das der Prädikaten- und Quantorenlogik erster Stufe, Algorithmen überfordern. Alle Menschen sind sterblich, Sokrates ist ein Mensch, also ist Sokrates sterblich… Da sind wir auf der Ebene dieser Logik. Deren wahre Satzformen, sogenannte Tautologien, lassen sich beweisen, aber in der Regel nicht mehr durch Anwendung eines Algorithmus.

Gödel sagte ja, dass diese Systeme nicht innerhalb ihrer selbst begründet werden können.

Man braucht ein stärkeres System. Man geht in immer höhere Systeme und in jedem dieser Systeme sind die eigenen Theoreme nicht algorithmisch beweisbar.

Deswegen heißen Gödels Theoreme „Unvollständigkeitssätze“?

Mathematiker und Logiker Kurt Gödel
Der Mathematiker und Logiker Kurt Gödel im Jahr 1925

Genau. Das gilt schon ab einem relativ primitiven Niveau und es gilt erst recht für anspruchsvolle Deliberationen. Damit ist gezeigt, dass keine algorithmengesteuerte Software das leisten kann. Das kann sich irgendwann ändern, aber im Moment haben wir nur solche von Algorithmen gesteuerten KIs.

Nur als Beispiel: Die Formeln der Prädikatenlogik beweisen Studierende im dritten Semester. Und die Informatiker-Kollegen sagen mir dann, schau mal, wir haben dafür auch ganz tolle Beweismaschinen. Nur, was da geschieht, ist etwas anderes: Die lassen etwas regelkonform durch den Computer laufen, dann probiert er das in ein paar Sekunden 127.000 mal und irgendwann klappt es. Aber das machen die Studierenden eben nicht so. Die brauchen allenfalls ein oder zwei Versuche und es klappt.

Intelligenz haben wir nicht vollständig verstanden. Insofern haben wir heute nur KI, die in einer Simulation von Intelligenz besteht, oder?

Es gibt die Versuche mit neuronalen Netzen, das menschliche Gehirn zu simulieren. Aber auch Neurowissenschaftler sagen: Vorsicht! Sogenannte „neuronale Netze“ funktionieren völlig anders, als das menschliche Gehirn. Es handelt sich allenfalls um recht primitive Simulationen einzelner Teile. Man darf nicht denken, ein neuronales Netz sei so etwas wie das menschliche Gehirn.

In gewisser Weise wird die KI also überschätzt?

Ich bin optimistisch, dass wir noch Unglaubliches erleben werden. Aber bitte keinen Animismus, keine Mystifizierung! Wir schaffen kein Gegenüber, keine Partner. Der Roboter liebt dich nicht, das ist ein ganz wesentlicher Punkt.

Und umgekehrt: Der Roboter ist auch nicht unser Feind?

Genau. Das sind zwei Seiten derselben Medaille. Der Roboter wird mystifiziert, erst mal positiv. Dann kommt die Angst, wenn das Akteure sind, wer garantiert uns denn, dass sie uns gegenüber wohlwollend sind? Das ist im Grunde derselbe Denkfehler. Sie sind weder böswillig noch gutwillig, sondern einfach Instrumente.

In ihrem Buch schlagen Sie einen digitalen Humanismus vor. Was haben wir uns darunter vorzustellen?

Um die zentralen ethischen Ansichten des Humanismus konzentriert sich ein ganzes Feld von Überzeugungen, etwa im Bildungswesen. Es kommt sehr darauf an, ob ich Menschen nur abrichten möchte, denken Sie an frühere Sklavenhaltergesellschaften, oder ob wir Menschen instandsetzen wollen, selber Autorinnen oder Autoren ihres Lebens zu sein. Letzteres ist Kern des Humanismus: Autorschaft, selbst in der Lage zu sein, ein Leben zu strukturieren, Verantwortung zu übernehmen.

Das wird dann gerne verlacht. Etwa der Antihumanismus, der manchmal von links kam, linksintellektuell aufgeladen: Alles olle Kamellen, Subjekt kann man vergessen, Verantwortung und so auch. Alles konstruiert. Jetzt schlägt das in rechtspopulistische und zum Teil auch rechtsradikale Parolen um, und jetzt kriegen manche einen Schreck und sagen, so haben wir es eigentlich auch nicht gemeint.

Das waren gefährliche antihumanistische Tendenzen – und jetzt haben wir sie im Umfeld der KI wieder. In zwei Richtungen: Die eine ist diese Mystifizierung von Software, eine Vermenschlichung. Die andere besteht darin, das Maschinenparadigma auf den Menschen anzuwenden. Visionen aus Kalifornien oder auch aus China lassen sich so verstehen. Dagegen setzen wir einen digitalen Humanismus, der sagt: Vorsicht, wir sind immer noch Menschen, die Verantwortung tragen.


Das Buch „Digitaler Humanismus“ von Julian Nida-Rümelin und Nathalie Weidenfeld ist im Piper Verlag erschienen. Nida-Rümelin ist Philosoph und war in der rot-grünen Bundesregierung unter Gerhard Schröder Staatsminister für Kultur und Medien.