InterviewJulian Nida-Rümelin: Die ultimative Grenze Künstlicher Intelligenz

Julian Nida-Rümelin
Julian Nida-Rümelindpa

Capital: Ihrem Buch zufolge wird es keine intelligenten Roboter wie C3PO aus Star Wars geben, also Sie halten den Anspruch einer solchen „starken KI“ für unerfüllbar?

JULIAN NIDA-RÜMELIN: Ja, und auch den einer schwachen. Horribile dictu – beide Varianten halte ich für unerfüllbar. Ich verstehe unter starker KI im philosophischen Sprachgebrauch die These, die auf den Computer-Pionier Alan Turing zurückgeht. Er hat den berühmten Turing-Test entwickelt, der besagt, wenn Softwaresysteme oder Rechenmaschinen bestimmte Leistungen vollbringen, dann haben wir keinen Grund, diese anders zu interpretieren als wir Menschen interpretieren, die diese Leistungen vollbringen. Ich habe mir die Korrespondenzen von Turing, aber auch von seinem Gegenspieler, dem Logiker und Mathematiker Kurt Gödel angesehen. Dabei stellt sich heraus, dass Turing selbst skeptischer war als viele seiner Anhänger. Es ist eine kühne behavioristische These, die in die damalige Zeit gut passt. Eine Zeit des Positivismus, das heißt, dass man das Gegebene, das Positive, zum Ausgangspunkt nimmt. Zweifellos stimmt es, dass wir von Verhalten auf mentale Eigenschaften und Zustände schließen, aber der Behaviorismus identifiziert das betreffende Verhalten selbst mit dieser Eigenschaft, das ist aber wenig plausibel.

Diese These hat sich zu einem zentralen Bestandteil dessen verfestigt, was ich Silicon-Valley-Ideologie nenne. Nämlich, dass wir mit künstlicher Intelligenz Akteure schaffen, kognitive Systeme. Wir statten am Ende diese Softwaresysteme mit mentalen Eigenschaften aus, etwa Erkenntnisfähigkeit, Einsichtsfähigkeit, vielleicht Bewertungsfähigkeit. Damit fast zwangsläufig auch mit einer gewissen Emotionalität. Gegen diese These der starken KI, also dass künstliche Intelligenz dann auch dieselben Eigenschaften hat wie zum Beispiel Menschen oder hochentwickelte Säugetiere, dagegen wenden wir uns. Und zwar mit dem Argument, dass wir mit KI’s lediglich etwas simulieren.

Die Gegenthese ist: Wir schaffen zwar unglaublich effiziente und beeindruckende Systeme, aber man muss sich davor hüten, das animistisch aufzuladen und diese Simulationen für Personen zu halten.

Kurz gesagt, es gibt keine Seele im Algorithmus?

Ja. Diese algorithmischen Systeme können alles simulieren, was sich bei uns auch in berechenbaren Prozessen zeigt; aber man sollte sie darüber hinaus nicht mystisch aufladen. Das ist übrigens auch für die technikfreundliche Position wichtig. Wenn es wirklich so wäre, dass diese Systeme menschenähnliche Intelligenz besitzen, dann haben sie am Ende auch vergleichbare Rechte wie Menschen oder zumindest wie Tiere. Also Vorsicht! Das führt eventuell zu einer Blockade der technischen Entwicklung, weil man dann Computer nicht mehr abschalten kann.

Und die schwache KI?

Darunter wird die These verstanden, dass grundsätzlich alle menschlichen Fähigkeiten durch eine Software-Simulation zu leisten sind. Das ist eine sehr komplexe Fragestellung. Da gibt es viel Streit in der Mathematik, Logik, Philosophie. Was spricht dagegen? Ein altes Argument des Gegenspielers von Turing, Kurt Gödel. In den 30er-Jahren entwickelte er die berühmten Unvollständigkeitssätze. Das sind die wichtigsten Theoreme der Logik und Metamathematik. Ich bin der Meinung, dass damit eine ultimative Grenze gesetzt ist. Nämlich zwischen der menschlichen Denkfähigkeit wie dem Abwägen von Gründen und auf der anderen Seite algorithmengesteuerten Software-Systemen. Wir verwenden im Alltag, wenn wir Gründe abwägen, wenn wir miteinander reden, eine ziemlich anspruchsvolle Logik. So anspruchsvoll, dass sie sich nur in Teilen formalisieren ließ. Zum Beispiel die Verbots- und Gebotslogik in der Rechtswissenschaft, da ist kein hinreichend gutes logisches Abbildungssystem entwickelt worden. Erst recht gilt das für Alltagsüberlegungen.

Jetzt kommt Gödel ins Spiel. Der hat bewiesen dass schon die Theoreme eines relativ simplen Logiksystems, nämlich das der Prädikaten- und Quantorenlogik erster Stufe, Algorithmen überfordern. Alle Menschen sind sterblich, Sokrates ist ein Mensch, also ist Sokrates sterblich… Da sind wir auf der Ebene dieser Logik. Deren wahre Satzformen, sogenannte Tautologien, lassen sich beweisen, aber in der Regel nicht mehr durch Anwendung eines Algorithmus.

Gödel sagte ja, dass diese Systeme nicht innerhalb ihrer selbst begründet werden können.

Man braucht ein stärkeres System. Man geht in immer höhere Systeme und in jedem dieser Systeme sind die eigenen Theoreme nicht algorithmisch beweisbar.