InterviewNigel Shadbolt: Keine Angst vor Künstlicher Intelligenz

Roboterfigur (Symbolbild)
Roboterfigur (Symbolbild)James Pond CC0

Capital: Sir Nigel, was ist die schlaueste KI, die es heute schon gibt?

SIR NIGEL SHADBOLT: Es gibt sehr interessante Entwicklungen unter dem Namen „deep neural networks“. Ich denke ein Grund für den derzeitigen Enthusiasmus ist, dass diese Technologie Probleme lösen kann, die andere nicht lösen konnten. Aufgaben, die sehr datenintensiv sind: Gesichtserkennung, deterministische Brettspiele wie Go, auch Bildanalyse wie zum Beispiel in der Krebsdiagnose. Dazu die Tatsache, dass man KIs nun gegeneinander antreten lassen kann, sogenannte „generalized adversarial networks“. Die zeigen wirkliche schnelle Lernkurven. Die Herausforderung ist, diese Elemente zu verknüpfen, um sie breiter anwendbar zu machen.

Aber trotzdem glauben Sie nicht, dass KI uns überflüssig machen wird?

Sir Nigel Shadbolt ist Professor am Jesus College, University of Oxford. Er gründete mit Sir Tim Berners-Lee das Open Data Institute. (CC BY-SA 3.0 Brenda Lea)

Nein, denn KI ist normalerweise ein Leistungsverbesserer. Wenn wir uns die KI der Routenplaner auf unseren Smartphones anschauen – wir betrachten das heute kaum noch als KI – die lassen den Verkehr flüssiger laufen. Aber das ist nur Teil der Tradition, manche Aufgaben Maschinen zu übertragen, und für uns selbst eine andere Beschäftigung zu finden.

KI bleibt also ein Werkzeug des Menschen?

So habe ich immer darüber gedacht. Es gibt tiefe philosophische Fragen darüber, ob diese Systeme einige Attribute des menschlichen Geistes erlangen können. Aber zumindest in der absehbaren Zukunft bleibt es ein Werkzeug. Wir sind es, die Alexa oder Google Home soziale und emotionale Attribute zusprechen.

Aber das ist nur unsere Interpretation?

Genau. Wir können den Systemen einige soziale Reize vermitteln, aber das bleibt im Kern eine algorithmische Reaktion.

Ist also keine „starke KI“ zu erwarten, eine mit menschenähnlichem Bewusstsein?

Nicht in dem Zeitrahmen, der teilweise angesetzt wird. Das ist weit weg. Man kann auf viele Arten intelligent sein, was aber nicht unserer Intelligenz entspricht. Wir werden eine Welt mit vielen dieser sehr eingeschränkten, aufgabenbezogenen KIs erschaffen, aber sie werden nicht selbstreflektiert sein.

Können wir menschliche Intelligenz nicht nachbauen, weil wir sie zu wenig verstehen?

Ja, das tun wir nicht. Es ist interessant, da die Neurowissenschaft zu betrachten. Das ist ein Grundproblem, für das es verschiedene Formulierungen gibt. Vielleicht ist es alles ein Spiegelkabinett und wir machen uns etwas vor. Aber es fühlt sich nicht so an, wir vermuten ja doch, dass da jemand zuhause ist in den Menschen, mit denen wir interagieren. Es bleibt ein Mysterium. Ich bin sicher, dass unsere Technologien in Zukunft den Turing-Test bestehen werden. Aber das ist Verhaltensäquivalenz, also bloß „ich kann es nicht sicher einordnen“. Es ist weit weg von den Fragen nach den Rechten der KI und ihren Gefühlen.