Interview Nigel Shadbolt: Keine Angst vor Künstlicher Intelligenz

Roboterfigur (Symbolbild)
Roboterfigur (Symbolbild)
© James Pond CC0
Sir Nigel Shadbolt, KI-Experte aus Oxford, spricht sich für Gelassenheit gegenüber intelligenten Robotern aus - und fordert verantwortungsbewusste Digital-Konzerne.

Capital: Sir Nigel, was ist die schlaueste KI, die es heute schon gibt?

SIR NIGEL SHADBOLT: Es gibt sehr interessante Entwicklungen unter dem Namen „deep neural networks“. Ich denke ein Grund für den derzeitigen Enthusiasmus ist, dass diese Technologie Probleme lösen kann, die andere nicht lösen konnten. Aufgaben, die sehr datenintensiv sind: Gesichtserkennung, deterministische Brettspiele wie Go, auch Bildanalyse wie zum Beispiel in der Krebsdiagnose. Dazu die Tatsache, dass man KIs nun gegeneinander antreten lassen kann, sogenannte „generalized adversarial networks“. Die zeigen wirkliche schnelle Lernkurven. Die Herausforderung ist, diese Elemente zu verknüpfen, um sie breiter anwendbar zu machen.

Aber trotzdem glauben Sie nicht, dass KI uns überflüssig machen wird?

Sir Nigel Shadbolt ist Professor am Jesus College, University of Oxford. Er gründete mit Sir Tim Berners-Lee das Open Data Institute. (CC BY-SA 3.0 Brenda Lea)

Nein, denn KI ist normalerweise ein Leistungsverbesserer. Wenn wir uns die KI der Routenplaner auf unseren Smartphones anschauen – wir betrachten das heute kaum noch als KI – die lassen den Verkehr flüssiger laufen. Aber das ist nur Teil der Tradition, manche Aufgaben Maschinen zu übertragen, und für uns selbst eine andere Beschäftigung zu finden.

KI bleibt also ein Werkzeug des Menschen?

So habe ich immer darüber gedacht. Es gibt tiefe philosophische Fragen darüber, ob diese Systeme einige Attribute des menschlichen Geistes erlangen können. Aber zumindest in der absehbaren Zukunft bleibt es ein Werkzeug. Wir sind es, die Alexa oder Google Home soziale und emotionale Attribute zusprechen.

Aber das ist nur unsere Interpretation?

Genau. Wir können den Systemen einige soziale Reize vermitteln, aber das bleibt im Kern eine algorithmische Reaktion.

Ist also keine „starke KI“ zu erwarten, eine mit menschenähnlichem Bewusstsein?

Nicht in dem Zeitrahmen, der teilweise angesetzt wird. Das ist weit weg. Man kann auf viele Arten intelligent sein, was aber nicht unserer Intelligenz entspricht. Wir werden eine Welt mit vielen dieser sehr eingeschränkten, aufgabenbezogenen KIs erschaffen, aber sie werden nicht selbstreflektiert sein.

Können wir menschliche Intelligenz nicht nachbauen, weil wir sie zu wenig verstehen?

Ja, das tun wir nicht. Es ist interessant, da die Neurowissenschaft zu betrachten. Das ist ein Grundproblem, für das es verschiedene Formulierungen gibt. Vielleicht ist es alles ein Spiegelkabinett und wir machen uns etwas vor. Aber es fühlt sich nicht so an, wir vermuten ja doch, dass da jemand zuhause ist in den Menschen, mit denen wir interagieren. Es bleibt ein Mysterium. Ich bin sicher, dass unsere Technologien in Zukunft den Turing-Test bestehen werden. Aber das ist Verhaltensäquivalenz, also bloß „ich kann es nicht sicher einordnen“. Es ist weit weg von den Fragen nach den Rechten der KI und ihren Gefühlen.

Beim Turing-Test geht es ja auch nur um die Nachahmung oder die Simulation von Intelligenz.

Richtig. Das ist eine interessante philosophische Frage. Philosophen sagen, es gäbe keine Garantie, dass ich beweisen kann, dass Sie da drin sind, wenn Sie mich anschauen. Aber mal abgesehen von den philosophischen Rätseln – ich denke nicht, dass unsere KI dieses Problem in den nächsten 20, 30, 40 Jahren lösen wird.

Dennoch kann KI ja auf spezialisierte Weise sehr intelligent sein: Sie schlägt uns in Schach, Go usw. Ist KI schlau genug, um gefährlich zu sein?

Ja. Wir haben die Wahl, ob wir so dumm sind, unser Schicksal von solchen Systemen abhängig zu machen, ohne dass menschliche Entscheidungen einbezogen sind. Militärische Systeme vollständig zu automatisieren, das ist eine beängstigende Vorstellung oder die Festsetzung eines Strafmaßes durch Algorithmen. Wir machen uns heute schon Sorgen um solche Fragen, wenn es etwa darum geht, wer über unsere Kreditwürdigkeit entscheidet. Es gibt sicherlich Gefahren. Die frühe Geschichte dieses Themas entstammt Konflikten. Ob es das Entschlüsseln von Nachrichten ist oder selbstgesteuerte Waffen. Die Idee war, Technologie vorausschauend handeln zu lassen.

Wie müssten Kontrollen von KI aussehen?

Da werden wir viele Debatten führen, die sich um Regulierung, staatliches Handeln und Ethik drehen. Je mehr Konzernkonzentration wir sehen, Datenmonopole zum Beispiel, kommt die Frage auf, wie man eine Übermacht einzelner Unternehmen verhindern kann. Werden Entscheidungen angemessen und gerecht getroffen?

Reden wir zu viel über die Gefahren der Technologie, wenn wir über die Gefahren der Technologieunternehmen reden sollten?

In die Hände sehr weniger Menschen fallen Entscheidungen, die uns alle betreffen. Angefangen mit den Steuern – und es ist schön, große Wohltätigkeitsorganisationen auf den eigenen Namen zu taufen. Aber ehrlich gesagt, warum haben sie die größte Ahnung, wie dieses Geld ausgegeben werden sollte? Wenn wir diese Organisationen ernst nehmen sollen, müssen sie die öffentlichen Institutionen respektieren. Es ist nicht genug, nichts Böses zu tun und ein wenig Gutes. Wenn man überlegt, was es bedeutet, Gutes zu tun, dann ist es: kein Trittbrettfahrer sein. Es bedeutet, das Bestimmungsrecht der Menschen über ihre Daten zu respektieren. Es bedeutet, einen Teil der Daten nicht-persönliche, gemeinfrei zu veröffentlichen. Deswegen unterstützen Tim Berners Lee und ich die Open Data Initiative. Riesige Innovation ist möglich, wenn wir alle an bestimmte Daten kommen können. Es geht darum, dass Organisationen sich genauso um das öffentliche Interesse sorgen wie um das private. Manchen Leuten ist das ein Gräuel. Ich möchte in der Art von Gesellschaft leben, wo man das fordern kann. Ich frage mich, ob das langfristig dazu führt, dass wir darüber nachdenken, manche der Besitztümer, die derzeit sehr privat gehalten werden, zu vergemeinschaften.

Wie würde das funktionieren?

Im Grunde genommen als Genossenschaften mit Abkommen, sich digitale Güter zu teilen, Patente und andere Dienstleistungen. Die könnten in einer an Zünfte angelehnte Art zur Verfügung gestellt werden. Es gibt interessante Beispiele für Peer-to-Peer-Modelle oder Data Trusts, wo die Daten vor späterer Privatisierung geschützt sind. Daten sind eine neue Art von Infrastruktur. Wenn sie ganz in privaten Händen landen, sollte uns das besorgt machen.

Infrastruktur startet ja manchmal privat und wird dann öffentlich, etwa bei frühen Bahnstrecken.

Oder anders rum... etwa im Vereinigten Königreich. Nicht immer zu unserem Vorteil, würde ich sagen. Wer sollte sie besitzen? Das ist eine wichtige Diskussion: Qualität der Dienstleistung, Vertrauen, Investment – wer streicht die Gewinne ein.

Sollte KI nicht von privaten Unternehmen entwickelt werden, wenn sie mehr als ein Werkzeug sein soll?

Interessanter Punkt. Man redet ernsthaft über „souveräne KI“. Ist KI aus verschiedenen Einflussbereichen unterschiedlich hinsichtlich der fundamentalen Werten, die in sie eingebaut werden? Könnte sie das aufgrund ihres privaten oder öffentlichen Hintergrundes sein? Das sind wesentliche Fragen. Man sieht das ja an dem Beispiel Wikipedia: Hohe Qualität, öffentliches Gemeineigentum, mit vielen Autoren, hoher Nutzen – komplett dem traditionellen Gewinnmodell entgegengesetzt.

Was halten Sie von der Angst, dass Arbeitsplätze von Robotern übernommen werden könnten?

Das ist einfach Teil der langen Geschichte der Ausbreitung der Automatisierung. Wir waren glücklich, dass wir in den letzten Jahrhunderten viele Formen körperlicher Arbeit automatisieren konnten. Jedes Mal hat es uns der Zugewinn an Produktivität und Wohlstand erlaubt, Gesellschaften neu zu organisieren, manchmal gerechter. Als wir Universitäten und Bildungseinrichtungen aufbauten, war ein Großteil davon Ergebnis des Wohlstands aus der industriellen Revolution. Bessere Gesundheitsversorgung und Bezahlung. Ein fundamentaler Kalkül des Kapitalismus ist, dass Konsum und Produktion einander ausgleichen müssen. Jemand muss am Ende des Fließbandes stehen und das Produkt kaufen, mit Geld oder irgendeiner Art von Wohlstand. Tatsächlich verlagern die Menschen ihre Fähigkeiten und Kräfte auf ganz neuartige Tätigkeiten: Spielshow-Moderatoren, Leute, die Bälle herumkicken. Wir werden in der Zukunft riesige Mengen an Pflegeaufwand benötigen. Oder Tourismus, die Freizeitindustrie. Soweit man das sehen kann, sind wir in einer Phase der Jobentstehung, nicht der Jobvernichtung.

Mehr zum Thema

Neueste Artikel