InterviewNigel Shadbolt: Keine Angst vor Künstlicher Intelligenz

Seite: 2 von 3

Beim Turing-Test geht es ja auch nur um die Nachahmung oder die Simulation von Intelligenz.

Richtig. Das ist eine interessante philosophische Frage. Philosophen sagen, es gäbe keine Garantie, dass ich beweisen kann, dass Sie da drin sind, wenn Sie mich anschauen. Aber mal abgesehen von den philosophischen Rätseln – ich denke nicht, dass unsere KI dieses Problem in den nächsten 20, 30, 40 Jahren lösen wird.

Dennoch kann KI ja auf spezialisierte Weise sehr intelligent sein: Sie schlägt uns in Schach, Go usw. Ist KI schlau genug, um gefährlich zu sein?

Ja. Wir haben die Wahl, ob wir so dumm sind, unser Schicksal von solchen Systemen abhängig zu machen, ohne dass menschliche Entscheidungen einbezogen sind. Militärische Systeme vollständig zu automatisieren, das ist eine beängstigende Vorstellung oder die Festsetzung eines Strafmaßes durch Algorithmen. Wir machen uns heute schon Sorgen um solche Fragen, wenn es etwa darum geht, wer über unsere Kreditwürdigkeit entscheidet. Es gibt sicherlich Gefahren. Die frühe Geschichte dieses Themas entstammt Konflikten. Ob es das Entschlüsseln von Nachrichten ist oder selbstgesteuerte Waffen. Die Idee war, Technologie vorausschauend handeln zu lassen.

Wie müssten Kontrollen von KI aussehen?

Da werden wir viele Debatten führen, die sich um Regulierung, staatliches Handeln und Ethik drehen. Je mehr Konzernkonzentration wir sehen, Datenmonopole zum Beispiel, kommt die Frage auf, wie man eine Übermacht einzelner Unternehmen verhindern kann. Werden Entscheidungen angemessen und gerecht getroffen?

Reden wir zu viel über die Gefahren der Technologie, wenn wir über die Gefahren der Technologieunternehmen reden sollten?

In die Hände sehr weniger Menschen fallen Entscheidungen, die uns alle betreffen. Angefangen mit den Steuern – und es ist schön, große Wohltätigkeitsorganisationen auf den eigenen Namen zu taufen. Aber ehrlich gesagt, warum haben sie die größte Ahnung, wie dieses Geld ausgegeben werden sollte? Wenn wir diese Organisationen ernst nehmen sollen, müssen sie die öffentlichen Institutionen respektieren. Es ist nicht genug, nichts Böses zu tun und ein wenig Gutes. Wenn man überlegt, was es bedeutet, Gutes zu tun, dann ist es: kein Trittbrettfahrer sein. Es bedeutet, das Bestimmungsrecht der Menschen über ihre Daten zu respektieren. Es bedeutet, einen Teil der Daten nicht-persönliche, gemeinfrei zu veröffentlichen. Deswegen unterstützen Tim Berners Lee und ich die Open Data Initiative. Riesige Innovation ist möglich, wenn wir alle an bestimmte Daten kommen können. Es geht darum, dass Organisationen sich genauso um das öffentliche Interesse sorgen wie um das private. Manchen Leuten ist das ein Gräuel. Ich möchte in der Art von Gesellschaft leben, wo man das fordern kann. Ich frage mich, ob das langfristig dazu führt, dass wir darüber nachdenken, manche der Besitztümer, die derzeit sehr privat gehalten werden, zu vergemeinschaften.

Wie würde das funktionieren?

Im Grunde genommen als Genossenschaften mit Abkommen, sich digitale Güter zu teilen, Patente und andere Dienstleistungen. Die könnten in einer an Zünfte angelehnte Art zur Verfügung gestellt werden. Es gibt interessante Beispiele für Peer-to-Peer-Modelle oder Data Trusts, wo die Daten vor späterer Privatisierung geschützt sind. Daten sind eine neue Art von Infrastruktur. Wenn sie ganz in privaten Händen landen, sollte uns das besorgt machen.