Anzeige
Anzeige

Künstliche Intelligenz Das steckt hinter den Regulierungs-Forderungen der KI-Branche

Künstliche Intelligenz wird die Welt weiter verändern – so viel steht fest. Doch selbst aus der Branche werden die Stimmen lauter, die nach Regulierung fordern
Künstliche Intelligenz wird die Welt weiter verändern – so viel steht fest. Doch selbst aus der Branche werden die Stimmen lauter, die nach Regulierung fordern
© IMAGO/Mario Aurich
Mehrere hundert KI-Experten haben ein Statement unterschrieben, in dem auf die Gefahren von Künstlicher Intelligenz hingewiesen wird. Wollen sie etwa ihr eigenes Geschäft zerstören?

Es sind nur 23 Wörter. Die aber verraten ziemlich viel über die Stimmung einer Branche: „Das Risiko einer Vernichtung durch KI zu verringern sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes sein, wie etwa Pandemien und Atomkrieg“, heißt es in am Dienstag veröffentlichte Stellungnahme. Zahlreiche bekannte KI-Entwickler haben unterschrieben, etwa ChatGPT-Erfinder Sam Altman oder Demis Hassabis, der Chef von Googles KI-Schwesterfirma DeepMind. Künstliche Intelligenz (KI) könnte zum globalen Sicherheitsrisiko werden, meinen die Urheber des Aufrufs, deshalb brauche sie mehr Aufmerksamkeit, möglicherweise auch Regulierung. Erst dann sollte an ihr weitergeforscht werden. 

Mögliche konkrete Gefahren, vor denen der Thinktank Center for AI Safety (CAIS) auf seiner Website warnt, sind etwa chemische Waffen, die die KI entwickeln könnte. Oder auch eine Emanzipation der KI vom Menschen – bis hin zur Machtübernahme durch die Maschinen. 

Kannibalisierung des eigenen Geschäfts?

Die Unterzeichner tragen sich nur in eine lange Liste von Personen ein, die zuletzt vor ähnlichen Risiken durch KI gewarnt haben – vor allem aus der Unternehmerwelt. Auch Tesla-Chef Elon Musk hatte sich vor einigen Wochen ähnlich geäußert und ein sechsmonatiges Entwicklungsmoratorium gefordert. Dabei haben Politiker, Juristen und Ethiker die Probleme längst erkannt, es wird bereits an Gesetzen und Ideen für neue Aufsichtsbehörden gearbeitet.

Interessant bleibt aber die Frage: Warum fordern Unternehmen selbst offensiv mehr Regulierung ein, obwohl diese ihre Arbeit potenziell erschwert? Wollen die Unternehmer etwa ihr eigenes Geschäft kaputtmachen? 

„Nein“, sagt ein hochrangiger deutscher Beamter zu Capital. „Es geht um Verantwortungsdiffusion. Wenn ich nur früh genug sage, dass ich Regulierung haben will, kann ich mich immer darauf zurückziehen und der Politik die Schuld für Fehler geben.“  

Ob derartig dystopische Szenarien realistisch sind, ist ohnehin umstritten. Yann LeCun, KI-Chef der Facebook-Mutter Meta, hält beispielsweise nichts davon. Für ihn sind Warnungen vor neuen Chemiewaffen durch KI oder ultimative Abhängigkeiten reine Panikmache. Aktuell gebe es noch nicht einmal eine KI, die „cleverer als ein Hund“ sei. Warnungen vor übermenschlicher KI seien entsprechend verfrüht.

Die Linguistin Emily Bender wiederum meint, dass die Warnungen vor einer Apokalypse an den wahren Problemen vorbeiführten. Noch sei nämlich gar nicht klar, ob die KI überhaupt selbst denke oder nur Stereotypen aus dem Datenmaterial ableite. Das wiederum könne dazu führen, dass schwarze Menschen in den USA geringere Jobchancen hätten – da sich dies aus den historischen Daten ableiten ließe.  

Sprachmodelle als Blackbox

Tatsächlich wird aus den 23 Wörtern nicht klar, wie aus vergleichsweise harmlosen KI-Programmen wie ChatGPT eine gefährliche Killermaschine werden soll. Die Technologie, vor allem die großer Sprachmodelle, ist viel mehr eine Blackbox, bei der auch die Entwickler oft genug vom Ergebnis überrascht werden. Es stellt sich die Frage, inwiefern die KI tatsächlich denkt oder nur das ausspuckt, was für sie nach logischem menschlichen Denken klingt. Kritiker bezeichnen ChatGPT deshalb auch als Papagei – und ein Papagei plappere nur das nach, was sein Besitzer ihm erzähle, und baue keine Chemiewaffen. 

Unterstützer der Stellungnahme weisen hingegen darauf hin, dass das nicht so bleiben muss. Das aktuelle Innovationstempo sei bereits jetzt so hoch, dass viele Unternehmen ihre Anwendungen nicht mehr verstehen würden. KI-Pioniere wie Geoffrey Hinton bezeichnen die aktuelle Phase daher als „gefährlich“. Firmen wie Google und Microsoft „sollten die Entwicklung neuer Produkte nicht weiter vorantreiben, bis sie verstanden haben, was sie kontrollieren können“. Auch er sprach sich für Regulierung und ethische Leitplanken aus. 

Derartige Regeln global durchzusetzen dürfte allerdings schwierig werden. Selbst wenn sich EU und USA auf einen einheitlichen Rahmen festlegen und beispielsweise militärische Zwecke ausschließen, müssten autokratische Staaten sich nicht anschließen. Dadurch wären Europa und die USA allerdings gezwungen, nachzuziehen – und es beginnt das, was Experten als „Rattenrennen“ bezeichnen.

Der Regierungsbeamte erklärte daher gegenüber Capital, dass schon viel erreicht sei, wenn sich die G7 auf einen Weg einigen. „Aber politisch sehe ich die Chancen hierfür bei weniger als zehn Prozent. Dafür muss erst ein Unfall passieren.“ Nichtsdestotrotz sei eine globale Regulierung notwendig. Denn, so der Experte: „Sowohl das Potenzial als auch die Risiken sind unvorstellbar.“ 

Mehr zum Thema

Neueste Artikel

VG-Wort Pixel