So ein Satz hat es in sich: „Das Risiko der Auslöschung durch Künstliche Intelligenz einzugrenzen, sollte eine ebenso hohe globale Priorität haben wie andere Risiken der Menschheit, etwa durch Pandemien oder einen Nuklearkrieg.“ Es war keine seitenlange Erklärung, die die Welt diese Woche aufrüttelte, sondern nur dieser eine Satz, und er erlangte seine Wucht und Dringlichkeit genau dadurch, dass er auf die übliche Phrasenhaftigkeit und Redseligkeit von Appellen verzichtete.
Der Satz verstörte aber nicht nur durch seine technokratische Schlichtheit – sondern auch durch seine Unterzeichner. Denn es waren nicht besorgte Bürger, die da zur Regulierung der Künstlichen Intelligenz aufriefen. Vielmehr waren es ihre Schöpfer selbst, allen voran Sam Altman, Gründer des Unternehmens OpenAI und der Kopf hinter der sehr populären KI-Anwendung ChatGPT. Dazu Tech-Größen wie Bill Gates und Dutzende Chef-Entwickler und Vordenker von KI-Anwendungen aus US-Konzernen wie Google, Microsoft und Meta.
Dabei hatte doch derselbe Sam Altman, gerade auf Welttournee, wenige Tage zuvor noch auf seiner Station in München behauptet: Wolle man sein Tool dazu benutzen, „um damit Bomben zu basteln, wird es das verweigern“. Wo also liegt das Problem?
Welche Interessen verfolgen Altman und Kollegen?
Der verlockende Widerspruch zwischen dem, was rational klug oder ethisch geboten ist, und dem, was Menschen tatsächlich machen, gehört zu den großen Rätseln der Menschheit. Ihn wird vermutlich auch keine Künstliche Intelligenz auflösen. Anders lässt sich ja nicht erklären, wie einer der wichtigsten Antreiber der KI sich zugleich zu einem der größten Mahner und Warner der KI aufschwingen kann. Es sei denn, und hier wird es spannend, es geht Altman und Kollegen gar nicht um die Gefahren ihrer Erfindungen, sondern um ganz andere Interessen.
Zunächst einmal muss man festhalten, dass Anwendungen wie ChatGPT oder Googles Bard einerseits revolutionär sind, andererseits aber auch hilf- und harmlos. Sie sind im Grunde genommen eine beeindruckende Weiterentwicklung dessen, was wir heute schon mit Suchmaschinen wie Google jeden Tag dutzendfach nutzen: ein Hilfsinstrument, um die endlosen Weiten des Internets nach relevantem Wissen zu durchsuchen. Nur, dass wir bisher mehr oder minder passende Treffer erhielten, die wir dann weiter flöhen mussten – und nun eben sehr gut kuratierte Zusammenfassungen, Ratschläge oder tatsächlich beeindruckende Formen scheinbarer Kreativität: Bitten Sie doch mal ChatGPT zum nächsten Hochzeitstag, ein Gedicht für Ihren Partner oder Ihre Partnerin zu schreiben. Sie werden damit glänzenden Erfolg haben.
Erstmals in der Geschichte der Menschheit bekommt die Maschine menschliche Fähigkeiten. Sie macht sich deshalb noch nicht selbstständig, sie baut auch keine Bomben und kann auch noch nicht frei denken (denn sie greift immer nur auf vorhandenes Wissen im Netz zurück), aber das, was sie daraus macht, hat in vielen Bereichen eine verblüffend menschliche Qualität. Allerdings: Das sagt nicht nur etwas aus über die Fähigkeiten dieser neuen Maschinen, sondern auch darüber, was wir so mit dem lieben langen Tag anstellen und was wir bereit sind, zu delegieren.
Natürlich bergen solche Anwendungen Gefahren: die Manipulation der öffentlichen Meinung, das Verbreiten von Fake News, das Schüren und Aufwiegeln von bestimmten Stimmungen. Das Bild von Papst Franziskus in einer weißen Daunenjacke war noch lustig, doch vor einigen Tagen verbreitete sich in sozialen Medien das Bild einer Explosion am Pentagon. Es bewegte unmittelbar die Märkte – bis sich relativ bald herausstellte, auch dieses Bild war eine Fälschung.
Die KI-Pioniere stören sich an der EU-Regulierung
Überhaupt stellt sich die Frage, was künftig eigentlich noch wahr und verifizierbar ist, wenn wir immer mehr Generierung von Wissen der Künstlichen Intelligenz überlassen. Zumal wir eben gar nicht so genau wissen und verstehen, wie die Künstliche Intelligenz arbeitet, wie sie lernt und sich entwickelt, und was in Systemen wie ChatGPT genau passiert. Man muss also schon besonders blauäugig oder besonders skrupellos sein, um sich allein auf die neue Künstliche Intelligenz zu verlassen.
Was uns wieder zu der Frage zurückbringt, was die KI-Erfinder wohl zu ihrem Weckruf motiviert hat. Blauäugigkeit und Verunsicherung können wir ziemlich sicher ausschließen.
Ein Motiv brachte Sam Altman bei seinem Europa-Besuch selbst auf, zumindest indirekt: Die KI-Pioniere aus den USA stören sich daran, dass die EU ihre Arbeit regulieren will. Tatsächlich kann man auch Zweifel haben, ob alles immer so klug ist, was in Brüssel und Straßburg an Vorschriften und Regeln ersonnen wird – zumal Europa in der Digitalwirtschaft und gerade in der Entwicklung der Künstlichen Intelligenz nicht gerade durch besonderen Ehrgeiz und hohes Tempo aufgefallen ist. Allerdings wäre es eben auch das allererste Mal, dass ein mächtiger Wirtschaftsraum wie die EU Regeln für KI-Anwendungen beschließt. So etwas hat immer Signalwirkung, auch für die USA.
Altmans Position in diesem Ringen klang ein bisschen nach der düsteren Methode eines mächtigen Paten. Auf die Frage des „Spiegel“, ob er ChatGPT in Europa abschalten werde, wenn die EU-Regulierung wie angedacht komme, antwortete er: „Sollten wir aber am Ende technische Vorgaben nicht einhalten können, werden wir nicht gegen das Gesetz verstoßen.“ Und noch mal: also abschalten? „Wir wollen mithelfen, dass es in eine gute Richtung geht und mit der EU zusammenarbeiten.“ Noch vager kann man eine klare Drohung nicht formulieren.
Das zweite Motiv kennt man von den eigenen Kindern, wenn mal wieder etwas schiefgegangen ist – wenn etwa in der Hektik des Frühstücks ein Wasserglas umgekippt wurde und nun die Toastbrote über den Tisch schwimmen: „Wieso, Ihr habt doch das Glas so voll gemacht!“ Juristen und Philosophen sprechen von Verantwortungsdiffusion oder dem Versuch, sich vorauseilend von jeder Haftung freizusprechen, getreu der Devise: „Ist ja nicht unsere Schuld, wenn etwas schiefgeht, schließlich haben wir ja früh genug davor gewarnt.“
Wer haftet?
Natürlich braucht die Künstliche Intelligenz und ihre Anwendung Regeln, vor allem aber braucht sie: Haftung. Wer haftet, wenn durch ein KI-Angebot ein Schaden entsteht, Falschmeldungen und Gerüchte einen Mob aufwiegeln oder die Märkte abstürzen lassen? Allerdings: Diese Haftung gibt es heute im Prinzip schon. In unserer Rechtsordnung haftet nicht die Künstliche Intelligenz, mag sie noch so intelligent sein. Sondern immer ihr Urheber, der sie in Umlauf bringt, sei dies ein Unternehmen oder eine natürliche Person. Im Fall von ChatGPT also: Sam Altman und sein Unternehmen OpenAI.
Die Künstliche Intelligenz wird vieles umkrempeln, sie wird in alle möglichen Prozesse in Unternehmen Einzug halten und auch in unser tägliches Leben. Ihre Entwicklung wird große Teile unserer Wirtschaft und unseres Alltags so grundlegend verändern wie es einst die Erfindung des Buchdrucks, der Dampfmaschine, des Automobils und das Internet getan haben. (Das allein spricht übrigens schon dagegen, als Anleger an der Börse jetzt alles auf einige wenige KI-relevante Unternehmen wie Nvidia zu setzen – sie kommen jetzt zu spät zur Party. Aber es gibt eine Vielzahl von Unternehmen, die KI vorantreiben und adaptieren und in die man sehr breit investieren kann.)
Und ein versöhnlicher Gedanke zum Abschluss, ein bisschen auch in eigener Sache: Da, wo das Automatisierte zum Standard wird, wird das Menschliche zur Ausnahme und zum Qualitätsmerkmal. Das gilt für das gute Handwerk, das ja auch ganz ohne KI heute schon so begehrt ist und es künftig noch mehr sein wird, ebenso wie für die Kunst, das Theater und auch für den guten Journalismus: Für einen Journalismus, der sich Zeit nimmt, der eintaucht, der gegen Widerstände sucht und aufdeckt. Der die Authentizität einer Recherche vor Ort bietet, die umfassende Analyse mit überraschenden Einsichten ebenso wie gute Unterhaltung und Humor: All das kann KI (noch lange) nicht – das kann nur der Mensch.