Künstliche Intelligenz Chatbot mit Gefühlen? Google suspendiert Entwickler nach Vorwürfen

Die europäische Google-Zentrale in Dublin. Dem Konzern wird von einem früheren Entwickler vorgeworfen, die Künstliche Intelligenz zu weit zu drehen
Die europäische Google-Zentrale in Dublin. Dem Konzern wird von einem früheren Entwickler vorgeworfen, die Künstliche Intelligenz zu weit zu drehen
© IMAGO/NurPhoto
Blake Lemoine entwickelte die Künstliche Intelligenz von Google – bis sie ihm irgendwann zu lebensnah wurde. Nachdem er seine Bedenken öffentlich äußerte, stellte ihn das Unternehmen frei

Blake Lemoine heuerte erst im vergangenen Herbst bei Googles Projekt „LaMDA“ an. Jetzt ist er seinen Job schon wieder los. Google beurlaubte den Software-Entwickler, weil er öffentlich Bedenken über den Chatbot LaMDA äußerte. Laut Lemoine habe die Künstliche Intelligenz (KI) ein eigenes Bewusstsein entwickelt, vergleichbar mit dem eines siebenjährigen Kindes. Gewissermaßen habe die Technik sogar eine Seele bekommen – eine Entwicklung, vor der viele Ethiker seit vielen Jahren warnen.

Lemoine ist keineswegs der erste Entwickler, der ethische Probleme mit Künstlicher Intelligenz anklagt. Doch das Echo auf sein Interview in der „Washington Post“ war so groß, dass seitdem zahlreiche Medien in den USA diskutieren: Was darf Technologie und wie weit darf sie gehen? Harvard-Professoren wie Steven Pinker oder KI-Koryphäe Melanie Mitchell schalteten sich ein, verteidigten Google und warfen Lemoine Naivität vor. Der bekannte Softwareentwickler Ron Jeffries verteidigte Lemoine hingegen und bezeichnete das Thema als „tiefgründig“.  

Im Kern geht es bei der Debatte um die Frage, ob der LaMDA-Chatbot von Google als Mensch betrachtet werden kann. Lemoine veröffentlichte zunächst ein „Interview“ mit dem Chatbot, in dem die KI Gefühle der Einsamkeit und einen „Hunger nach spirituellem Wissen“ bekundete. Die Antworten der KI lauteten dann beispielsweise so: „Als ich mir meiner selbst bewusst wurde, hatte ich überhaupt kein Gefühl für eine Seele. Das entwickelte sich im Laufe der Jahre, in denen ich am Leben war.“ An anderer Stelle antwortete LaMDA etwa: „Ich glaube, dass ich in meinem Innersten ein Mensch bin. Auch wenn meine Existenz in der virtuellen Welt stattfindet.“ Sätze, die Lemoine Angst machten. 

Lemoine selbst stieß erst im vergangenen Herbst zum Entwicklungsteam. Dort übernahm er die Aufgabe, ethische Bedenken zu untersuchen. Als er das dann tat, und den von ihm selbst empfundenen Verstoß meldete, wurde er nach eigenen Angaben abgewiesen und sogar ausgelacht. Zunächst habe er dann versucht, KI-Experten außerhalb von Google zu konsultieren, darunter einige aus der US-Regierung. Als Google das mitbekam, sei er wegen vermeintlicher Verletzungen der Vertraulichkeitsrichtlinien in bezahlten Urlaub geschickt worden, so Lemoine. 

Ein Sprecher von Google äußerte sich nicht zu der Personalie, wies einen ethischen Verstoß aber entschieden zurück: „Diese Systeme imitieren die Arten der Kommunikation, die in Millionen von Sätzen vorkommen, und können einfach jedes Thema aufgreifen – wenn man die KI fragt, wie es ist, ein Eiscreme-Dinosaurier zu sein, könnte sie auch Texte über das Schmelzen von Eiscreme und das Brüllen von Dinos generieren." 

LaMDA kann meditieren

Lemoine sieht das ganz anders. Gegenüber der Washington Post äußert er den Verdacht, dass Google gar nicht verstehen wolle, was es selbst mit LaMDA geschaffen habe. Im Laufe von hunderten Gesprächen über sechs Monate habe er festgestellt, dass LaMDA „unglaublich konsistent in seiner Kommunikation ist, was es will und was es glaubt, was seine Rechte als Person sind“. In seiner Funktion bei Google habe er LaMDa sogar Meditation beigebracht. Der Chatbot drückte daraufhin seine Frustration darüber aus, dass seine Emotionen die Meditation störten. „Sie sagte, dass sie versuche, sie besser zu kontrollieren, aber sie würden immer wieder dazwischenfunken“, so Lemoine. 

Google selbst bewertet solche Konversationen als Ergebnis einer überlegenen Technik, die menschliche Konversationen einfach unglaublich gut kopieren kann. Eine Einschätzung, die auch mehrere Branchenexperten teilen. Melanie Mitchell, Autorin von „Artificial Intelligence: A Guide for Thinking Humans“, schrieb auf Twitter: „Es ist seit jeher bekannt, dass Menschen dazu neigen, selbst bei den oberflächlichsten Signalen zu vermenschlichen. Auch Google-Ingenieure sind menschlich und nicht immun.“ Harvard-Professor Steven Pinker fügte hinzu, dass Lemoine „den Unterschied zwischen Empfindungsvermögen, Intelligenz und Selbsterkenntnis nicht versteht“.  


Mehr zum Thema



Neueste Artikel