TechnologieKünstliche Intelligenz - Hype oder Hoffnung?

Seite: 2 von 5

Doch die Probleme sind auch hausgemacht: Die deutschen Unternehmen sind risikoscheu und investieren zu wenig. Und die Start-ups im Lande, von denen es zwischen 80 und 100 gibt, sind chronisch unterfinanziert oder zu schnell in ihrer Nische zufrieden. Ein großer Wurf aus Deutschland fehlt.

Deutlich wurde das deutsche Dilemma Anfang Oktober auf einer KI-Konferenz in München. Dort trat Jen-Hsun Huang auf, Chef des US-Technologiekonzerns Nvidia, der groß wurde mit der Entwicklung von Grafikkarten und heute der wichtigste Chipproduzent für KI-Anwendungen ist. Huang tigerte über die Bühne, in Lederjacke und glitzernden, schwarz-roten Turnschuhen. „Es wird Großartiges in Deutschland geleistet!“, rief Huang in den Saal. Nachfrage bei Jeff Herbst, der bei Nvidia für den Einstieg in andere Unternehmen zuständig ist: Investieren Sie auch in deutsche Firmen? Herbst überlegt. „Nein, es hat sich noch nicht ergeben“, sagt er.

Es ist ein altbekanntes Muster. Man könnte auch sagen: das deutsche Trauma seit der Erfindung des MP3-Formats. Alle loben die Vorarbeit der Deutschen, die Geschäftsmodelle entstehen woanders.

Im Grunde ist KI ja ein alter Hut. Erste Versuche, intelligente Maschinen nach dem Vorbild des Menschen zu bauen, gab es bereits in den 50er-Jahren. Der US-Forscher Marvin Minsky kam auf die Idee, die Funktionsweise des Gehirns nachzuahmen – zunächst mit Röhren und Kupplungen. Er war 1956 neben John McCarthy Teil eines Teams am Dartmouth College in New Hampshire, wo das erste offizielle KI-Projekt gestartet wurde. Pioniere gab es auch in Europa: Anfang der 60er-Jahre gründete der Wissenschaftler Donald Michie an der Universität von Edinburgh das Department of Machine Intelligence, die erste Abteilung ihrer Art an einer Hochschule.

Ein frühes Leuchtturmprojekt war der Roboter Shakey, der am Stanford Research Lab ab 1966 gebaut wurde und als erster mobiler Roboter Objekte erkennen, kurze Wege zwischen zwei Punkten und Handlungen planen konnte. Das „Life“-Magazin nannte ihn „die erste elektronische Person“. Ebenfalls 1966 schuf der Informatiker Joseph Weizenbaum das Sprachprogramm Eliza, das sich mit Menschen unterhalten und eine Konversation mit einem Psychologen nachahmen konnte. Im Jahr 1979 gab es den nächsten Meilenstein: Der Computer BKG 9.8 besiegte den Weltmeister im Backgammon Luigi Villa – das Spiel war ein Auftakt zu einer Reihe von spektakulären Duellen Mensch gegen Maschine, die bis heute andauert.

Trotz der Projekte blieben durchschlagende Erfolge aus – über die Jahrzehnte wechselten sich Euphoriephasen mit langen Jahren der Ernüchterung ab, dem „KI-Winter“.

Ab den 80er-Jahren machte die Forschung zu neuronalen Netzen wieder Fortschritte – dank eines Deutschen: Jürgen Schmidhuber. Der KI-Pionier forscht heute am Schweizer Institut IDSIA in Lugano. „Er hat unsere Technik als einer der Ersten vorangetrieben“, lobt heute noch Nvidia-Chef Huang. „Seine Arbeit ist fundamental.“

Künstliche neuronale Netze sind anders als herkömmliche Software, da sie nicht vorgegebene Befehle ausführen. Ihre Struktur, die aus in mehreren Schichten organisierten und untereinander vernetzen Knotenpunkten besteht, ist fähig, zu lernen und zu erinnern. Nach dem Trial-and-Error-Prinzip werden bei Erfolg bestimmte Verknüpfungen stärker und bei Misserfolg andere schwächer. Dafür muss das Netz mit Daten gefüttert werden, idealerweise mit Massen davon. Dann wird gerechnet – und am Ende kann das Netz zum Beispiel Hunde und Katzen auf Bildern auseinanderhalten. Das ganze nennt sich „Deep Learning“.