Interview„Wir arbeiten daran, dass Alexa glücklich klingt“

Seite: 3 von 3
Ralf Herbrich startete seine Karriere bei Microsoft, wo er ein Zukunftslabor in Großbritannien leitete (Foto: Alexander Gehring)

Wo helfen Sie der deutschen Industrie dabei, KI mitzuentwickeln?

Mit Amazon Web Services bauen wir das Angebot für KI-Dienste für externe Anwender immer weiter aus. Diese Services nutzen auch sehr viele Start-ups.

Geht´s konkreter?

Nehmen Sie mal irgendeine Firma, die ihre Kundenzufriedenheit messen will: Deren Kunde macht ein Selfie von sich und beantwortet eine Frage à la „are you happy today?“ Der AWS Service Amazon Rekognition erkennt den Inhalt des Bildes – also das Gesicht –und analysiert, ob es beispielsweise zu 80 oder nur zu 60 Prozent „happy“ ist. Kunden zahlen pro Klassifikationen und müssen keinen eigenen Data-Scientist einstellen, denn diese Spezialisten sind generell schwer zu finden. Industriekunden bietet AWS beispielsweise einen Teil der KI-Services an, die auch Amazon selber nutzt. Die Brücke dafür sind die Cloud-Dienste – die Amazon Web Services, die verlässlich wie Strom aus der Steckdose oder Wasser aus dem Wasserhahn beziehbar sind.

Zalando zählt zu Ihren Kunden.

Genau. Zalando hat einen riesigen Produktkatalog, und die Rechenkapazitäten für die Zalando-Bestellungen laufen über Amazon Web Services, wo auch die Kundentransaktionen stattfinden.

Amazon wandelt sich gerade zum IT-Unternehmen?

Amazon war schon immer ein Tech-Unternehmen. Bei der AWS-Konferenz re:Invent 2017 in Las Vegas hat Amazon gerade gezeigt, wie Unternehmen die Cloud-Computing-Dienste für ihre IT nutzen können. Zu den neuen Machine Learning-Diensten gehören beispielsweise Übersetzungen großer Textmengen in Echtzeit durch Amazon Translate oder Amazon Comprehend. Bei letzterem wird maschinelles Lernen genutzt, um Zusammenhänge in Texten zu identifizieren und so Einsichten zu gewinnen.

Helfen Sie uns mal, wann spricht man eigentlich von KI und wann von Datamining?

KI hat drei Komponenten: Die erste ist die Darstellung von Wissen. Früher hat man ein System intelligent gemacht, indem man bei Experten Wissen abfragte, um daraus eine „Wenn-Dann-Vorhersage“ darzustellen. Die zweite Komponente ist das Lernen von Regeln. Statt sie wie in der Vergangenheit aufzuschreiben, geht man dazu über, Regeln aus der Beobachtung mithilfe von Sensorik heraus aufzunehmen und zu erlernen – im Bild- und Tonbereich, aus Positionen und vielen Annotationen. Das System erkennt die Regeln also aus digitalen Beobachtungen, wertet sie aus und gibt diese Regeln aus. Die dritte Komponente ist das Agieren mit der physischen Umgebung – beispielsweise die Bildschirm-Anzeige, der Lautsprecher-Ton oder das Steuern von Roboterarmen oder des Autos.

Zusammen ist KI üblicherweise die Darstellung von Wissen, das Lernen von Regeln, und die Anwendung von Regeln. Maschinelles Lernen ist der zentrale Teil der Auswertung, wie diese Regeln aus der physischen in die digitale Welt gelangen. Dabei hilft heute die Zunahme an Sensorik-Daten.

Wie im Supermarkt ohne Kasse, bei Amazon Go?

Im Moment ist das noch ein Experiment in Seattle mit dem Ziel, dass kein Kunde mehr an der Kasse Schlange stehen muss. Der Shop wird zurzeit mit Mitarbeitern getestet. Ich war drin und es funktioniert erstaunlich gut: Man identifiziert sich mit einem Barcode am Eingang, packt alles in die Tasche und geht einfach raus. Die Kameras sehen den Kunden, Sensoren erfassen, was er greift oder wieder zurücklegt. Jedes Produkt mit einem eigenen Sensor auszustatten würde zu viel kosten. Amazon Go ist gutes Beispiel, wie ein KI-System funktioniert: Wird ein Produkt gegriffen oder zurückgelegt? In welcher Tasche landet es? Wenn der Kunde den Shop verlässt, erhält er die Rechnung umgehend per App. Hier wird die Anwendung von Intelligenz sichtbar.

Es passiert leider häufig, dass Unternehmen Wissenschaftler abwerben. Ich sehe das kritisch, weil aus diesen Instituten ja die künftigen Wissenschaftler kommen sollen.

Ralf Herbrich

Wie wichtig ist für Amazons KI der Standort Deutschland?

In Berlin haben wir eines der größten Machine Learning-Teams von Amazon weltweit. Für uns zählt Deutschland, neben weiteren Standorten wie Barcelona und Cambridge, wegen seiner wissenschaftlichen Stärke und der hoch qualifizierten Leute zu den wichtigsten Standorten. Hier in Berlin haben wir nicht nur vier Universitäten und zahlreiche Forschungsinstitute, sondern auch ein großes Start-up-Umfeld.

Ziehen Sie auch Brain aus den Instituten raus?

Nein, wir arbeiten in einer Symbiose mit der Wissenschaft. Es passiert leider häufig, dass Unternehmen Wissenschaftler abwerben. Ich sehe das kritisch, weil aus diesen Instituten ja die künftigen Wissenschaftler kommen sollen. Gemeinsam mit der TU Berlin hat Amazon ein Postdoktoranden-Modell. Dabei arbeiten die Postdocs vier Tage bei uns und einen Tag am TU-Institut für Datenbanksysteme und Informationsmanagement von Prof. Volker Markl. Umgekehrt ist es beim Programm Amazon Scholar. Hier können Wissenschaftler ein Urlaubssemester oder einen Forschungsaufenthalt flexibel für Projekte bei Amazon nutzen. Derzeit sind zwei Direktoren der Max-Planck-Gesellschaft bei uns. Und unser CEO macht es uns ja vor: Jeff Bezos ist vier Tage bei Amazon und einen Tag beim Raumfahrtunternehmen Blue Origin, das Modell läuft offensichtlich ganz gut. (Lacht.) Brain Drain ist gefährlich, weil das die Zukunft vernichtet.

Gibt es einen Engpass?

KI ist ein heißumkämpftes Talentfeld. Viele KI-Wissenschaftler kommen aus der Statistik und haben Informatik-Kenntnisse, einige kennen sich mit technischer Informatik aus. Aber künftig brauchen wir mehr Menschen an dieser Schnittstelle, die uns sagen, bis wohin die Bearbeitung riesiger Datenmengen überhaupt noch wirtschaftlich ist. Die Kosten für Rechenkapazitäten spielen in Zukunft eine immer größere Rolle. Hier ist der Mensch noch immer die sparsamste Energiequelle. Bis Rechnerprozessoren so effizient sind wie das menschliche Gehirn, dauert es aber noch eine Weile.