Richard Socher im Interview über Künstliche Intelligenz

Richard Socher ist Computerlinguist, erforschte als einer der ersten die Einsatzmöglichkeiten künstlicher neuronaler Netze (KNN) für die Sprachverarbeitung (Natural Language Processing, NLP) und leitet heute als Chefwissenschaftler ein großes Forschungsteam bei Salesforce.

Im Interview mit der ZEIT 1 äußert er sich über seine Arbeit allgemein und – für mich an diesem Interview das interessanteste – darüber, was Künstliche Intelligenz von menschlicher unterscheidet, und welche Eigenschaften nach seiner Auffasssung der Künstlichen Intelligenz vor allem noch fehlen, um zumindest mit der des Menschen gleichzuziehen. Im wesentlichen müssen die KI-Forscher “drei fundamentale Hindernisse” überwinden, sagt er, “an denen derzeit aber so gut wie niemand arbeitet”.

Zielfunktionen

“KI ist momentan sehr spezifisch, will eine ganz bestimmte Sache lösen und hat nicht die Möglichkeit, selbst ihre Zielfunktion zu verändern, sich also eigene Dinge auszudenken. Nur wir Menschen können das momentan. […] Künstliche Intelligenzen überlegen nicht, was sie nach Feierabend tun.”

D.h. eine KI überlegt nicht, was sie tun will, sondern führt die Aufgabe(n) aus, für die sie von Menschen entworfen und optimiert wurde. Eine KI verfolgt keine Absichten, verfügt über keine Intentionen und kann, um den Gedanken weiterzuführen, mit absichtsvollem Handeln von Menschen und ihren Intentionen auch nicht umgehen. Socher glaubt, dass wir Menschen ” – möglicherweise programmierte – zunehmend komplexer werdende Zielfunktionen in unserem Gehirn” haben. Im Unterschied zu Maschinen geben sich Menschen ihre eigenen Zielfunktionen, sie fragen sich: “Was will ich mit meinem Leben machen? Einige verfolgen anspruchsvolle Fragen, andere sagen nur: Ich will Essen, ein Haus, einen Partner und so weiter.”

Man könnte sich fragen, warum kaum jemand an diesen Fragestellungen arbeitet, sodass diesbezüglich auch in absehbarer Zukunft keine Weiterentwicklung zu erwarten ist, und auch darauf hat Socher Antworten: Start-ups, meint er, “wollen ein konkretes Problem lösen. Eine KI, die plötzlich existenzielle Fragen stellt, bringt die Firma nicht weiter.” Und für die universitäre Forschung sei es “schwer zu definieren, wie ein erfolgreiches Resultat ausschaut, das man publizieren kann.”

Die Verwendung des Begriffs der “Zielfunktion” in diesem Zusammenhang überrascht einerseits nicht, immerhin geht es um künstliche Intelligenz und Algorithmen, ist aber auch nicht selbstverständlich, wenn er zur Unterscheidung der Fähigkeiten der KI von menschlichen Fähigkeiten verwendet wird. Zielfunktionen sind zunächst einmal mathematische Gebilde, die in der Entscheidungstheorie oder auch bei der Lösung von Optimierungsproblemen verwendet werden. Meist gilt es in diesem Zusammenhang, das globale Maximum oder Minimum der Zielfunktion zu bestimmen, um so dem vorgegebenen Ziel möglichst nahe zu kommen. Die Zielfunktion ist also nicht das Ziel, sondern ein künstliches mathematisches Konstrukt, das selbst schon nur ein Abbild der Wirklichkeit ist, nicht die gesamte Wirklichkeit abbildet, sondern nur bestimmte Aspekte, die leicht zugänglich sein müssen und vor allen Dingen eines: messbar sein.

Darüberhinaus impliziert der Begriff der Zielfunktion, sofern angewendet auf den Menschen, dass der Mensch ein zweckrationales Wesen ist, der zwar Wahlfreiheit bezüglich seiner Ziele (der Zielfunktionen) besitzt, aber sobald diese gewählt wurden, sein Vorgehen rational so plant, dass das gewählte Ziel möglichst effizient und effektiv erreicht wird, der Wert der Zielfunktion also maximiert (oder minimiert) wird. – Das darf man aber spätestens nach den Erkenntnissen von Daniel Kahnemann2 durchaus in Frage stellen.

Allgemeinwissen, Logik, unscharfes Schließen, visuelles Verstehen

Richard Socher3 glaubt, dass die Kombination aus

  • umfassendem Allgemeinwissen
  • Logik
  • unscharfem Schlussfolgern
  • visuellem Verstehen

von aktuellen KI-Systemen nicht zu meistern ist. Manchmal seien z.B. Schlussfolgerungen, die auf der Basis von Allgemeinwissen gezogen werden können, logisch, manchmal auch nicht. Beispiel: “Nicht alle Vögel können fliegen, aber die meisten.” Visuelles Verstehen ermögliche es beispielsweise, zu erkennen, wenn Menschen in einen Raum gehen.

KI-Systeme, die heute (zumindest teilweise) eine der erforderlichen Fähigkeiten besitzen, beherrschen immer nur diese eine Fähigkeit (z.B. visuelles Verstehen), die anderen (z.B. “unscharfes Schlussfolgern”) aber nicht. Die Kombination all dieser Fähigkeiten geht Maschinen noch ab, Menschen können dies einfach.

Multitask-Lernen

An der Überwindung des dritten Hindernisses, dem “gleichzeitigen Erlernen mehrerer verschiedener Aufgaben” arbeitet Socher mit seinem Team bei Salesforce selbst: “Wir bauen Algorithmen, die verschiedene ähnlich gelagerte Aufgaben lösen können”.

Ein System “kann zehn verschiedene Aufgaben in Bezug auf Texte bearbeiten - Übersetzungen, Zusammenfassungen, die Analyse von Stimmungen, Fragen zu einem Text beantworten und so weiter. […] Unseres kann jetzt sogar neue Dinge tun, die wir gar nicht trainiert haben. Man nennt das Zero-Shot-Learning.”

Sie haben dem System bspw. einen Satz vorgelegt: “Brian hat einen Vortrag gehalten und niemand hat geklatscht.” Anschließend haben sie die Frage gestellt, ob Brian danach glücklich oder traurig ist. Das System wurde nicht mit speziellen Trainingsdaten für diese Frage trainiert, hat aber trotzdem richtigerweise mit dem Adjektiv “traurig” geantwortet. Eine der typischen einfachen Aufgaben, die für Menschen leicht, für Maschinen aber sehr schwer zu beantworten sind.


  1. Wegner, J. (2019, 17. April). Künstliche Intelligenzen überlegen nicht, was sie nach Feierabend tun. DIE ZEIT, S. 29–30. 

  2. Kahneman, D. (2012). Schnelles Denken, langsames Denken. München: Siedler. 

  3. Persönliche Home Page von Richard Socher: socher.org