Künstliche Dummheit /2

Die großen Internetplattformen wie Google, YouTube, Facebook, Instagram, Twitter, usw. verfügen über Unmengen an BigData, die ihre User durch die Benutzung der Funktionen der jeweiligen Plattform produzieren und die sie, gestützt auf die Nutzungsbedingungen, dem Plattformbetreiber – mehr oder weniger willig – zur Verfügung stellen. Auf Basis dieser Daten und mit Hilfe der Algorithmen, die mit diesen riesigen Datenbeständen gefüttert werden, werten sie das Nutzerverhalten aus und versuchen, Muster zu erkennen oder Korrelationen zu entdecken, die es vor allem ermöglichen, dem jeweiligen Nutzer maßgeschneiderten Content und dazu passende Werbung zu präsentieren.

Kollateralschäden der Aufmerksamkeit

In einem ZEIT-Artikel 1 von C. Drösser heißt es dazu: “Das wertvollste Produkt der Internetriesen ist deshalb die Aufmerksamkeit der User, die gewinnbringend verkauft wird. Um diese begrenzte Ressource konkurrieren die Werber.” In dem Artikel geht es weiter um die Kollateralschäden, die durch diese ausschließliche Zielausrichtung auf die “Aufmerksamkeit” der User verursacht werden und die Unfähigkeit der Plattformbetreiber, dieser Probleme durch Algorithmen und den Einsatz von KI Herr zu werden. Ein Beispiel ist die Beeinflussung des Wahlkampfs in den USA im letzten Jahr aus Russland via Facebook, und der Artikel zitiert den demokratischen Senator Al Franken, der in einem Hearing des Kongresses den FB-Vizepräsidenten Colin Stretch fragt, wie FB, “das so stolz darauf sei, riesige Datenmengen zu verarbeiten, nicht habe erkennen können, ‘dass Wahlanzeigen, die in Rubel bezahlt wurden, aus Russland kommen’.” C. Rössler bemerkt dazu zu Recht: “KI-Systeme lernen nur aus den Mustern der Vergangenheit – für neue Phänomene sind sie blind.”

Das ist aber nur die halbe Wahrheit, das Problem ist vielschichtiger:

Große Datenmengen und künstliche Stupidität

Wenn man die BigData der Internet-Giganten so nennen will, so stammt das Weltwissen der jeweilgen “Künstlichen Intelligenz”, die mit den Datenbergen gefüttert wird, zum großen Teil aus den Nutzerdaten der Plattformen selbst. Was außerhalb dieser Plattformen vor sich geht, dafür sind diese Plattformen blind.

Darüber hinaus spielt die Auswahl der Daten, die z.B. für das Machine-Learning verwendet werden, eine wichtige Rolle bei der Leistungsfähigkeit des dadurch angelernten Modells. Es muss also zumindest einmal jemand auf die Idee kommen, die Information darüber, in welcher Währung ein kommerzielles Angebot von FB bezahlt wird, in irgendeinen Algorithmus, der die Aktivitäten auf der Plattform überwacht, als Input einzuspeisen.

Die einfache Schlussfolgerung, dass “Wahlanzeigen, die in Rubel bezahlt wurden, aus Russland kommen”, daher möglicherweise eine unzulässige Wahlbeeinflussung darstellen und deshalb unterbunden werden müssen, ist nicht so harmlos wie sie aus der berechtigten Perspektive des demokratischen Senators wirkt – zumindest nicht, wenn man ein Algorithmus bzw. eine Künstliche Intelligenz ist und dies automatisch erkennen soll.

Was gehört alles dazu, um diese Schlussfolgerung zu ziehen?

  • Man muss erkennen, dass es sich um eine Wahlanzeige handelt, schon das ist nicht einfach.
  • Man muss wissen, was eine demokratische Wahl ist, welchen Zweck diese hat und welchen Regeln sie unterliegt.
  • Man muss wissen, dass die Beeinflussung einer Wahl durch jemand von außerhalb des Landes, in der die Wahl stattfindet, nicht zulässig ist.
  • Man muss ein Konzept davon haben, was ein Land ist und dass es auf der Erde davon verschiedene mit unterschiedlichen Interessen gibt.
  • Man muss die Bezahlung in Rubel mit dem Land Russland verknüpfen können.
  • Man muss Konzepte darüber haben, was eine Währung ist, was man damit anfangen kann und wissen, dass der Rubel eine Währung ist.
  • usw. usf.

Man kann das fast endlos fortsetzen. Diese Zusammenhänge sind auch für Menschen erst mühsam zu lernen und die komplexen Dynamiken, Normen und Regeln eines sozialen Systems überfordern uns häufig. Muster und Korrelationen zu erkennen reicht dafür nicht aus, so einfach “ticken” wir (analogen) Menschen dann doch nicht. Wir sind ja selbst mit unserem sozialen Handeln die Quelle der enormen Komplexität moderner Gesellschaften, was übrigens nicht heißt, dass wir sehr gut darin sind, mit dieser selbst produzierten Komplexität kompetent umzugehen.

Neutral ist nur ein blanker Kupferdraht

Der Artikel in der ZEIT kommt zum Schluss, dass “der finanzielle Anreiz durch die Anzeigen” geradezu dazu herausfordere, die jeweilige Plattform zur eigenen Gewinnmaximierung zu manipulieren, und dass die Plattformbetreiber sich daher nicht damit herausreden könnten, dass sie nur eine neutrale Infrastruktur zur Verfügung stellen. Ohne Werbung fiele dieser Anreiz zwar weg, aber andere Interessen, nicht nur die finanziellen, könnten immer noch dazu motivieren, die Plattformen zu eigenen Zwecken zu missbrauchen (bspw. zur Wahlmanipulation).

Sobald eine aktive Verarbeitung ins Spiel kommt – eben durch die Algorithmen – ist es mit der Neutralität vorbei.

Es wäre eigentlich schon viel gewonnen, wenn über diesen Fakt nicht mehr diskutiert werden müsste. Dann könnten sich die Internetfirmen aber auch ihrer gesellschaftlichen und politischen Verantwortung nicht mehr so einfach wie bisher entziehen.


  1. Drösser, C. (2018, 8. Februar). Außer Kontrolle. DIE ZEIT, S. 35-36.