UnstatistikWo Facebooks Algorithmus versagt

Hat ein Facebook-Algorithmus Donald Trump zum Wahlsieg verholfen? Ein Artikel in der Schweizer Zeitschrift „Das Magazin“ hatte diese Behauptung aufgestellt. Big-Data-Methoden sollen demnach dem Republikaner die entscheidenden Stimmen gebracht haben. Ob es diesen Zusammenhang tatsächlich gibt, ist lang und breit diskutiert. Die Unstatistik stellt eine andere Frage: „Warum wird nicht auch der Algorithmus selbst hinterfragt?“

Grund dazu gebe es, schließlich behaupte der Entwickler des Algorithmus, dass er aufgrund von „Gefällt-mir“-Angaben, psychometrischer Tests und dem Facebook-Profil einer Person genaue Aussagen über ihre Persönlichkeit treffen könne. Mit einer 88-prozentigen Wahrscheinlichkeit ließe sich die sexuelle Orientierung eines Mannes bestimmen.

Dabei so die Unstatistiker bestimme diese Zahl gar nicht die Genauigkeit der Prognose: „Tatsächlich bedeutet das Ergebnis: Nimmt man je eine Person pro Gruppe, also einen homosexuellen und einen heterosexuellen Mann, so kann man diese mit einer Wahrscheinlichkeit von 88 Prozent ihren richtigen Gruppen zuordnen.“ Die Prozentzahl beziehe sich auf den Vergleich zwischen den Gruppen, nicht auf die Prognosegüte an sich.

Algorithmus verstärkt Vorurteile

Aber auch eine echte Wahrscheinlichkeitsaussage wäre mit Vorsicht zu genießen. Die Unstatistik verdeutlicht das an einem Beispiel. Die Wissenschaftler gehen von der Annahme aus, dass in der Gesamtbevölkerung zehn Prozent der Menschen homosexuell sind. Demnach wären von 10.000 Menschen 9000 hetero- und 1000 homosexuell. „Wer alle Menschen als heterosexuell klassifizierte, überträfe den Algorithmus schon um zwei Prozentpunkte, läge aber bei den Homosexuellen sicher falsch.“

Und weiter: „Ein etwas komplexerer Algorithmus, der in beiden Gruppen eine Korrektheit von 88 Prozent besäße, würde in der ersten Gruppe 7920 Personen als hetero- und 1080 fälschlicherweise als homosexuell einschätzen. In der zweiten Gruppe werden 880 Personen korrekt eingeschätzt, 120 falsch. Aufaddiert wird also für 1960 Personen die Aussage getroffen, dass sie homosexuell sind. Davon sind aber tatsächlich nur 880 homosexuell, was zu einer Treffsicherheit von nur etwa 45 Prozent führt.“ Das sei eine ziemlich enttäuschende Leistung, meinen die Statistikprofis. Bei Frauen liefert der Algorithmus ein noch schwächeres Ergebnis ab, da bei ihnen die Trefferwahrscheinlichkeit nur bei 75 Prozent liege.

Das Urteil der Unstatistiker fällt vernichtend aus: Wer wisse, dass er homosexuell ist, dem verrate der Algorithmus nichts Neues. „Wenn Sie sich nicht sicher sind und Sie die Diagnose ‚homosexuell’ erhalten, dann ist die Diagnose wahrscheinlich ein Irrtum.“ Selbst wenn alle Daten korrekt wären, sei der Algorithmus kaum mehr als eine Formalisierung von Alltags-Klischees. Demnach werden Männer, die sich für Make-Up und Mode interessieren, schnell als homosexuell eingestuft. Genauso arbeite auch der Algorithmus. Wir sollten uns eher darüber Sorgen machen, „wie sehr Facebooks Algorithmus die in unseren Köpfen verankerten Vorurteile bestärkt“, empfehlen die Unstatistiker.


Mit der „Unstatistik des Monats“ hinterfragen der Berliner Psychologe Gerd Gigerenzer, der Dortmunder Statistiker Walter Krämer und RWI-Vizepräsident Thomas Bauer jeden Monat sowohl jüngst publizierte Zahlen als auch deren Interpretationen. 
Alle „Unstatistiken“ finden Sie im Internet unter www.unstatistik.de. Jüngst erschienen im Campus Verlag ist das Buch „Warum dick nicht doof macht und Genmais nicht tötet – Über Risiken und Nebenwirkungen der Unstatistik“