MESOPOTMIA NEWS : Menschen als potentielle Delinquenten in Zeiten der LBGTQ Kultur

„Sie betrachten den Menschen als potentiellen Delinquenten, wollen ihn vorausberechnen und davon abhalten, Übertretungen zu begehen oder schwach zu werden; Fortschritt wird reduziert auf das Gefühl gesteigerter Sicherheit. Der neue BMW 7er etwa filmt dauerhaft mögliche Aggressoren rund ums Auto“

Bewegung „Fuck the Algorithm“ : Ein gutes Zeichen

  • Ein Kommentar von Niklas Maak   FAZ  am 24.01.2021-13:52 – Die erste schlagkräftige Protestbewegung des Digitalzeitalters: „Fuck the Algorithm“-Demonstration im August 2020 in London.   –    Wenn eine neue Generation versteht, was ihr durch Algorithmen angetan wird: Die „Fuck the Algorithm“-Bewegung aus Großbritannien macht jetzt auch in den Vereinigten Staaten Schlagzeilen.

Vor kurzem ließen sich die sehr seriösen Ärzte des Stanford University Medical Center mit Schildern fotografieren, auf denen eine ungewöhnlich deutliche Botschaft zu lesen war, nämlich „Fuck the Algorithm!“ Der Protest galt einem Algorithmus, mit dem entschieden worden war, dass zuerst die über 60-jährigen Ärzte gegen Corona geimpft werden, auch wenn die nur noch Online-Sprechstunden abhalten, während jüngeres Pflegepersonal trotz höherem Infektionsrisiko leer ausging. Den Slogan, der zum Schlachtruf der ersten wirklichen Protestbewegung des Digitalzeitalters werden könnte, hatten sich die Ärzte bei Schülerprotesten abgeschaut, die im vergangenen August in England stattfanden.

Weil dort das Abitur und andere Prüfungen wegen des Lockdowns nicht wie geplant stattfinden konnten, hatten die Lehrer die Abschlussnoten aus dem Schnitt der bisher erbrachten Leistungen errechnet – sie fielen etwas besser aus als im Vorjahr. Daraufhin ließ das Bildungsministerium die Noten durch einen Algorithmus korrigieren, der auf der Basis der Durchschnittsabschlussnoten früherer Jahrgänge die wahrscheinlichen Abschlussnoten des Jahrgangs 2020 errechnete. Ergebnis: 280.000 Schüler, fast vierzig Prozent des Jahrgangs, bekamen schlechtere Noten. Während teure Privatschulen von Downgradings kaum betroffen waren, schlugen die Abwertungen vor allem in „Problemschulen“ ein. Schnell wurde klar, dass hinter den scheinbar objektiven Algorithmen problematische Setzungen zum Wesen des Menschen stehen: Sehr unwahrscheinlich, dass die Schüler sich mehr angestrengt hätten als ihre Vorgänger aus dem gleichen Milieu, also werten wir auf das bisherige Niveau ab.

Derart programmierte Algorithmen können Zukunft leider nur als Fortschreibung der Vergangenheit darstellen: Die Summe dessen, was bisher normal war, wird auch deine Zukunft bestimmen.

Es ist in den vergangenen Jahren viel dazu geschrieben worden, wie Algorithmen Rassismus und Ungleichheit fortschreiben und durch ihre Logik des Wahrscheinlichsten den Status quo konsolidieren. Die Datenmengen, die Menschen im Internet hinterlassen, werden genutzt, um ihr Verhalten vorauszuberechnen, wobei von Kontinuität und nicht von Veränderung ausgegangen wird. Mag sein, dass Algorithmen immer perfekter werden. Aber es sind immer noch Menschen, die den Computer zu Beginn füttern müssen mit axiomatischen Annahmen zu dem, wie der Mensch ist.

Und dazu werden aus dem Zentrum der aktuellen Digitalkultur, aus Kalifornien, verschiedene Narrative geliefert. Hollywood, die Mythenmaschine des 20. Jahrhunderts, hat immer wieder die Geschichte von Menschen erzählt, die durch enorme Anstrengungen das Unerwartbare, Unwahrscheinliche schaffen: Menschen, so die Botschaft, können sich zum Besseren ändern, den Aufstieg und Dinge schaffen, die ihnen keiner zutraute. Das Silicon Valley dagegen, die Mythenmaschine des 21. Jahrhunderts, nebelt sich zwar in einer seifigen Rhetorik des „make the world a better place“ ein – aber die Programmierung vieler Algorithmen verrät ein düsteres Menschenbild.

Menschen als potentielle Delinquenten

Sie betrachten den Menschen als potentiellen Delinquenten, wollen ihn vorausberechnen und davon abhalten, Übertretungen zu begehen oder schwach zu werden; Fortschritt wird reduziert auf das Gefühl gesteigerter Sicherheit. Der neue BMW 7er etwa filmt dauerhaft mögliche Aggressoren rund ums Auto, was „später vor Gericht verwendet werden“ kann, ein Algorithmus analysiert gleichzeitig mit Hilfe einer Kamera, die die Augen des Fahrers observiert, ob dieser fahrtüchtig ist. Auch hier die Annahme, dass das imperfekte Wesen Mensch zu seinem eigenen Besten überwacht gehört, dass die Maschine ihm Entscheidungen möglichst abnimmt und seine als fehlerhaft inkriminierte Selbstwahrnehmung korrigiert. Dabei ist oft die eingebaute negative Sicht auf den Menschen der initiale Rechenfehler, der am Ende vieler richtiger Einzelschritte zum falschen Ergebnis führt.

Immerhin waren die Londoner „Fuck the Algorithm“-Proteste so massiv, dass das Bildungsministerium schließlich zähneknirschend die Abwertung zurücknahm – und es ist ein gutes Zeichen, wenn eine neue Generation versteht, was ihr durch Algorithmen angetan wird; dass Algorithmen sie zu dem zu machen versuchen, was ihre Vorgänger waren, nicht zu dem, was sie stattdessen sein könnten.