THEO VAN GOGH REFLEXIONEN: DER LUSTGEWINN AN DER DYSTOPIE

Arbeit am KI-Mythos – OpenAI Sam Altman kurz vor der Gründung des Unternehmens: »KI wird höchstwahrscheinlich zum Ende der Welt führen, aber in der Zwischenzeit wird es großartige Unternehmen geben.«2

Der Wunsch- und Alptraum von der denkenden Maschine  – Leo Krovich CASABLANCA  21. April 2025

Bild: Visualisierung maschinellen »Lernens«: Data flock (Digits) von Philipp Schmitt (2020), CC BY-SA 4.0, via Wikimedia Commons.

Die Darstellung unbekannter Planeten und Lebensformen wird im Genre der Science-Fiction nicht selten als künstlerischer Versuch unternommen, die eigene Welt zu verfremden. So fungiert das Fremde in Stanisław Lems Solaris als unberechenbare und hermetische Natur: Drei Forscher versuchen die Geheimnisse eines lebendigen Ozeans zu ergründen, der weit entfernt von der Erde einen ganzen Planeten ausfüllt und dessen Schicksal mitzubestimmen scheint. Der Wille der Ozean-Materie entzieht sich dem menschlichen Bestreben, ihn in eine wissenschaftliche Form zu bringen. Dafür beginnt die Materie, Interesse an den Menschen zu entwickeln und verfügt über eigene Mittel, um sich mit ihnen vertraut zu machen. Sie entwirft, so die Theorie der Wissenschaftler, menschliche Reproduktionen aus den schmerzlichsten Erinnerungen der Solaris-Forscher, deren Material sie in ihren Träumen vorfindet. Die junge Frau, die nach den Erinnerungen des Protagonisten Kris Kelvin an seine verstorbene Frau gebildet ist, weiß nichts von ihrem Ursprung und befindet sich deshalb in einem existenziellen Zustand der Unruhe, bis sie eines Tages zur Erkenntnis ihrer selbst gelangt und erneut versucht, sich umzubringen. Der Versuch scheitert, wird dann aber mithilfe der anderen beiden Forscher verwirklicht, denen daran gelegen ist, ihre »Gäste« wieder loszuwerden. Am Ende haben die Wissenschaftler ihr Forschungsziel nicht erreicht, der Ozean bewahrt sein Geheimnis.

Liest man Science-Fiction wie Günther Anders als affirmative Vorwegnahme der kommenden Technik,1 verweisen einige Ausschnitte des Romans auf Elemente der heutigen Künstlichen Intelligenz und deren öffentliche Rezeption. So beobachtet etwa ein Wissenschaftler auf der Suche nach seinem verschollenen Kollegen, der bei einem Erkundungsflug in den Ozean abgestürzt war, die mimetischen Versuche des Ozeans, die verschiedenen biologischen Lebensphasen eines Menschen plastisch nachzubilden. Etwa so verfährt gemäß den allgemeinen Vorstellungen, die über sie im Umlauf sind, auch eine Mustererkennungsmaschine in der Lernphase: Eine künstliche »Lebensform« versucht, sich die in sie eingespeisten Informationen nach ihren eigenen Regeln anzueignen, um sie gegebenenfalls in einem anderen Kontext wiederverwenden zu können.

Bei Lem beschränkt sich die potenziell intelligente Lebensform darauf, menschliche Erinnerungen zu kopieren sowie abstrakte Gebilde an der Oberfläche des Planeten hervorzubringen, die manchen Beobachtern wie Kunstwerke anmuten. Weder ist sie daran interessiert, die Menschen zu unterwerfen, noch sind die Menschen sich sicher, welchen Nutzen sie aus ihr ziehen können. Gerade dadurch, dass die entscheidenden Fragen ungelöst stehen bleiben, eröffnet sich in Solaris die Möglichkeit zur menschlichen Selbstaufklärung. Hingegen scheint die Inauguration der KI nicht ohne die Schaffung eines modernen Mythos auszukommen, da der technische Fortschritt seine Versprechungen unter kapitalistischen Bedingungen niemals einlösen kann. Auf ihren gesellschaftlichen Zweck hin befragt, erweisen sich seine vermeintlichen Errungenschaften als zunehmend fadenscheinig, weshalb handfeste Science-Fiction-Szenarien eine Technik aufnorden, deren allgemeiner Nutzen kaum mehr auszumachen ist.

Das Ende ist nahe

Der Inhalt des zeitgenössischen Tech-Mythos stammt aus Hollywood und kommt in den Drehbüchern von Matrix oder Terminator zum massenkulturellen Ausdruck: Eines Tages wird die Künstliche Intelligenz nicht nur in all ihren Fähigkeiten dem Menschen überlegen sein, sie wird aus sich selbst heraus ein Bewusstsein entwickeln, das sich den Willen gibt, die Menschen zu unterwerfen. Der eigentümliche Reiz daran, sich die Welt noch fremder zu machen, als sie einem tagtäglich bereits vorkommt, und dabei nicht erst auf Science-Fiction-Literatur zurückgreifen zu müssen, sondern diese in der Realität als plausible geschichtliche Entwicklungstendenzen zu setzen, erleichtert die Eingliederung der neuen Technik in die Maschinerie der Wertverwertung. Der Lustgewinn, den die Subjekte aus dem gefühlten Wahrwerden der Dystopie beziehen, kompensiert für die Mühen der Anpassung an die neue Technik.

Mit deren Verbreitung bilden sich neue Wissenshierarchien heraus. Wenn der Experte und sein Expertengerät allgemein als unverbrüchliche Voraussetzung objektiver Aussagen über die Wirklichkeit gelten, also über das Monopol verfügen, allein mithilfe statistischer oder stochastischer – geistiger wie maschineller – Mittel rational zu urteilen, verschärft dies das Gefälle zwischen geistiger und körperlicher Arbeit. Zugleich wächst die Kluft zwischen den Denkarbeitern und ihren ehemaligen Hilfsmitteln, die sie selbst nicht mehr durchschauen. Diese gesellschaftlich organisierte Preisgabe des Forschens dürfte der Grund sein, weshalb sich nicht wenige Wissenschaftler den hanebüchenen Prophezeiungen der Tech-Kapitalisten anschließen, welche mal von diesen selbst, mal von ihren Gegnern verbreitet werden.

So behauptete der CEO von OpenAI Sam Altman kurz vor der Gründung des Unternehmens: »KI wird höchstwahrscheinlich zum Ende der Welt führen, aber in der Zwischenzeit wird es großartige Unternehmen geben.«2 Berühmt wurde auch der theatralische Rücktritt des schon weit ins Rentenalter vorgedrungenen, bei Google ansässigen KI-Forschers Geoffrey Hinton, der sich vom Rückzug aus dem Berufsleben offensichtlich versprach, sich künftig ganz auf seine Rolle als Untergangsprediger konzentrieren zu können. Seither warnt er vor der KI als einer Endzeitgefahr, die Klimawandel und Corona sogar in den Schatten stelle. Andere wiederum sehen es sportlich und deuten die anstehende Herrschaft der KI als begrüßenswertes Resultat der Evolution, die sich nun in der Technik fortsetze. Hirnchips, die von Elon Musks Unternehmen Neuralink produziert werden, gelten folgerichtig als Chance, um die Diskrepanz zwischen Mensch und Maschine zu nivellieren.

KI als Orakel

Dass mit dem Aufkommen der Künstlichen Intelligenz ein technischer Mythos entsteht, liegt allerdings auch an deren innerer Beschaffenheit. »KI« ist ein geläufiger Sammelbegriff für verschiedene algorithmusbasierte Programme, der zunächst aus deren alltäglicher Funktion bestimmt werden soll. Die auf Large Language Models (LLM) beruhenden Chat-Programme wie ChatGPT ziehen die beliebtesten Funktionen des Internets – Suchanfragen für Websites, Wissensanfragen, Navigation, Übersetzung, Warenkonsum – zusammen und ergänzen diese durch automatische Textgenerierung, die die alltäglichen geistigen Arbeiten ersetzen oder erleichtern soll. Es ist zu erwarten, dass diese KI-Programme, auch durch die Implementierung auf sämtlichen internetfähigen Geräten, langfristig die Form des Internets verändern werden. Die Interpretation der Wirklichkeit wird zunehmend von undurchsichtigen, unkontrollierbaren Wissensmonopolen abhängig sein.

Der Triumphzug des geschienten Wissens geht mit einem anwachsenden Unverständnis gegenüber der Technik einher, die die einfach konsumierbaren Inhalte liefert. Das Erschaffen einer KI ist voraussetzungsvoll. Die dazu benötigten Kenntnisse und Mittel stehen nur wenigen Wissenschaftlern und Ingenieuren zur Verfügung, die zumeist bei den Forschungsabteilungen der den Markt dominierenden Tech-Unternehmen angestellt sind. Auch wenn viele westliche Staaten bereits eigene KI-Projekte finanzieren, sind sie von diesen Konzernen abhängig. Für die einzelnen Benutzer gilt das noch mehr: Weder können sie ihren Alltag ohne deren Produkte organisieren, noch ist ihnen irgendeine Form der Selbstermächtigung gegenüber den Geräten möglich. Konnte man sich bei mechanischen Gegenständen, aber auch der Hard- und Software früherer Computer, noch autodidaktisch einen erweiterten Zugang zur Technik erarbeiten, lassen dies die KI-Programme in der Regel nicht mehr zu.

Aber nicht nur für Laien, sondern sogar für die Software-Entwickler ist nicht transparent nachvollziehbar, auf welchem Weg der Output, den ihre Kreationen generieren, zustande kommt. Das liegt an ihrer induktiven Vorgehensweise. Deduktive Programmierung oder sogenannte symbolische KI funktionieren nach einem Eingabe-Ausgabe-Prinzip, bei dem sich der User bei jeder Anweisung an den Computer darauf verlassen kann, ein erwartbares Ergebnis zu bekommen, das auf den logisch-formalen Grundlagen der Algorithmen beruht. Die induktive Variante, auch »konnektionistische KI« genannt, benutzt hingegen ein künstliches neuronales Netzwerk, das nach dynamischen Regeln auf ein gegebenes Problem möglichst angemessen reagieren soll. »Damit ändern sich aber die Prämissen und theoretischen Ziele: Nicht der Geist als formal-logische Repräsentation ist die Leitvorstellung, es sind die neuronalen Aktivitäten des Gehirns, das in einer probabilistischen Anpassung an die Umwelt einen Prozess der Selbstorganisation durchläuft, an die Stelle der Problemlösung tritt das Lernen.«3

Die Ergebnisse, die in diesem Prozess generiert werden, lassen sich nicht mehr vorab kalkulieren; es kann, so etwa im Fall von Computermodellierungen in der Wissenschaft, auch vorkommen, dass sie zunächst kryptisch sind und einer klärenden Interpretationsleistung bedürfen. Fasst man »Kreativität«, die als wichtiges Kriterium menschlichen Denkens gilt, rein formal auf, ist sie mit diesen Eigenschaften gegeben. Die daraus abgeleitete Behauptung, die Vermögen der KI würden sich den menschlichen tendenziell annähern, zeugt vom Bedürfnis, erstere zu überhöhen und letztere zu erniedrigen. So werden sogar die häufig und notwendig auftretenden Fehler der KI als humanes Potenzial angerechnet. In diesem Sinne sagt der bereits erwähnte KI-Pionier Hinton: »Konfabulation ist ein Merkmal des menschlichen Gedächtnisses. […] Wir erwarten nicht, dass sie so plappern wie Menschen. […] Wenn ein Computer das tut, denken wir, dass er einen Fehler gemacht hat.«4

Mit »Konfabulation« ist gemeint, dass eine KI der Form nach zwar richtige, dem Inhalt nach aber falsche Ergebnisse generiert, die nicht nur einzelne Fehler enthalten, sondern jeglicher sachlicher Grundlage entbehren. Die andere gängige Bezeichnung für dieses Phänomen erinnert nicht umsonst an den geistigen Zustand, in dem die Pythia ihre Orakelsprüche verkündete: die KI »halluziniert«. Wer einmal ChatGPT darum gebeten hat, eine bestimmte Stelle aus einer mittelalterlichen Summa wörtlich zu zitieren und in ihrem Kontext zu erläutern, weiß, welch brav akademisch schwafelnder Unsinn dabei herauskommen kann. Diese »Halluzinationen« sind aber unabhängig von der Häufigkeit ihres Vorkommens keineswegs nur ein Spezialfall, sondern gerade in ihnen offenbaren sich die Large Language Models als das, was sie sind. Denn die Funktion dieser Programme besteht darin, Zeichensequenzen, aus denen Texte bestehen, in einer Weise zu kombinieren, die im jeweils gegebenen Kontext vor dem Hintergrund der Trainingsdaten am wahrscheinlichsten erscheint. Zwar ist, zumindest auf manchen beschränkten Anwendungsgebieten, die plausible Variante auch oft die richtige. Doch dem Prinzip nach bezieht sich Sprache hier nicht auf einen Gegenstand mit dem Zweck, ihn darzustellen, sondern allein auf sich selbst, sie bleibt in sich gefangen; in diesem Sinne handelt es sich bei allen durch KI generierten Texten um »Halluzinationen«.

Entsprechend wahnwitzig ist es, dass hochrangige KI-Wissenschaftler wie Yann LeCun von Meta überzeugt sind, »dass intelligente Maschinen eine neue Renaissance für die Menschheit einläuten werden, eine neue Ära der Aufklärung«.5 Zu erwarten ist vielmehr, dass Sprach- und Denkvermögen der Menschen verkümmern, während sich das Internet anfüllen wird mit KI-generierten Textbausteinen. Werden diese, wie es unvermeidbar ist, selbst wieder als Trainingsdaten für die KI genutzt, ergibt sich ein Loop, dem der Mensch, stumm geworden, ausgeliefert ist wie einst Ödipus den Sprüchen des Orakels.

Produktionsverhältnisse der technischen Vernunft

Betrachtet man die Entwicklung der intelligenten Wundermaschinen von der materiellen Seite, kommen hingegen keinerlei Assoziationen an das Heiligtum des Sonnengottes Apollon und die Olivenhaine von Delphi auf. Um das unüberschaubare Datenmaterial aufzubereiten, bedarf es Millionen von Arbeitern, welche tagtäglich Unmengen von einfachen tasks (Zuordnungen wie bei den Captchas) lösen, um einzelne Datensets zu labeln, da die Mustererkennung in einem frühen Stadium ihrer Entwicklung diese nicht von selbst erkennt. Die dafür eingesetzten Clickworker arbeiten für Unternehmen wie Appen, das auf der ganzen Welt, vornehmlich in Niedriglohnzonen, operiert. Unternehmen wie Arbeiter agieren in höchst flexiblen Verhältnissen. Erstere können ihren Standort, falls er überhaupt noch physisch vorhanden ist, innerhalb kürzester Zeit verlegen; letztere arbeiten meist von zu Hause aus, stellen die Arbeitsmittel selbst, mit denen sie die unregelmäßig eintreffenden, einfachen Aufgaben mechanisch bearbeiten, um damit einen Lohn zu generieren, der bestenfalls den Mindestlohn ihres Landes knapp unterschreitet. Zwischen den zu lösenden tasks entstehen Wartezeiten, welche nicht bezahlt werden. Zu Recht wird diese Arbeitsform häufig mit vorkapitalistischen Verhältnissen verglichen, bei der aus der feudalen Ordnung befreite Heimarbeiter mit eigenen Werkzeugen die Waren für ihre Verleger herstellten – folgerichtig lautet der zynische Slogan von Appen: »all from the comfort of your home«. Die Lable-Branche boomt und wird sich bis 2030 auf einen Umsatz von 17,1 Milliarden Dollar verneunfachen,6 was dem Wachstum der Sprachmodelle entspricht, die für ihre vielseitige Genialität möglichst viele vorbereitete Datensets benötigen. Um diese Datensets einem neuronalen Netz zuführen zu können, müssen Datenfarmen gebaut werden, deren größte Exponate den Umfang kleiner Städte, aber nur wenige Beschäftigte zur Wartung und Aufrechterhaltung der hygienischen Standards haben. Solche Datenfarmen benötigen weltweit eine Energiemenge, welche noch in diesem Jahrzehnt den Stromverbrauch der Niederlande übertreffen wird. Allein in den USA möchte Sam Altman mittelfristig fünf bis sieben Rechenzentren bauen, von denen jedes einzelne die Strommenge aus fünf Kernkraftwerken beanspruchen würde.7 Entsprechend fällt auch der Bedarf an Halbleitern und Chips für die Server aus. Beispielsweise in afrikanischen Ländern werden in mühseliger und gefährlicher Handarbeit die seltenen Erden geschürft, die aus den Mienen in die Chips wandern.

Über diesen unvernünftigen Verhältnissen soll sich nun angeblich eine künstliche Ratio erheben, die der menschlichen nahe- oder gleichkommt. Der Blick auf ihre materiellen Grundlagen erweist den ideologischen Charakter des Geredes von den Chancen und Risiken der KI, wobei letztere durch reflektiertes Handeln und demokratische Gesetze zu glätten seien. Doch eine neutrale Technik gibt es so wenig wie eine neutrale Marktwirtschaft oder Wissenschaft. In die Technik sind die Herrschaftsverhältnisse konkret eingesunken, was durch ihren richtigen Gebrauch nicht rückgängig gemacht werden kann: »Bestimmte Zwecke und Interessen der Herrschaft sind nicht erst ›nachträglich‹ und von außen der Technik oktroyiert – sie gehen schon in die Konstruktion des technischen Apparats selbst ein; die Technik ist jeweils ein geschichtlich-gesellschaftliches Projekt; in ihr ist projektiert, was eine Gesellschaft und die sie beherrschenden Klassen mit den Menschen mit den Dingen zu machen gedenken. Ein solcher Zweck der Herrscher ist ›material‹ und gehört zur Form selbst der technischen Vernunft.«8

Mit dem Mantra der vorausetzungslosen und unbedarften, von einer ebenso beschaffenen Wissenschaft kreierten Technik warten die Tech-Bosse schon lange auf. Auch Eric Schmidt, der ehemalige Google-CEO, und Jared Cohen, Gründer von Google Ideas, schrieben bereits vor einigen Jahren, im Silicon Valley stünde man auf dem grundsätzlichen Standpunkt, »dass die Technologie neutral sei, die Menschen jedoch nicht. Dieses Motto wird immer wieder im Getöse untergehen. Unser gemeinsamer Fortschritt als Bürger des Digitalzeitalters wird jedoch davon abhängen, dass wir uns immer wieder daran erinnern.«9 Der offensichtliche Widerspruch, dass Menschen, die selbst nicht neutral seien, eine neutrale Technik entwerfen sollen, wiegt vielleicht weniger schwer als der, dass neutrale Maschinen den nicht neutralen Menschen diktieren, was sie als nächstes zu tun haben, wie es Schmidt bereits 2010 für die Suchmaschine von Google prognostizierte.

Was Schmidt auf individuelle Nutzer bezogen hatte, übertragen andere in die Sphäre des Politischen. Der schaudernd-erwartungsvolle Ausblick auf eine Zeit, in der eine dem Menschen nicht nur partiell überlegene technische Lebensform ihm die für (politische) Urteile und Entscheidungen notwendige Denkarbeit abnehmen könnte, fehlt in kaum einem öffentlich-rechtlichen Artikel zum Thema KI: »Eine Welt, in der Maschinen diktieren, wie wir zu leben haben, und die staatlichen Geschicke lenken, klingt erstmal [!] bedrohlich, doch KI wäre hier lediglich Werkzeug, das demokratische Prozesse unterstützen kann. Eine Unterstützung für Entscheidungen, die wir selbst treffen.«10 Bei der Bundeszentrale für politische Bildung (BpB) wiederum weiß man ergänzend, dass »radikale Technologien« bald »nicht nur bestehende Prozesse« verbessern, sondern »unseren Blick auf Ziele und Möglichkeiten gesellschaftlichen Handelns« revolutionieren werden. Radikal zugehen wird es vermutlich nur bei der Abschaffung jeglicher Bedingung zur Möglichkeit gesellschaftlichen Handelns durch KI. Den Delegitimierern und Falschmeldern soll mit ihrer Hilfe das Handwerk gelegt werden. Die BpB warnt dementsprechend vor einer »epidemischen Zunahme von Desinformation«,11 die man sich wohl übler vorstellen soll als die staatlich organisierte Desinformationskampagne während der Pandemie.

Geistige und körperliche Arbeit

Olaf Scholz, der nicht darum fürchten muss, dass sein einzigartig einschläfernder Redestil jemals von KI-generierten Texten imitiert werden kann, fabulierte Anfang des Jahres von einer »Begeisterungswelle« für die neue Technologie, die er durchs Land rollen sehen will: »Alle sollten wissen, was Künstliche Intelligenz bedeutet. Ich wünsche mir, dass genauso gut von allen mitgeredet werden kann, wie das wahrscheinlich alle in Deutschland zum Autofahren können.«12 Bislang hält sich die Begeisterung in Grenzen, was bei der Breite an Einsatzmöglichkeiten in der Arbeitswelt nicht weiter verwundert. Warum sollten Beschäftigten angesichts einer ihre Fähigkeiten imitierenden Technik die Freudentränen in die Augen schießen? Die Liste der Arbeitsfelder, die KI potenziell ersetzen oder ergänzen kann, ist lang und reicht von Bereichen wie Clickwork und Logistik zu komplexeren intellektuellen Arbeiten, was Ärzte, Juristen und sogar Software-Programmierer beträfe. Grundsätzlich wird KI überall dort angewendet werden, wo sich Arbeitszeit verdichten lässt, um, im Jargon der Bundesregierung, »die Potenziale von Künstlicher Intelligenz für Beschäftigte und Unternehmen voll auszuschöpfen.«13

Dass die Ahnung der Beschäftigten von ihrer potenziellen Überflüssigkeit sich gelegentlich in die Angst vor dem Ende der Welt steigert, hat mit der Entkopplung von körperlicher und geistiger Arbeit zu tun. In seinem Opus Magnum Geistige und körperliche Arbeit hat Alfred Sohn-Rethel darauf hingewiesen, dass Denken nicht, wie die bürgerlichen Philosophen Smith und Kant meinten, unvermittelt aus der Natur, sondern einer unbewussten gesellschaftlichen Praxis, der Realabstraktion des Warentauschs entspringt. Erst mit der Einführung eines allgemeinen Äquivalents in der griechischen Antike, dem Geld, setzten auch Drang und Fähigkeit zur Abstraktion in Philosophie und Mathematik ein. Die Trennung von geistiger und körperlicher Arbeit, die sich mit der antiken Sklavenwirtschaft auszubilden begann, hat sich erst in der Renaissance umfassend realisiert und in der hochgradig arbeitsteiligen Moderne weiter verfeinert. »Reines Denken«, das sich in diesem Prozess über die Handarbeit erhoben hat und blind geworden ist für den Ursprung seiner Begriffe im Tauschverhältnis, unterliegt zuletzt auch noch der Illusion, an ihm werde die Warenwelt schlussendlich zugrunde gehen – darauf nämlich läuft die Vorstellung, eine selbstbewusst gewordene KI werde die Menschheit global ins Verderben stürzen, hinaus.

Die übersteigerten Mythen der Tech-Industrie sind somit die Kehrseite einer bornierten, verdinglichten Wissenschaft. Dass Technikenthusiasten wie Ray Kurzweil oder Nick Bostrom den menschlichen Geist für vollständig in Daten erfassbar und deshalb für digitalisierbar halten oder gleich das Bewusst- und Autonom-Werden der KI prophezeien, zeugt von der Blindheit der Wissenschaft für ihre historischen und gesellschaftlichen Voraussetzungen. Der auf den Computer hochgeladene Geist ist allerdings in der Vorstellung von Ray Kurzweil mit seiner Entwicklung noch nicht am Ende. Er verschmilzt mit der KI, perfektioniert sich weiter und transzendiert schließlich auch seine Computerhülle, um den gesamten Kosmos zu umfangen: »In any event the ›dumb‹ matter and mechanisms of the universe will be transformed into exquisitely sublime forms of intelligence […].«14 Die Überzeugung, der Geist werde sich in Zukunft ins Weltall ausdehnen und schließlich zu jener reinen und allumfassenden Selbstbezüglichkeit werden, für die die Idealisten ihn seit jeher gehalten haben, ist offensichtlich eine Chimäre. Jedoch hat sich das Verhältnis von geistiger und körperlicher Arbeit seit den kühnen Überlegungen von Sohn-Rethel mit der Digitalisierung verändert und weist tatsächlich eine dem KI-Mythos verwandte Tendenz auf. Das zeigt sich an der Transformation beider Begriffe durch die technische Entwicklung.

Ob Handarbeit heute noch der »einseitig manuellen Arbeit«15 entspricht, wie sie sich Sohn-Rethel vorgestellt hat, wird mit dem Einsatz der KI für bestimmte manuelle Arbeiten fraglich. Bei Tätigkeiten wie dem Steuern von Kraftfahrzeugen avanciert durch den geplanten Einsatz von KI eine Arbeitsform, die lange als manuelle galt, zur intellektuellen. Bei dem Versuch, sie vermittels neuronaler Netzwerke nachzubilden, fällt erst auf, wie komplex die spontanen intellektuellen Leistungen sind, die sie voraussetzt. Ein vergleichbarer Prozess war Marx bereits als Abschöpfung und Konzentration geistigen Potenzials der manuellen Arbeiter in der Fabrik bekannt: »Mit dem Arbeitswerkzeug geht auch die Virtuosität in seiner Führung vom Arbeiter auf die Maschine über. Die Leistungsfähigkeit des Werkzeugs ist emanzipiert von den persönlichen Schranken menschlicher Arbeitskraft. Damit ist die technische Grundlage aufgehoben, worauf die Teilung der Arbeit in der Manufaktur beruht. An die Stelle der sie charakterisierenden Hierarchie der spezialisierten Arbeiter tritt daher in der automatischen Fabrik die Tendenz der Gleichmachung oder Nivellierung der Arbeiten, welche die Gehilfen der Maschinerie zu verrichten haben […].«16 »Die Kenntnisse, die Einsicht und der Wille, die der selbständige Bauer oder Handwerker, wenn auch auf kleinem Maßstab, entwickelt, […] sind jetzt nur noch für das Ganze der Werkstatt erheischt. Die geistigen Potenzen der Produktion erweitern ihren Maßstab auf der einen Seite, weil sie auf vielen Seiten verschwinden. Was die Teilarbeiter verlieren, konzentriert sich ihnen gegenüber im Kapital.«17 Die in der Arbeitsteilung angelegte Monopolisierung von Fertigkeiten und Wissen betraf zuerst die Handarbeit und setzt sich im Zeitalter der KI bei den klassischen geistigen Arbeiten fort. In den Daten-Pools konzentrieren sich die körperlichen und geistigen Potenziale der Menschen, um kapitalisiert zu werden.

Bei alldem bleibt die vollständige Trennung von körperlicher und geistiger Arbeit in einer menschlichen Gesellschaft freilich unmöglich. Was sich real vollzieht, ist, dass Technik sich zunehmend gegen ihren Gebrauchswert verselbständigt und mehr und mehr ins Mythische ausgreift. Wenn sie stattdessen eine sinnvolle Form annehmen und den Bedürfnissen aller gerecht werden soll, müsste darauf reflektiert werden, wie geistige und körperliche Arbeit in ihr vermittelt sind. Denken müsste sich von seiner formal-logischen und neuerdings stochastischen Reinheit emanzipieren, um Computertechnologie überhaupt als Werkzeug im menschlichen Sinn anwenden zu können.
»Aber Denken«, so Adorno, »ist gleichzeitig mit seiner Verselbstständigung zur Apparatur Beute von Verdinglichung geworden, zur selbstherrlichen Methode geronnen. Grob offenbart sich das an den kybernetischen Maschinen. Sie stellen den Menschen die Nichtigkeit des formalisierten, seiner Sachgehalte entäußerten Denkens vor Augen, insofern sie manches von dem, woran die Methode subjektiver Vernunft ihren Stolz hatte, besser vermögen als die denkenden Subjekte. Machen sich diese leidenschaftlich zu Vollzugsorganen solcher Formalisierung, so hören sie virtuell auf, Subjekt zu sein. Sie nähern sich den Maschinen als ihr unvollkommeneres Abbild. Philosophisches Denken beginnt erst, sobald es sich nicht begnügt mit Erkenntnissen, die sich absehen lassen und bei denen nicht mehr herausschaut, als man schon hineinsteckte. Der menschenwürdige Sinn des Computers wäre es, das Denken der Lebendigen so sehr zu entlasten, dass es Freiheit gewinnt zu dem nicht schon impliziten Wissen.«18 Die Computer, die Adorno kannte, waren jene deduktiv verfahrenden Rechenmaschinen, bei denen die Ergebnisse »sich absehen lassen«. Die neuen induktiven Verfahren sind dank immenser Datenmengen und Mustererkennung in der Lage, Ergebnisse zu generieren, die den Schein erzeugen, etwas Neues aus unbekannten Ursprüngen zu sein. In Wirklichkeit tragen sie nichts zur Möglichkeit der Selbst- und Welterkenntnis bei, sondern machen den Menschen die Verhältnisse nur noch fremd