THEO VAN GOGH ERKENNTNIS : NACH BABEL ! –  DER NEUE FASCHISMUS ERSCHEINT VERWISSENSCHAFTLICHT – UNERKENNBAR –

ENDGÜLITG TOTAL!

MICHAEL ESDERS

DAS GE-STELL SPRICHT
Die Aufrüstung des digitalen Sprachregimes

Semantik hat sich in den letzten zwei Jahrzehnten zu einem der wichtigsten Geschäftsfelder der Digitalöko­nomie entwickelt.

Das augenfälligste Beispiel, neben dem Suchalgorithmus selbst, ist die an Suchwörter geknüpfte Werbung bei Google, die auf einer im Hin­tergrund ablaufenden, automatisierten Versteigerung von Begriffen beruht und einen Großteil des Kon­zernerlöses ausmacht.

Dass der Mutterkonzern des Suchmaschinenanbieters seit 2015 unter dem Namen Alphabet firmiert, ist kein Zufall, denn es geht um die Verwertung des kulturell-symbolischen Kernbestands der Menschheit.

Die gesellschaftlichen, lebensweltli­chen und epistemischen Folgen der Sprachverwertung, die eine monetäre Grammatik ausprägt, fanden bis­lang erstaunlich wenig Beachtung.’ Dabei zeichnete sich in den zurückliegenden Jahren immer deutlicher ab, dass die digitale Infrastruktur zur Verwertung und Monetarisierung von Sprache auch zu einer mikro­logischen Meinungssteuerung und Zensur genutzt wird. Digitalkonzerne stimmen sich mit nationalen Regierungen und globalen Institutionen ab und bilden zusammen mit ihnen einen enzyklopädisch-digitalen Machtkomplex, der eher als Neofeudalismus2 denn als Überwachungskapitalismus3 zu charakterisieren wäre. Die Weiterentwicklung künstlicher Intelligenz und maschinellen Lernens könnte die nächste ein­schneidende, disruptive Veränderung der Digitalöko­nomie einleiten. Der Schlüssel ist auch hier die digitale Operationalisierung der Sprache und des Sprechens.

Es ist zu erwarten, dass der neuerliche Ausbau der technischen Infrastruktur die Zugriffsmöglichkeiten des digitalen SpraChregimes erheblich erweitern wird. Die enzyklopädische Macht wird sich nicht mehr vorrangig in der Auswahl und Gewichtung von Such­treffern manifestieren, sondern in Auskünften und Antworten, die mit der Autorität eines errechneten Überkonsenses in Erscheinung treten, der den Dis­kurs erübrigt, weil er sein Ergebnis vorwegnimmt.

Der Rest an Pluralität im Wissens- und Weltzugang, wie er sich in den Listen der Suchtreffer, ihren Verlinkun­gen und Quellenverweisen – wie auch immer gefiltert und arrangiert – zeigt, könnte mit der Umstellung auf KI-Systeme verlorengehen.4 Mit der Ausbreitung maschineller Intelligenz dürfte sich die Erwartung verfestigen, der Wissensstand der Welt lasse sich zu jedem Thema und auf jedem Gebiet augenblicklich, in Echtzeit, zur erschöpfenden Antwort oder Auskunft aufbereiten. Dieser Erwartung wiederum kann nur noch im maschinell errechneten, vorweggenommenen Konsens und nicht im diskursiven Für und Wider entsprochen werden.

Bei der Entwicklung künstlicher Intelligenz richten sich viele Bemühungen schon deshalb auf die Sprache, weil sich die Ebenbürtigkeit maschineller Intelligenz in ihrer Dialogfähigkeit zu bewähren hat. Sprache ist der zentrale Ansatzpunkt für die Automatisierung aller menschlichen Tätigkeiten einschließlich der geistigen.

 

Der Mathematiker und Computerpionier Alan Turing hob die kommunikative Kompetenz bereits Mitte des vorigen Jahrhunderts als entscheidendes Kriterium hervor. In einem kleinen, aber äußerst einflussreichen Aufsatz5 skizzierte er jene Versuchsanordnung, die später ars »Turing-Test« bekannt wurde: Probanden kommunizieren per Fernschreiber sowohl mit einer Maschine als auch mit einem menschlichen Gegen­über. Nach intensiver Befragung und Konversation haben sie zu entscheiden, welcher Kommunikations­partner menschlich und welcher maschinell ist. Turing prognostizierte, bis zur Jahrtausendwende werde es Computer geben, die mindestens dreißig Prozent der

1 Vgl. dazu: Michael Esders: Alphabetisches Kapital. Über die Ökonomie der Bedeutungen. Bielefeld 2017.

2 Joel Kotkin: ‘Ihe Coming of Neo-Feudalism: A Warning to the Global Middle Class. New York 2020.

3 Shoshana Zuboff: Das Zeitalter des Überwachungskapitalismus. Der Kampf um eine menschliche Zukunft an der neuen Grenze der Macht. Frankfurt / New York 2018.

4 Diesen Strukturwandel zeichnet Daniel Greenfield nach: »So schafft Google totalitäre Konformität«, in: Achgut.com, 01.11.2022 (https://www.achgut.com/ artikel/so_schafft.google_totalitaere_konformitaet).

5 Alan M. Turing: »Computing machinery and intelligence«, in: Mind LIX, 236 (Oktober 1950), S. 433-460.

 

 

Probanden nach einer fünfminütigen Befragung für einen Menschen halten würden. Damit sei der Punkt erreicht, an dem sich künstliche Intelligenz auf dem Niveau der menschlichen befinde.

 

Mehr als dreihundert Jahre vor Turing hatte Ren6 Descartes ein ähnliches Gedankenexperiment ange­stellt: In seinem erstmals 1637 veröffentlichten Discours de la methode imaginiert er eine sprechende Maschine. Die Konstruktion eines Automaten, der auf äußerliche Einwirkungen mit sprachlichen oder sprachähnlichen Äußerungen reagiert, also beispielsweise nach einer bestimmten Berührung schreit, man habe ihm weh­getan, sei durchaus denkbar, sagt Descartes. Die Fähig­keit jedoch, Wörter und Satzelemente zu immer wieder neuen Äußerungen zusammenzustellen (»d’arranger ensemble diverses paroles«6), um auf unterschiedliche Situationen zu reagieren und wechselnde Gedanken zum Ausdruck zu bringen, könne weder einer Ma­schine noch einem Tier, sondern nur dem Menschen zugesprochen werden. Bei Descartes trägt dieses Argument zur Begründung seines metaphysischen und erkenntnistheoretischen Dualismus bei.

 

Mit Systemen wie ChatGPT des Unternehmens OpenAl und dem nach Shakespeare, dem »Bard of Avon«, benannten KI-System Bard von Google ist die von Turing vorausgesagte Ebenbürtigkeit zumindest näher gerückt. Die Fähigkeit, sprachliche Zeichen zu immer wieder neuen Sinneinheiten zu arrangieren, ist kein Alleinstellungsmerkmal des Menschen mehr.

 

Die Gesprächigkeit des Systems beruht auf Wahrschein­lichkeiten in der Abfolge von Zeichenketten, die aus unvorstellbar großen Datenmengen errechnet werden. In den sogenannten »großen Sprachmodellen« (Large Language Models) sind nicht Wörter und Sätze, sondern operationalisierbare Zeicheneinheiten, sogenannte Token’, die Grundlage der semantischen Kalkulatio­nen. Ein Token besteht aus einem Wort, einem Wort­bestandteil oder einem Satzzeichen. Das System erfasst die statistischen Beziehungen zwischen diesen durch­schnittlich vier Zeichen umfassenden Einheiten und ermittelt das im jeweiligen Kontext wahrscheinlichste nachfolgende Token. Lautet die Eingabe beispielsweise »Wie alt ist die Erde?«, wäre die naheliegende Anknüp­fung, die eine Antwort einleiten könnte, das Wort »Die«. Dieses bildet zusammen mit der eingegebenen Frage den Input für den nächsten Verarbeitungsdurchgang, wobei die Zeichenfolge »Wie alt ist die Erde? Die« wiederum durch »Erde« vervollständigt werden würde. Diesen Vorgang wiederholt der Algorithmus so lange, bis ein vollständiger Text vorliegt.

 

Das simple Wort-für-Wort- oder Token-für-Token-­Prinzip wird durch zahlreiche weitere Operationen ergänzt. So werden die Zeicheneinheiten als Vektoren in einem vieldimensionalen semantischen Raum dar­gestellt, um Ähnlichkeitsbeziehungen zwischen ihnen numerisch beschreibbar zu machen. Auch sprachliche Kontexte fließen in die hochkomplexen Kalküle ein und verfeinern die Vektoren, um beispielsweise je nach Zusammenhang »Bank« als Geldhaus oder Sitzmöbel zu identifizieren. Auf einer weiteren Ebene wird das System durch Belohnungsmodelle und Lernimpulse menschlicher Trainer befähigt, die Qualität seiner Antworten zu bewerten und diese Bewertung bei der Ausführung künftiger Aufgaben zu berücksichtigen.

 

Die semantischen Kalküle der heutigen Sprach­modelle erinnern an die Idee einer mathematisierten Zeichensprache des Denkens, einer »charakteristica universalis«, wie sie etwa Gottfried Wilhelm Leibniz im späten siebzehnten Jahrhundert entwickelte. Diese sieht vor, Grundbegriffe und das Verhältnis zwischen ihnen mittels Zahlen und anderer mathematischer Zeichen darzustellen, um auf diese Weise eine Uni­versalsprache des Denkens zu erschaffen.

 

»Sind nun die charakteristischen Zahlen einmal für die meisten Begriffe festgesetzt«, schreibt Leibniz im Überschwang seines Entwurfs, »so wird das Menschengeschlecht gleichsam ein neues Instrument besitzen, welches das Leistungsvermögen des Geistes weit mehr erhö­hen wird als optische Gläser die Sehschärfe der Augen fördern, und das die Mikroskope und Teleskope in dem gleichen Maße übertreffen wird, wie die Vernunft dem Gesichtssinn überlegen ist.«8

 

Mit der Mathematisie­rung der Zeichensysteme ist damals wie heute das Versprechen der Erweiterung und Leistungssteige­rung des Denkens verbunden. Leibniz charakterisiert die Universalsprache als eine den menschlichen Geist vervollkommnende Apparatur. Die Begriffsarithmetik befreit die Sprache – und mit ihr das Denken – von irreführenden und hinderlichen Unschärfen. Im Zuge der logisch-mathematischen Formalisierung wird alles Vage und Mehrdeutige beseitigt, so dass eine eindeu­tige Beziehung zwischen Zeichen und Bezeichneten möglich wird.

Geht es in den rationalistischen Konzepten um die Befreiung von den Unzulänglichkeiten der natür­lichen Sprachen, so werden diese in den heutigen Sprachmodellen zu einer Art Benutzeroberfläche. Die Kalküle arbeiten im Hintergrund, und zwar nicht mit dem Ziel eines unverfälschten Gedankenausdrucks, sondern der verwertenden Operationalisierung.

 

Die Sprachmodelle folgen keinem wissenschaftlichen, er­kenntnistheoretischen oder ontologischen Programm. Sie orientieren sich an besonders häufig vorkommen­den Mustern und reproduzieren oder rekombinieren Zeichenfolgen, die in zahlreichen wechselnden Zusam­menhängen in den Trainingsdaten anzutreffen sind. Sie befreien nicht von der Sprachkonvention, damit »Vernunftgründe gewogen werden können«9, sondern bilden diese nach, um sie zu reproduzieren. Statt einer sich selbst durchsichtigen Universalsprache der Vernunft, wie sie Leibniz vorschwebte, ähneln die Sprachmodelle eher Gustave Flauberts Dictionnaire des indes revues. Sie sind ein universalisiertes, sich selbst fortschreibendes »Wörterbuch der. Gemein­plätze«, eine Maschinerie zur Verfloskelung der Welt und des Bewusstseins.

 

Die ideologische Einseitigkeit von ChatGPT wurde bereits kurz nach der Veröffentlichung im November 2022 von verschiedener Seite festgestellt. Rechte und Konservative bemängelten, das System schreibe auf Wunsch lange Lobeshymnen über Joe Biden, während ihm ein freundliches Wort über Donald Trump kaum zu entlocken sei.

 

Tatsächlich lässt sich die Unwucht bei etlichen Themen nachweisen:

 

Die Argumentation zugunsten sogenannter erneuerbarer Energien ist bei­nahe unerschöpflich, während fossile Energieträger durchweg kritisch bewertet werden. Die Vorzüge der Diversität hebt das System ausführlich hervor, weicht zugleich aber einer Definition von »Frau« aus, weil es, so die Auskunft, keine eindeutigen Geschlechtsmerk­male gebe. Eine Studie bestätigte den Befund einer ausgeprägten Linksdrift des Systems, das in seinen Selbstauskünften Ausgewogenheit und Neutralität für sich beansprucht.1°

 

Ein Ungleichgewicht entsteht schon durch die Auswahl des Textkorpus, auf den das System zurückgreift und dessen Elemente es rekombi­niert. Die großen Sprachmodelle sind selbstlaufende Verstärker des Sprachregimes und der enzyklopädisch-semantischen Macht, die sich in den Trainingsdaten wie Wikipedia niederschlägt und dort wirksam wird.

 

Die identitätspolitische Linke erkannte früh, dass es um den Quellcode des Deutungssystems geht und forderte, die KI und den ihr zugrundeliegenden Text­korpus zu »dekolonialisieren«”. Weil frühere Chatbots wie Tay von Microsoft wegen politisch beanstandeter Auskünfte zurückgezogen werden mussten, werden die Systeme schon länger mit großem Aufwand auf politische Korrektheit ausgerichtet. So beauftragte etwa OpenAl Niedriglohnarbeiter in Kenia damit, problematische Textpassagen in den Trainingsdaten zu kennzeichnen.12

 

Manuelle Eingriffe zur Vorurteils­bereinigung verstärken die innersystemische Tendenz zur Sinnbegradigung und vergrößern das Ungleich­gewicht. Die Hoffnung indes, ein »nicht-woke« ausge­legter Chatbot, wie ihn Tech-Unternehmer Elon Musk’3 in Aussicht stellte, könnte zumindest ein Gleichge­wicht herstellen, ist naiv. Die Konzentration der enzy­klopädischen Macht und die Programmierbarkeit des Meinungsklimas sind die vorrangigen Gefahren; die jeweilige politische Ausrichtung und Programmierung der Dialogsysteme sind sekundär. Überdies wäre die mit einem Vorzeichenwechsel erzeugte Gegenposition auch nur ein Code, ein Subversionsstandard, der das Erwartbare noch dort bestätigt, wo er es unterläuft.

 

Die Frage der ideologischen Ausgewogenheit berührt ausnahmslos die semantische Oberfläche der automatisierten Textproduktion. Tiefgreifender ist die Wirkung der Sinnbegradigung, die in der Funktions­weise der Textgeneratoren selbst angelegt ist: Sprach­liche Bedeutung wird mit Geläufigkeit und diese mit sequenzieller Wahrscheinlichkeit gleichgesetzt. Beson­ders häufig vorkommende Zeichenfolgen haben gute Aussicht, von den Antwortmaschinen berücksichtigt zu werden, weniger geläufige scheiden aus. »Da sich alle Eigenheiten in der Masse der Trainingsdaten ausmitteln, neigt solche literarische KI zu einem konventionellen Umgang mit Sprache«14, beobachtet der Literaturwis­senschaftler Hannes Bajohr, der die poetischen Möglich­keiten und Einschränkungen künstlicher Intelligenz auslotet. Über Bajohrs Befund hinausgehend, könnte man von einer Konventionalität zweiter Ordnung, einer Meta- oder Hyperkonventionalität, sprechen. Diese entsteht schon dadurch, dass die Systeme nicht nur die Alltagssprache und -kommunikation nachbilden,

6 Ren6 Descartes: Discours de la m6thode. Französisch – deutsch. Übers. u. hg v. Lüder Gäbe. Hamburg 1990, S. 94•

7 Das Unternehmen OpenAl stellt im Netz einen sogenannten »Tokenizer« zur Verftigung, der eingegebene Texte in die operationalisierbaren Einheiten zerlegt (https://platform.openai.com/tokenizer).

8 Gottfried Wilhelm Leibniz: »Anfangsgründe einer allgemeinen Charakteris­tik« [1677], in: ders.: Philosophische Schriften. Bd. IV. Hg. u. übers. v. Herbert Herring. Darmstadt 2013, S. 39-58, hier S. 53•

9 Ebenda, S. 55•

10 Der neuseeländische Datenwissenschaftler David Rozado kam nach einer Reihe von Tests zu dem Ergebnis, die Antworten von ChatGPT manifestier­ten eine »left-leaning political orientation«. Vgl. David Rozado: »The Political Bisses of ChatGPT«, in: Social Sciences 2023, 12(3): 148.

11 Vgl. dazu: Adrian Lobe: »Geschichten von morgen«, in: taz, 26.01.2023.

12 Auch dazu: Lobe, a.a.O.

13 Musk sprach in diesem Zusammenhang im April 2023 von »TruthGPT« (https://www.haridelsblatt.comitechnikiit-hiternetitruthgpt-elOn-muSk­kuendigt-konkurrenz-fuerld-software-chatgpt-an/29o99296.hunl).

14 Hannes Bajohr: »Ist das auch garantiert handgeschrieben?«, in: FAZ,

29.01.2023.

 

sondern diese auch überformen. »Die Vorstellung wird also in wirkliche Objectivität hinüberversetzt, ohne darum der Subjectivität entzogen zu sein«15, beschrieb der Sprachdenker Wilhelm von Humboldt 1836 die eigentümliche Medialität der Sprache. Diese vermittelt Eindruck und Ausdruck, Individuelles und Allgemeines, Anschauung und Begriff. Über alle er­kenntnisleitenden Gegensätze ist sie immer schon hinaus. Dagegen zielen die ermittelnden Sprachmo­delle auf den kleinsten gemeinsamen Nenner. Sie orientieren sich nicht nur am Querschnitt des Ge­läufigen, sondern erheben ihn zum Maßstab. So wird das Sprachmodell der selbstlernenden Systeme zum Modell der Sprache insgesamt, nach dem diese sich zu richten hat. Den Textkorpus, auf den die Systeme zurückgreifen, erzeugen sie zugleich auch selbst – ins­besondere dann, wenn künftig ein erheblicher Anteil alltäglicher Sprechakte von künstlicher Intelligenz hervorgebracht oder eingeflüstert wurde.

 

Die Ausbreitung künstlicher Intelligenz dürfte sämt­liche Kommunikationsverhältnisse und die symboli­sche Struktur der Lebenswelt tiefgreifend verändern.

 

Grunderwartung an einen Text ist dann nicht mehr, dass er menschlichen Ursprungs ist, denn die maschi­nelle Herkunft wird in immer mehr Alltagssituationen zur Normalität und zur Norm. Das Versprechen, der Einsatz künstlicher Intelligenz entlaste von sprach­lichen Routineaufgaben und schaffe neue Freiräume für geistige Spontaneität, könnte tatsächlich eingelöst werden.

 

Aber gleichzeitig wird sich ein wachsender Anteil der menschlichen Kommunikation in eine algo­rithmisch gesteuerte Routine verwandeln: in einen zunehmend selbstbezüglichen Verwertungskreislauf aus Repetition, Variation und Rekombination. Je größer und umfassender dieser Kreislauf ist, desto mehr wer­den sprachliche Eigenheiten an den Rand gedrängt. Sprachliche Neuerungen setzen eine Überschreitung der Sprachkonventionen voraus, die im hyperkonven­tionellen Umfeld der großen Sprachmodelle zuneh­mend erschwert, wenn nicht unmöglich gemacht wird.

 

Es geht nicht nur um literarische und stilistische Originalität, sondern auch um regionale Färbungen und Idiome, letztlich auch die Eigentümlichkeit der Nationalsprachen. In den Sprachmodellen, die eine durchgängige Interoperabilität der Zeichen, Wörter, Sätze und auch Sprachen herstellen, wird der »Orkus des Zeichens«16, in dessen Abgrund der Sprachwissen­schaftler Jürgen Trabant in seinem Buch Sprachdäm­merung blickte, umfassend. Nie war Sprache gleich­gültiger als in den systemisch erzeugten Sprach- und

Gedankenäquivalenten.

 

Für Trabant ist nicht die babylonische Sprachverwirrung das Schreckensbild, sondern das Antibabel der weltumspannenden An­gleichung, dem die einzelnen Sprachen mit ihrer je eigenen »Weltansicht« – auch dies ein Humboldt-Wort – zum Opfer fallen. Der Versuch, die sprachliche »Energeia«17 produktiv zu machen, führt zur Ermat­tung und Lähmung der schöpferischen Kraft, denn die ermittelnde Berechnung ist nicht erneuernd, son­dern nachbildend und zugleich planierend. Neues, Eigensinniges und Unkonventionelles erscheint dann nur noch als unmaßgebliche Abweichung vom Mehr­heitsmuster.

 

Durch die Integration der Chatbots in Suchma­schinen, Textverarbeitungsprograinme, Bürosoftware, Sprachassistenten und Chatplattformen sowie durch deren Einsatz in Sozialen Medien und im Journalismus wird sich der Anteil automatisch erzeugter Texte und maschinell assistierter Kommunikation in den nächs­ten Jahren stark erhöhen. Im Zuge der schleichenden Hybridisierung von Schriftkultur und Kommunikation ergibt sich ein Umfeld, in dem mit dem Sprechen und Schreibelt auch das Denken algorithmisch auf Linie gebracht wird. Es entsteht ein fließender Übergang zwischen Systemkonformität im technischen und im politischen Sinn. Anpassung wird mit Komfortgewinn und Arbeitserleichterung belohnt. Umgekehrt werden sprachliche, stilistische und gedankliche Abweichun­gen als unzulänglich markiert, beanstandet, absehbar auch verfolgt und inkriminiert. Der linientreue Ge­danke schreibt sich selbst, während der unbotmäßige sich zahllosen Widrigkeiten ausgesetzt sieht. Die mit immer mehr Vollmachteten ausgestatteten Korrektur­funktionen und Formulierungsassistenten verweigern ihm nicht nur die Unterstützung, sondern setzen sich ihm entgegen.

 

Von den drei Sinnbezügen des sprachlichen Zei­chens, die der Sprachtheoretiker und Psychologe Karl Bühler in den dreißiger Jahren des letzten Jahrhunderts in seinem »Organonmodell der Sprache«’8 herausstellte, bleibt keiner unangetastet: Die maschinell erzeugten Texte sind weder Ausdruck von Subjektivität, noch las­sen sie sich als auf ein Gegenüber gerichteter Appell verstehen, weil beide Bezüge durch ein letztlich intern operationalisiertes Als-ob ersetzt werden. Und sie sind, genau besehen, auch keine Darstellung, weil sie nicht sachhaltig und erfahrungsgesättigt sind. Die generierte Rede ist das Ergebnis einer kalkulatorischen Ermittlung, für die Korrespondenz mit Außersprachli­chem unmaßgeblich ist. Am Problem, dass die Zeichen

 

in rechnererzeugten Texten zwar aufeinander verwei­sen, aber nicht im engeren Sinn semantisch sind, weil ihnen der Weltbezug fehlt, laboriert die KI-Forschung schon seit Jahrzehnten. Das »Symbol Grounding«19 sieht Hannes Bajohr in neueren, auf künstlichen neuro­nalen Netzen aufgebauten Sprachgeneratoren zumin­dest in primitiver Form verwirklicht. Er verweist auf multimodale KI-Systeme, die Wort- und Bildvektoren aufeinander beziehen und so eine indexikalische Anbindung, eine Erdung der Zeichen, ermöglichen.20 Dem ist zu entgegnen, dass die Referenzialität der Bilder, auf die das System zurückgreifen kann, ihrer­seits fragwürdig ist – nicht zuletzt deshalb, weil auch sie künstlich erzeugt sein könnten. Wo sich eine rudi­mentäre Semantik ausbildet, gerät auch diese in den Zirkel der Selbstverwertung.

 

Der sprachliche Output der Systeme, die alle Sinn­bezüge der Sprache kappen, steht nicht mehr in der Dimension von »wahr« und »unwahr«, auch nicht von »richtig« und »falsch« oder »aufrichtig« und »unauf­richtig«. Die Anonymisierung der Geltungsansprüche, die keiner Person mehr zurechenbar sind und also auch nicht mehr begründet oder gerechtfertigt wer­den müssen, führt zu einer weitgehenden diskursiven Entpflichtung. Abgesehen von den manuellen Trai­ningsimpulsen ist ein solches System geschlossen und selbstreferenziell. Es entspricht nur noch eigenen Maß­stäben und schöpft aus Quellen, die es zunehmend selbst erzeugt.21

 

Das Effizienzpotenzial, das KI-Systeme bieten, dürfte in keinem Anwendungsbereich ungenutzt bleiben. Der Einsatz von Chatbots für eine automatisierte Propa­ganda,in den Sozialen Medien, die mit vielstimmigen Kommentaren gleicher Tendenz geflutet werden könn­ten, liegt nahe. Sich vorzustellen, wie ein algorithmisch gesteuertes Sprachregime, als zeitgenössische »Neu­sprech«-Variante, und ein digitalisiertes »Wahrheits­ministerium« synergetisch zusammenwirken, erfordert nicht allzu viel Fantasie. Was in George Orwells dys­topischer Fiktion Nineteen Eighty-Four mit viel Perso­nalaufwand und größtenteils durch das Fälschen und Umschreiben von Papierdokumenten betrieben wird, könnte einer maschinellen Intelligenz überlassen wer­den: die Herstellung eines lückenlosen, durchgängig begradigten Deutungskontinuums im Fluchtpunkt der jeweiligen Gegenwart. Wenn alles Gewesene in fort­währender Anpassung sämtlicher historischer Zeug­nisse auf das Maß und die Formel des gegenwärtig Genehmen und Opportunen gebracht wird, erlischt mit dem kulturellen Gedächtnis die Vergangenheit selbst.

 

Eine solche totale Herrschaft über die Geschichte, ja über die Zeit, die ihrer wesentlichen Dimension beraubt wird, ließe sich nur maschinell verwirklichen.

 

Würde sie tatsächlich realisiert, erstreckte sie sich auch auf die Zukunft als Inbegriff des Offenen. Künftiges wäre nur noch die Verlängerung des Deutungskontinuums und ginge restlos in der selbsttätig fortgeschriebenen Gegenwart auf.

 

Wer die Technisierung der Sprache und die Sprach­lichkeit der Technik in ihrer epochalen Bedeutung verstehen möchte, sieht sich auf Martin Heidegger ver­wiesen.

 

Bereits seine Ausführungen zur »Öffentlichkeit« in Sein und Zeit lassen sich auf das Wirken der heutigen Sprachalgorithmen und -modelle beziehen: Indem sie Bedeutungen planierend verallgemeinern, verfestigen sie ein digitales Man: »Abständigkeit, Durchschnitt­lichkeit, Einebnung konstituieren als Seinsweisen des Man das, was wir als >die Öffentlichkeit< kennen.«22 In Heideggers späterer Begriffswelt ließe sich die automatisierte Sprachproduktion als Kulminations­punkt der »Sprache des Ge-Stells«23 charakterisieren. Ohne in den lg5oer- und 196oer-Jahren das spätere Ausmaß der Computerisierung absehen zu können, versteht Heidegger darunter die fortschreitende For­malisierung der Sprache und des Sprechens, die De­gradierung und technische Zurüstung des Wortes zur Information. Technik, als »Ge-Stell«, ist die handgreif­liche Fortsetzung und Überbietung des vorstellenden, objektivierenden Denkens der abendländischen Meta­physik. Und diese stellt nicht nur das Sein und den Menschen, sondern auch die Sprache, indem sie diese an das »rechnende Denken«24 delegiert.

 

Heidegger kann schwerlich als KI-Theoretiker in Anspruch genommen werden, aber einige Denkfiguren in Unterwegs zur Sprache haben nahezu prognosti‑

15 Wilhelm von Humboldt: Ueber die Verschiedenheit des menschlichen Sprachbaues und ihren Einfluß auf die geistige Entwicklung des Menschen­geschlechts [1836], in: ders.: Werke. Hg. v. Wolfgang Stahl. Bd. 6. Schriften zur Sprachphilosophie II. Stuttgart 1999,5. 49.

16 Jürgen Trabant: Sprachdämmerung. Eine Verteidigung. München 2020, S. 47.

17 Humboldt, a.a.O., S. 42.

18 Karl Bühler: Sprachtheorie. Die Darstellungsfunktion der Sprache [1934]. Mit einem Geleitwort v. Friedrich Kainz. Frankfurt/Main, Berlin, Wien 1978, S. 24 ff.

19 Stevan Harnard: »The Symbol Grounding Problem«, in: Physica D: Nonlinear Phenomena, Nr. 42, 1-3, Juni 1990, 5. 335-346.

20 Hannes Bajohr: »Dumme Bedeutung. Künstliche Intelligenz und artifizielle Semantik«, in: Merkur, Jg. 76, Nr. 882, November 2022,5.69-79.

21 Von einem »Ouroboros-Effekt« sprechen Benjamin Bratton und Blaise Agüera y Arcas: »The Model Is The Message«, in: Noema, 12.07 2022

22 Martin Heidegger: Sein und Zeit. 16. Aufl. Tübingen 1986, 5. 127.

23 Martin Heidegger: Unterwegs zur Sprache. Gesamtausgabe. Bd. 12. Hg. v. Friedrich-Wilhelm von Herrmann. Frankfurt/Main 1985, S. 251.

24 Ebenda, S. 231.

 

schen Wert: Der Mensch werde, sagt Heidegger, über die Sprache, der er sich nicht entziehen kann, in das »technisch-rechnende Wesen eingeformt«25. Nicht nur die Sprache wird verfügbar gemacht und in die Apparatur eingespannt, auch der Sprechende. Weil der Mensch auf Sprache angewiesen ist, weil ihn die Sprachfähigkeit in seinem Menschsein auszeichnet wie keine andere Eigenschaft, kann er sich nicht gegen diese Vereinnahmung wehren.

Stellenweise lesen sich Heideggers Überlegungen, die sich auf die Informationstheorie und Kybernetik seiner Zeit beziehen, wie eine Auseinandersetzung mit den heutigen »Large Language Models«. So spricht Heidegger davon, dass die formalisierte Sprache zu­mindest in einer Übergangszeit immer wieder auf die natürliche Sprache »zurückverwiesen« werde, »um durch die nicht formalisierte Sprache die Sage des technischen Bestandes zur Sprache zu bringen«26. Auch die gegenwärtigen Sprachmodelle nutzen die natürlichen Sprachen als Fundus, um die Produktion weiter zu optimieren und zu automatisieren, so weit, bis die Künstlichkeit den Anschein vollkommener Natürlichkeit erweckt. Dank der Sprachalgorithmen ist die »Sage des technischen Bestandes« beredter als jemals zuvor. Die »technische Bestellbarkeit des Sagens«27 hat sogar ein solches Niveau erreicht, dass sie nicht mehr als Formalisierung erscheint, sondern sich ganz organisch gibt.

 

Der von Heidegger beschriebenen Einformung geht eine Annäherung auf beiden Seiten voraus: Einerseits werden die Sprachmodelle in künstlichen neuronalen Netzen optimiert, die hirnphysiologische Vorgänge , und menschliche Erkenntnisleistungen nachbilden.

Andererseits bedienen sich Kognitionspsychologen bevorzugt technizistischer Bilder, wenn sie etwa von neuronalen »Schaltkreisen« und »errechneten« Bedeu tungen sprechen: »Die entsprechenden Neuronen­gruppen feuern gleichzeitig, und so werden synapti­sche Verknüpfungen etabliert und gefestigt – schnell verfügbare Schaltkreise entstehen.«28 Dem Versuch, die Maschine durch Wahrscheinlichkeitskalküle und Mustererkennung in riesigen Datenmengen zu ver­menschlichen, entspricht eine vorauseilende Maschini­sierung und Automatisierung menschlicher Intelligenz, eine Selbstalgorithmisierung des Geistes. Framing als Sprachpraxis, die synaptische Verknüpfungen im Gehirn durch formelhafte Repetition verfestigt, kommt einer Programmierung des Denkens gleich. Wieder­holung, als Grundprinzip der Propaganda, zielt auf Automatisierung.

Bruchlos in die Apparatur einfügen lässt sich dei Mensch nur, weil die algorithmisch ermittelte Spra che über eine doppelte Passung verfügt. Sie ist mii der maschinellen und der menschlichen Intelligent kompatibel, die sich über und durch sie einander annä hern, angleichen. Die operationalisierte Sprache wird zum Interface. Elektroenzephalografie, implantierte Elektroden oder andere direkte neurotechnische Vierknüpfungen sind nicht nötig, weil die Sprache bereits. als Mensch-Maschine-Schnittstelle zur Verfügung steht.

In den üblichen Bedrohungsszenarien wächst die künstliche Intelligenz dem Menschen über den Kopf und entzieht sich seinem Einfluss. Die KI entwickele sich zur technoiden Tyrannis. Der Mensch wird von der Maschine, seinem Produkt, -verdrängt, geknechtet und möglicherweise gar ausgelöscht.

 

Eine Gruppe von Tech-Unternehmern und KI-Forschern warnte im März 2023 in einem offenen Brief, der Mensch drohe die Kontrolle über die Zivilisation zu verlieren, und forderte ein Moratorium der Chatbot-Entwicklung.2

 

Mindestens so wahrscheinlich wie diese folgenschwere Überschreitung des Menschen und seiner Geschichte die nicht nur Schreckensbild, sondern auch als utopische Verheißung ausgemalt werden kann, ist seine auf Dauer gestellte Unterschreitung. Statt des in Aus sicht gestellten Transhumanismus könnte ein Diesseih des Menschen, der notorisch unterhalb seiner Möglichkeiten gehalten würde und dem von Descartes beschriebenen Sprechautomaten gliche, zum Dauerzustand werden.

 

Alles Neue wäre dann eine Wiederholung des Immergleichen in der endlosen Wiederaufbereitung der kurrenten Rede, des schon Gängigen das mit jedem Durchlauf, jedem Bedeutungsrecycling noch gängiger und schließlich unausweichlich würde Der Inständigkeit der etymologischen Denkfigur »Die Sprache spricht«30, zu der sich Heideggers Sprach denken verdichtet, steht ein tautologischer Leerlaut im größtmöglichen Maßstab gegenüber. Das Denken -erlischt mit der Sprache im perfektionierten Als-ob.

25 Ebenda, S. 252.

26 Ebenda.

27 Ebenda.

28 Elisabeth Wehling: Politisches Framing. Wie eine Nation sich ihr Denken ein redet – und daraus Politik macht. Köln 2016, S. 58.

29 https://futureoflife.org/open-letter/pause-glant-ai-experiments/.

30 Heidegger, Unterwegs zur Sprache, a.a.O., S. ro ff.

 

AUS : TUMULT 2023