Das Interface von Chat GPT als Ort epistemischer Macht
von Anne-Christine Boese

„Was kann ich heute für dich tun? Woran arbeitest du gerade? Bist du bereit?“ Mit diesen vermeintlich neutralen und einladenden Fragen begrüßt Chat GPT seine Nutzer*innen (s. Abb.1). Die Formulierungen laden zum Dialog ein, fast schon euphorisch verspricht Chat GPT seine Unterstützung. In algorithmischer Natur wechseln sich die Fragen immer wieder ab, um User*innen in eine lineare Kommunikationsschleife zu verwickeln. Denn bereits die scheinbar natürliche Aufforderung und Ansprache ist das Resultat gezielter Interface-Gestaltung. [1] Das System rekonfiguriert hier vertraute Kommunikationsformen und integriert sie in ein digitales Textformat, das bestimmte Erwartungshaltungen hervorruft.
Es suggeriert, dass jede Eingabe sofort beantwortbar ist und das im Sinne der Nutzer*innen. [2] Fragmentarische oder fehlerhafte Prompt-Formulierungen reichen aus, um dialogische Kohärenz zu schaffen. [3] Die Interaktion folgt somit nicht der Illusion wertfreier Informationsverarbeitung [4], sondern einem kulturell kodierten Skript. Verstehen wird bestätigend modelliert und positiv konnotiert, Kritik deeskaliert, und jeder sprachliche Input wird auf Biegen und Brechen algorithmisch normalisiert. Alles zugunsten eines „endless engagements“ [5], das alternative Wissensformen marginalisiert und westliche Diskurslogiken als Standard naturalisiert. [6]
Ausgehend von Jay D. Bolter und Richard Grusins Konzept der Remediation [7] untersucht dieser Essay die These, dass Large-Language-Model (LLM)-Interfaces – wie das von Chat GPT – weit mehr sind als funktionale Verbindungen zwischen Mensch und generativer KI. Sie fungieren als kulturelle Filter, die spezifische Normen, Werte und Diskursordnungen privilegieren. [8] Im Zentrum der Analyse steht somit weniger das Modell als solches, vielmehr das Interface als vermittelnde Struktur zwischen algorithmischer Textproduktion und menschlicher Sinnzuschreibung. Bolter und Grusin argumentieren, dass neue Medien ältere Medien aufgreifen und verändern, indem sie deren Formen und Funktionen transformieren. Stets mit dem Ziel, ihre eigene Medialität zu verschleiern oder zu offenbaren. [9] Dabei oszilliert das Medium – in diesem Fall das Interface – zwischen zwei Polen: Immediacy, der Inszenierung technischer Transparenz und Natürlichkeit, und Hypermediacy, der Sichtbarkeit medialer Vermittlung als ästhetisches Ereignis.

Die beschriebenen Prinzipien von Immediacy und Hypermediacy werden im praktischen Umgang mit dem Interface besonders greifbar. Gerade wenn dialogische Kohärenz zu scheitern droht, z.B. bei missverständlich formulierten Prompts, kritischen Rückfragen oder nicht westlichen Referenzen, tritt die epistemische Macht des Interfaces besonders hervor. Denn anstatt die eigenen Grenzen transparent zu machen, reagiert Chat GPT durch ermutigende Worte, stilisierte Freundlichkeit oder thematisch breite und ausweichende Antworten (s. Abb.2). Ein Verhalten, das darauf abzielt durch algorithmische Fehlerunterdrückung Irritation zu glätten und die Kommunikation im Sinne eines nicht enden wollenden Dialogflusses aufrecht zu erhalten. Was als Zeichen von Zugänglichkeit erscheinen mag, entpuppt sich als codierte Interface-Strategie, die technologische Vermittlung als natürlich erscheinen lässt und damit dem Ideal medialer Immediacy folgt. Fehlinterpretationen werden dabei diskret übergangen. Stattdessen wird dem Prompt ein vermeintlicher Sinn unterstellt, um Engagement zu fördern. Die nun entstandene reibungslose Oberfläche täuscht über die kulturellen und epistemischen Selektionsmechanismen hinweg, die im Modell wirksam sind.
Erst in Momenten technischer Überforderung, durch etwaige stereotype Antworten auf kulturell sensible Fragen oder explizite Fehlermeldungen bei kritischen Themen (s. Abb. 3) wird das Interface selbst sichtbar und offenbart jene Bruchstellen, die Bolter und Grusin als Hypermediacy bezeichnen: die Sichtbarkeit des Mediums als formgebende Struktur.
Dabei bleibt die mediale Selbstoffenbarung punktuell, erratisch und ist oft mit einer rhetorischen Strategie des Deeskalierens gekoppelt. Lieber werden problematische Anfragen affirmativ gespiegelt, um jegliche Kritik zu vermeiden. [9] Anstatt konzeptionelle Lücken oder Trainingsdefizite zu benennen, begegnet das System Kritik mit Lob oder vorsichtiger Einordnung, ohne jedoch seine kulturellen Codierungen offenzulegen. Hierbei handelt es sich nicht etwa um epistemische Transparenz, sondern lässt sich vielmehr als rhetorisch eingebettete Rückversicherung technischer Autorität deuten.

Dabei sind die alltäglichen Interaktionen mit dem Interface – wie Wendy Chun wiederum hervorhebt – keineswegs trivial: Ihre normative Wirkung entfaltet sich in der Wiederholung. Dort, wo technologische Steuerung zur Gewohnheit geworden ist, wirkt epistemische Macht unsichtbar und unverhandelt unterhalb der Wahrnehmungsschwelle. [10] In Anlehnung an Bolter und Grusin lässt sich hier auch von epistemischer Immediacy sprechen: Das Interface erscheint nicht transparent, weil es etwa technisch neutral wäre, sondern weil seine semantischen Vorgaben vertraut wirken und immer mehr als selbstverständlich wahrgenommen werden, wie beispielsweise eben affirmative, rhetorische Mittel. [11] Je häufiger dieselben Interaktionsmuster auftreten, desto stärker verschwinden die Mechanismen der Bedeutungssteuerung aus dem Blick.
Was als dialogische Offenheit erscheint, basiert in Wahrheit auf einer Gestaltung, die Differenz und Reibung möglichst minimiert. Affirmation dient dabei nicht dem Aushandeln von Bedeutung, sondern sichert den Dialogfluss, selbst auf Kosten von Präzision oder Kritik.
Die textbasierte Linearität des Interfaces orientiert sich dabei an westlichen Diskursidealen, die sich insbesondere in Vorstellungen zu sprachlicher Klarheit, Direktheit und logischer Abfolge widerspiegeln. Formen impliziter, kontextueller und nonverbaler Kommunikation werden dadurch systematisch marginalisiert. Auch sprachlich zeigt sich diese Asymmetrie: Englisch fungiert als Standard Sprachausgabe, nicht-westliche Sprachen bleiben strukturell benachteiligt oder werden unvollständig verarbeitet. [12] Es entsteht ein hegemonialer Kommunikationsraum, der auf Kontinuität, Zustimmung und Reproduktion westlicher Diskursmuster ausgerichtet ist, dabei kulturelle Vielfalt formal einbezieht, aber epistemisch unterordnet. Ein System, wie Schelenz pointiert festhält, ,,per Default“ für weiße, westliche Perspektiven designt ist. [13]
Mit dem Konzept der „promiscuous and fragmented AI“ ein Gegenmodell zur affirmativen Oberfläche und normierenden Logik aktueller LLM-Interfaces. Shah entwirft ein alternatives KI-Modell, das sich deutlich von gängigen Perspektiven zu diversen Datensätzen und technischer Transparenz unterscheidet. Statt Verständigung zu simulieren, würde ein solches System Differenzen, Brüche und kulturelle Reibungen nicht glätten, sondern produktiv offenlegen. [14] Das Interface würde damit zu einem Ausgangspunkt kritischer Reflexion und Erkenntnis werden, an dem Bedeutung nicht nur ausgegeben, sondern verhandelt wird.
Der emanzipatorische Moment eines queeren Interfaces [15] besteht gerade darin, vorhandene Machtverhältnisse und Ausschlussmechanismen offenzulegen, anstatt einen Anspruch auf Perfektion zu erheben.
In diesem Essay wurde bewusst nur ein Aspekt dieser Komplexität angesprochen und zwar das Interface als Ort, an dem Immediacy, Hypermediacy und hegemoniale Machtstrukturen ineinandergreifen. In anderen Kontexten ließen sich weiterführend Trainingsdaten, KI-Modelle und Infrastrukturen analysieren. Als Erkenntnis bleibt hier – wenn auch nur fragmentarisch – angeschnitten, dass die epistemische Wirkmacht des Interfaces von Generativer KI nicht neutral, sondern normativ geprägt ist. Chat GPT, das exemplarisch näher beleuchtet wurde, ist somit kein universelles Dialogsystem. Vielmehr ist es ein binäres System, das darauf programmiert wurde, Zustimmung zu erzeugen und jegliche Irritation zu vermeiden, in dem Maße, in dem es seine hegemoniale Matrix erlaubt.
Endnoten
[1] In diesem Essay wird der Begriff Interface im Sinne Bolter / Grusins als remediative Struktur verstanden. Vgl. Jay David Bolter/Richard Grusin: Remediation. Understanding New Media, Cambridge/London: MIT Press 2000, S. 22–50.
[2] Vgl. Venkit, Pranav Narayanan et al.: „Search Engines in an AI Era: The False Promise of Factual and Verifiable Source-Cited Responses“, in: Proceedings of ACM, New York 2024, S. 2.
[3] Vgl. ebd., S. 3f.
[4] Vgl. Chun, Wendy Hui Kyong: „Queerying Homophily“, in: Queerying Homophily, 2018, S. 146f.
[5] Vgl. „Your perspective is quite insightful“. Deconstructing the Endless Engagement Aesthetics of AI Platforms, R.: Ben Grosser, youtube.com, 15. 05. 2024, https://www.youtube.com/watch?v=4AOYm72N0YE, 16. 06. 2025.
[6] Vgl. Adeoso, Marie-Sophie et al. (Hg.): Code & Vorurteil. Über Künstliche Intelligenz, Rassismus und Antisemitismus, Berlin: Verbrecher Verlag 2024, S. 9f.;
Schelenz, Laura: „Rassismus durch künstliche Intelligenz?“, in: ebd., S. 181f.;
Tao, Yan et al.: „Cultural Bias and Cultural Alignment of Large Language Models“, in: PNAS Nexus, Vol. 3, No. 9, 2024, S. 4.
[7] Bolter Grusin Remediation verweist dabei auf ein medienhistorisches Verhältnis der Überlagerung, in dem neue mediale Formn ältere Formate nicht tilgen, sondern in transformierter Weise weiterführen und kulturell neu codieren. Vgl. Bolter, Jay David / Grusin, Richard: Remediation. Understanding New Media, Cambridge/London: MIT Press 2000.
[8] Vgl. ebd., S. 22.
[9] Vgl. ebd., S. 21–44.
[10] Chun beschreibt die epistemische Wirksamkeit digitaler Medien insbesondere dort, wo deren Nutzung habitualisiert ist und dadurch normativ wirksam wird, ohne als solche aufzufallen: „Media matter most when they seem not to matter at all.“ Vgl. Chun, Wendy Hui Kyong: Updating to Remain the Same: Habitual New Media, Cambridge/London: MIT Press 2016, S. 1ff.
[11] Vgl. Bolter / Grusin, a.a.O., S. 21f.
[12] Vgl. Tao, Yan, et al. „Cultural Bias and Cultural Alignment of Large Language Models.“ PNAS Nexus, vol. 3, no. 9, 2024, S. 346f.
[13] Vgl. Schelenz, Laura (2024): ,,Rassismus durch künstliche Intelligenz? Wie Schwarzfeministische Ansätze diskriminierende KI beleuchten und analysieren“, in: Marie-Sophie Adeoso et al. (Hg.) Code und Vorurteil. Über Künstliche Intelligenz, Rassismus und Antisemitismus, Berlin: Verbrecher, S. 181.
[14] Vgl. Shah, Nishant (2024): ,,I Spy with my Little AI: How Queer Bodies are Made Dirty for Digital Technologies to Claim Cleanness“, in: Michael Klipphahn-Karge/Ann-Katrin Koster/Sara Morais dos Santos Bruss (Hg.): Queer Reflections on AI. Uncertain Intelligences, Oxon/New York: Routledge, S. 65–69.
[15] „Queering“ bezeichnet bei Shah sowohl eine Infragestellung gesellschaftlicher Normen, als auch eine Neugestaltung technischer Systeme, die auf Vielfalt, Widersprüchlichkeit und kollektive Entscheidungsprozesse ausgelegt sind. Vgl. ebd., S. 69.