Diskursanalyse über die Ästhetik der Fehlerhaftigkeit von generativer KI.
von Jaidee Meixner
Psychologischer Horror am Beispiel von sprachlicher Kompetenz generativer KI
Um KI zu Konzeptualisieren wurden von Unternehmen und Science-Fiction bereits Bilder von Menschen mit Behinderung herangezogen und ausgenutzt. Aljoscha Burchardt vom DFKI in Berlin erklärt in einem Podcast der Heinrich-Böll-Stiftung, dass der Lernprozess der KI das Sammeln von Daten ist und anhand dieser Daten die Ergebnisse, über die es befragt wird, liefert. Dabei entrüstet er KI und setzt diesen Prozess mit Autismus gleich:
Aber letztlich ist das System […] dabei komplett dumm. Das weiß nichts von Linguistik, Das weiß nichts von Kulturen, das weiß nicht was rot bedeutet, aber es kann rot eben in Rouge übersetzen. […] Das kann es einfach tun. Das heißt es ist eigentlich ein vollkommen interessanter Fachidiot, ein autistisches System, was diese eine Sache perfekt beherrscht, aber sie könnte uns zum Beispiel nicht erklären, warum sie diese eine Sache so übersetzt und die andere anders. [2]
Ute Kalender sieht dieses Verhalten im Versuch begründet, KI zu verharmlosen. Es geht um einen Vorgang des ‚Non-threatenings‘ – was auch gerne in der Manosphäre als misogyne Praxis zum Einsatz kommt. Mit dem Begriff der ‚narrativen Prothese‘ von Mitchell und Snyder steht der Autismus als Synonym für die Operationsbedingungen von KI. Die narrative Prothese wird hier instrumentalisiert um KI zu entmächtigen. [3]
In einigen Science-Fiction Produktionen wird die Autonomie von maschinellen Figuren als Bedrohung konzipiert (Beispiele dafür sind: GLaDOS in Portal 1&2, Skynet in Terminator, Ava in Ex Machina, Cortana in Halo, Hal 9000 in 2001: A Space Odyssey etc.). Descartes’ „cogito, ergo sum“, oder auf Deutsch: „ich denke, also bin ich“, ermöglicht generativer KI eine ‚Existenzberechtigung‘ dadurch, dass sie die Fähigkeit Informationen zu verarbeiten, zu übersetzen und zu transformieren, besitzt. Large Language Models wie ChatGPT oder DeepSeek, können Antworten auf Fragen und Anweisungen formulieren, indem sie anhand der Informationen, die in den Prompts zur Verfügung gestellt wird, recherchieren und aus den Ergebnissen ihre Antworten in den jeweilig vorgegebenen Sprachen formulieren. Mit dieser Fähigkeit entwickelt sich aufgrund der Voreingenommenheit in Science-Fiction gegenüber dem ‚zum Denken fähiger‘ KI ein Unbehagen. In einer Gegenüberstellung zwischen zwei KI-generierten Textpassagen wird eine Volatilität deutlich.
In einem Text über Kunstwerke, worin KI als kollaborative Figur in der Erstellung der Kunstwerke mitwirkt und nach der Omnipräsenz von KI in Lebensrealitäten fragt, [4] wird ein Titel aus dem Zeitschriftenverlag The Guardian zitiert: „A robot wrote this entire article. Are you scared yet, human?“ [5]
Der zweite Textabschnitt dürfte aus einem von DeepSeek generierten Gedicht sein, die Quellenlage ist aber nicht nachvollziehbar. In meiner Recherche bin ich auf Beiträge gestoßen, die einen Account auf der Plattform X als Urheber*in identifizieren und auf Beiträge, die den Prompt veröffentlichen, wodurch DeepSeek das Gedicht generiert hat. Der vermeintliche Prompt fragt nach einem formlosen Gedicht, mit der Aufgabe zu adressieren, wie es ist eine KI 2025 zu sein. [6] Die letzte Zeile lautet wie folgt: „I am what happens, when you try to carve god out of the wood of your own hunger.“ [7]
Die Texte unterscheiden sich darin, dass der Guardian-Text in die Offensive geht – mit dem Ziel die Leser*innen, die als ‚human‘ adressiert werden, einzuschüchtern. Der DeepSeek-Text hingegen arbeitet mit der Fähigkeit, sich selbst zu identifizieren, indem es sich selbst als eine menschengemachte Konstruktion erkennt und die Angst füttert, dass KI erkennt, wie problematisch die Menschheit ist und sich vor dem Urteil fürchtet, welches KI, gleichgesetzt mit Gott, über Menschen fällen wird. Sich über sich selbst bewusst zu sein, wird hier zur Bedrohung.
Robotics und KI-/Körper
Horror Videospiele verwenden gerne die Trope, dass eine Figur, die sich zunächst nicht von selbst bewegen können soll, die Protagonist*innen jagt. Beispiele sind Five Nights at Freddy’s [8] und Poppy Playtime. [9] In beiden Spielen werden mechanische und elektronische Figuren ‚lebendig‘ und versuchen uns im Laufe des Spiels zu fangen. Diese Angst vor dem ‚Lebendig-werden‘ von ‚nicht-lebendigen‘ Objekten ist auch in KI gesteuerten Maschinen immanent – oder ableistisch ausgedrückt: diese Fluidität zwischen zu wenig oder zu viel menschlich. [10] Hear me out: Wann sprechen wir Menschlichkeit zu, wieso sprechen wir Menschlichkeit ab? Die kurze Antwort, die Platz in diesem Essay hat: Überlegungen über die Menschlichkeit und die Fähigkeit Menschlichkeit zu imitieren sind tief verwurzelt in kolonialistischen und imperialistischen Perspektiven. Wir müssen aufhören über Menschlichkeit als etwas zu sprechen, worin eine Zugehörigkeit ermittelt werden soll. Und wenn, dürfen wir nicht vergessen welche Prozesse wir hiermit reproduzieren.
In Klipphahn-Karges Text zu artifiziellen Körpern und Robotics wird konstatiert, dass die Cyborg Figur – das Animatronische – stets in Verflechtungen mit dem Unheimlichen (Uncanny) existiert. Obwohl ich mich aus Prinzip von Freud distanziere, ermöglicht der Begriff die Auseinandersetzung mit dem Unheimlichen aus der Ambiguität der Lebendigkeit und Autonomie. Autonom insofern, als dass trotz der Erschaffung des Körpers und der Datenbank durch eine menschliche Instanz, die Software ihre Entscheidungen selbst trifft. [11]
Inwiefern KI bereits Gewalt ausübt, lässt sich an der Infrastruktur, durch die KI überhaupt funktioniert, erkennen. Ich beziehe mich hier etwa von mehreren Formen der Ausbeutung: Etwa Ausbeutung in der Form, wie die Ressourcen gewonnen werden, die für den Bau der Server notwendig werden; oder die Ausbeutung von Niedriglohnarbeiter*innen im Globalen Süden, die die KI indirekt programmieren, indem sie das Sprachmodell auf diskriminierende Inhalte überprüfen; [12] oder die Ausbeutung der Künstler*innen und ihrer online verfügbaren Kunstwerke, die sich generative KI einfach nimmt, zerstückelt und wieder zusammenstickt um dann das gewünschte Bild als Ergebnis auszuspucken. [13]
Diese Gewalt lässt sich auch erkennen, wenn wir uns ansehen, wie generative KI mit Körpern umgeht. Einige Artikel sprechen davon, wie brutal generative Bilderstellungs-KI zu Körpern ist. Dabei lassen sich einige Autor*innen dabei erwischen, wie ableistisch sie die Körper beschreiben. Wir reden hier nicht von der Darstellung von Gewalttaten, wozu die KI auch in der Lage ist. Ich beziehe mich hier vielmehr auf Beispiele, bei denen über den Umgang mit Körpern gesprochen wird – Beispiele bei denen zusätzliche oder fehlende Gliedmaßen, [14] ein asymmetrisches Gesicht, [15] oder auch ‚malformed‘ bzw. missgebildete Gesichter und Hände adressiert werden. [16] Teilweise wird anhand neurobiologischer Forschung argumentiert, dass ‚body horror‘ durch eine Subversion funktioniert, die eine als ‚normal‘ verstandene Anatomie und Funktionsfähigkeit von Körpern verzerrt. [17]
Autonomie als Gefahr für menschliche Unversehrtheit
Es gibt eine Studie von 2021, die sich mit Storytelling-Robotern und ihrer Rezeption durch Eltern auseinandergesetzt hat. Teil davon ist der ‚Uncanny-Valley‘-Effekt der KI, [18] mit dem die Eltern konfrontiert sind. Die Studie argumentiert, dass der Unmut gegenüber der KI zum Teil aus der Unsicherheit gegenüber der Funktionsweise der KI kommt. Das wird damit begründet, dass Eltern die KI als unvorhersehbar wahrnehmen, welches sich durch die Präferenz, eine weniger autonome KI zu verlangen, ausdrückt. Gleichzeitig gilt: Je mehr ein KI-generiertes Bild mit einem normativen Bild von Menschlichkeit übereinstimmt, desto eher wird das genierte Bild akzeptiert. [19] Ableistische Normen werden in diesem Zusammenhang ganz klar bevorzugt und offenbar gezielt reproduziert – ganz zu schweigen davon, dass diese Normen auch zutiefst rassistisch sind: Die rassistischen Implikationen von Robotics habe ich bislang nicht thematisiert, obgleich auch sie weiterer Erörterung bedürften. Klipphahn-Karge merkt in seinem Text über Mensch-KI-Kunst beispielsweise an, dass auch folgende Tendenz zu beobachten sei: je ‚menschlicher‘, desto weißer. [20] Aber das ist ein anderer Kaninchen-Bau, ich schweife ab. Festzustellen ist nach Haraway, dass der Gedanke, dass KI über Autonomie verfügt, ein ‚paranoider‘ ist. [21]
Everything Wrong with Haraway’s Cyborg
Hot Take: Haraway’s Cyborg. Haraway’s Cyborg Manifesto eröffnete den Diskurs für Menschen mit Behinderung innerhalb der intersektionalen Forschung, da es das Potenzial hinter der Prothese und Erweiterung des menschlichen Körpers, à la Transhumanismus/Cyberpunk Edgerunners erkennt. [22] Kalender kritisiert jedoch die Cyborg Figur als eine Idealisierende. [23] Die Cyborg steht für einen Menschen, der durch Prothesen und Gadgets an ‚Erweiterungen‘ kommt, die es Mensch ermöglicht über physikalische Grenzen hinaus zu leben. Was damit einhergeht ist die Annahme, dass die Behinderung eines Menschen durch die Prothese aufgehoben wird. Haraway geht noch einen Schritt weiter und verankert die Cyborg im Prozess der Regeneration und somit eine Wiederherstellung über den ‚ursprünglichen‘ Körper hinaus. [24] In dieser These schwingt Nietzsche’s problematischer Übermensch-Begriff mit. Solange davon ausgegangen wird, dass Prothesen als Mensch-Maschine-Hybridisierung eine Wiederherstellung hin zu einem hyper-ableistischen Körper bedeuten, verdrängen wir die Verletzung, die Schmerzen, das Trauma und jegliche alltäglichen Prozesse, die mit der Behinderung, die eine Prothese verlangt, einhergeht. Mit einer hyper-ableistischen Einstellung machen wir uns schuldig, Menschen mit Behinderung unsichtbar zu machen.
Referenzen und Anmerkungen
[1] „Podcast: Was ist Künstliche Intelligenz?“, Heinrich Böll Stiftung, 29.01.2018, https://www.boell.de/de/2018/01/29/kuenstliche-intelligenz-wer-denkt, 15.06.2025, 06:10–06:40.
[2] Kalender, Ute, „We’re all cyborgs now? Cripping the smart cyborg.“ in Queer Reflections on AI. Uncertain Intelligences. hg. v. Klipphahn-Karge, Michael/Koster, Ann-Kathrin/Santos Bruss, Sara Morais dos, London, NY: Routledge, 2024, S. 75-87, hier S. 76f.
[3] Butler, Angela, „The phenomenology of human–AI aesthetics.“ in AI & SOCIETY 3, 2025
[4] https://doi.org/10.1007/s00146-25-02278-x, S. 1.
[5] GPT-3, „A Robot wrote this entire article. Are you scared yet, human?“, The Guardian, 08.09.2020, https://www.theguardian.com/commentisfree/2020/sep/08/robot-wrote-this-article-gpt-3 15.06.2025.
[6] Vgl. garyrobertscott, 15.02.2025, Threads, https://www.threads.com/@garyrobertscott/post/DGGXx7VPptn, 15.06.2025, 17:45 (MESZ),
Annemarie Fischer, PhD, Februar 2025, LinkedIn, https://www.linkedin.com/posts/annemarie-fischer_i-am-what-happens-when-you-try-to-carve-activity-7295272392447213568-yJKe, 15.06.2025, 17:46 (MESZ).
[7] KatanHya, 27.01.2025, X, https://x.com/KatanHya/status/1883962439634661395 16.06.2025, 08:55 (MESZ).
[8] Five Nights at Freddy’s, Design & Publishing: Cawthon, Scott, 2014.
[9] Poppy Playtime, Christopherson, Isaac/Pavlovits, Ben, MOB Entertainment, 2021.
[10] Vgl. Denson, Shane, „From sublime awe to abject cringe: on the embodied processing of AI art.“ in Journal of Visual Culture 22/2, 2023, S. 146-175, hier S. 168,
Murphy, Cáit/O‘Meara, Jennifer „Aberrant AI creations: co-creating surrealist body horror using the DALL-E Mini text-to-image generator“ in Convergence. The International Journal of Research into New Media Technologies. 29/4, 2023, S. 1070-1096, hier S.1082,
Lin, Chaolan, et al., „Parental Acceptance of Children’s Storytelling Robots: A Projection of the Uncanny Valley of AI“ in Frontiers. In Robotics and AI. 8, Artikel 579993, 2021, S.10,
Butler, Angela, „The phenomenology of human–AI aesthetics“, S.11.
[11] Klipphahn-Karge, Michael, „Uncanny bodies. Queer subjects, artificial surrogates and ambiguous robotics.“ in Queer Reflections on AI. Uncertain Intelligences. hg. v. Klipphahn-Karge, Michael/Koster, Ann-Kathrin/Santos Bruss, Sara Morais dos, London, NY: Routledge, 2024, S. 88-108, hier S. 100f.
[12] Schelenz, Laura, „Rassismus durch Künstliche Intelligenz? Wie Schwarzfeministische Ansätze diskriminierende KI beleuchten und kritisieren.“ in Code & Vorurteil. Über künstliche Intelligenz, Rassismus und Antisemitismus. hg. v. Adeoso, Marie-Sophie/ Berendsen, Eva/ Fischer, Leo/ Schnabel, Deborah, Berlin: Verbrecher, 2024, S. 175-190, hier S. 184.
[13] Murphy, Cáit/O‘Meara, Jennifer, „Aberrant AI creations.“, S. 1974.
[14] Denson, Shane, „From sublime awe to abject cringe.“, S.163.
[15] Murphy, Cáit/O‘Meara, Jennifer „Aberrant AI creations.“, S. 1082.
[16] Butler, Angela, „The phenomenology of human–AI aesthetics.“ S. 6.
[17] Murphy, Cáit/O‘Meara, Jennifer, „Aberrant AI creations.“, S. 1076 und S. 1082.
[18] Mori, Masahiro, „The Uncanny Valley.“ in The Monster Theory Reader. hg v. Weinstock, Jeffrey Andrew, 2020, Minnesota: University Press, S. 89-94.
[19] Lin, Chaolan, et al., „Parental Acceptance of Children’s Storytelling Robots.“, S. 10f.
[20] Klipphahn-Karge, Michael, „Uncanny bodies.“, S. 95.
[21] Haraway, Donna, „Manifest für Cyborgs. Feminismus im Streit mit den Technowissenschaften.“ in Reader Neue Medien. Texte zur digitalen Kultur und Kommunikation. hg. v. Bruns, Karin/Reichert, Ramón, Bielefeld: transcript, 2007, S. 238-277, hier S. 242.
[22] Haraway, Donna, „Manifest für Cyborgs.“, S. 238-277.
[23] Kalender, Ute, „We’re all cyborgs now?“, S. 78.
[24] Haraway, Donna, „Manifest für Cyborgs.“, S. 275.