Zwischen digitaler Vernunft und charmanter Freundin
von Luka Kühn
Too hot to handle ist ein Reality-Dating-Format, in dem sich die Teilnehmenden in Enthaltsamkeit üben müssen. Unter dem Deckmantel eines exzessiven Party Formats, treffen feier- und sexwütige Singles aufeinander und freuen sich auf eine Zeit voller heißer Flirts und Partys.
nach einigen Stunden kommt es zur großen Enthüllung: aus einem großen Spektakel enthüllt sich ein Kegel und sorgt für Besorgnis. Der berühmt berüchtigte Kegel „Lana“ ist das Aushängeschild dieses spezifischen Formats. Sieht man Lana, weiß man direkt in welchem Format man gelandet ist. Die Netflix-Produktion wies so große Erfolge auf, dass sie inzwischen internationale Ableger hat. Vor diesem Hintergrund scheint mir eine Analyse ihrer Gastgeberin Lana – einer künstlichen Intelligenz – sehr vielversprechend.
Lana ist die künstliche Intelligenz des Reality-Formats Too hot to handle. Ihre Aufgabe: Das Verhalten der Teilnehmenden analysieren und ihr oberflächliches, sexualisiertes Beziehungsverhalten hin zu einer Bereitschaft für authentische, tiefgreifende Beziehungen wandeln. Die Prämisse hierzu ist Enthaltsamkeit. Diese analysiert Lana und subventioniert die Gruppe gegebenenfalls mit dem Abzug des Gewinngelds. Dadurch entsteht ein interessantes Spannungsverhältnis zu sexualisierten Handlungen: Es wird zum einen noch präsenter, da das Begehren unterdrückt werden muss, gleichzeitig ist es auch sehr schuldbehaftet, da die ganze Gruppe bestraft wird, wenn jemand trotz des Verbots sexuelle Handlungen ausführt. Widersetzt sich jemand den Regeln, erntet die Person als Resultat den Unmut der Gruppe. Damit konstituiert Lana einen normativen Raum – ein moralisches System, in dem technologische Überwachung und gruppendynamischer Druck Hand in Hand gehen. In diesem normativen Kosmos übernimmt Lana die gouvernementale Instanz: Sie regelt Verhalten nicht durch autoritären Zwang, sondern durch Überwachung, Subventionierung und soziale Reaktionen. Was zunächst nach einer neutralen Überwachungslogik klingt, wird durch ihre digitale Präsenz als nicht-menschlich legitimiert. Lana ist, wie auch Big Brother, ganz nah dran. Sie sammelt und analysiert Daten zu den Teilnehmenden und ihr entgeht dabei nichts. In der Gruppe zählt sie die Regelverstöße vermeintlich neutral auf, indem sie Akt, Anzahl und Dauer angibt. Die Regelbrecher*innen müssen sich anschließend outen: etwas Intimes nach außen tragen und der Gruppe beichten, dass man sich nicht nach den normativen Erwartungen beziehungsweise Regeln verhalten habe.
Lanas Stimme klingt ruhig, sachlich, objektiv. Aber genau darin liegt die Inszenierungsstrategie: Der moralische Eingriff wird nicht als autoritär, sondern als algorithmisch und „fair“ präsentiert.
Während eine derart detaillierte Aufzählung intimster Beobachtungen, wenn sie durch eine menschliche Stimme artikuliert würde, rasch als voyeuristisch oder gar übergriffig empfunden werden könnte, erscheint sie in der mediatisierten Präsentation durch Lana als neutral und distanziert. Diese Wahrnehmung gründet sich wesentlich auf den Umstand, dass die Daten durch eine technische Apparatur gesammelt wurden, welche den Eindruck eines objektivierenden, nicht-menschlichen Blicks vermittelt. In dieser Show scheint eine künstliche Intelligenz als vermittelnde Instanz aufgerufen zu sein, um genuine zwischenmenschliche Beziehungen zu fördern – ein Paradoxon, das die Ambivalenz gegenwärtiger Medienrealitäten offenlegt. Gewissermaßen wird einer künstlichen Intelligenz somit mehr zwischenmenschliche Kompetenz zugeschrieben als den Personen selbst.
Obgleich Algorithmen von Menschen programmiert werden, bleibt die genaue Funktionsweise solcher Systeme meist intransparent. Auf eine Anfrage an die Produktionsfirma der 2. Staffel von Too hot to handle – Germany erhielt ich die pauschale Antwort: „Wir äußern uns grundsätzlichnicht zu Produktionsinterna. Deswegen muss ich hierfür leider absagen.“ Diese Verweigerung ist naheliegend, verweist jedoch auf die grundsätzliche Opazität von Lana als medialer Figur – eine Undurchsichtigkeit, die vermuten lässt, dass ihre Interaktionen keineswegs autonom oder „neutral“ generiert sind. Vielmehr liegt die Annahme nahe, dass die Produktion im Hintergrund aktiv mitbestimmt, was Lana sagt, wie sie spricht, worauf sie reagiert und worauf nicht. Es handelt sich hier ja schließlich immer noch um eine Unterhaltungssendung und dieser Aspekt sollte in einer Analyse keineswegs unbeachtet bleiben. Dennoch erweist sich die Illusion technischer Neutralität nicht nur als fragwürdig, sondern als struktureller Trugschluss – denn auch die scheinbar distanzierte technische Instanz ist stets durch menschliche Entscheidungen, Interessen und Machtverhältnisse vorstrukturiert. Doch gerade die Inszenierung als „autonom“ und „objektiv“ erzeugt eine besondere mediale Wirkung: Sie legitimiert die moralischen Eingriffe, ohne diese als solche auszuweisen.
Catrin Misselhorn spricht in ihrem Buch von einer „optischen Täuschung“, wenn Systeme wie Lana Empathie oder Objektivität nur simulieren – tatsächlich aber auf tiefgreifenden kulturellen Erwartungen und Projektionen beruhen. [1] So erscheint Lana weniger als ein instrumentelles Tool, und vielmehr als moralisch überhöhte Instanz – eine digitale Verkörperung von Ordnung und Kontrolle inmitten eines Settings, das sonst durch Enthemmung und Luststrukturen geprägt ist. Lana fordert Authentizität, während sie selbst emotional inszeniert ist – ein performativer Widerspruch, der nach Weber-Guskar typisch für Systeme, die Gefühle nicht empfinden, sondern lediglich imitieren, ist: Eva Weber-Guskar unterscheidet klar zwischen der Simulation von Emotionen und echter emotionaler Erfahrung. [2] Systeme wie Lana wirken empathisch, sind es aber nicht.
Als Maßnahme „veranlasst“ Lana Workshops, in denen die Singles mehr Zugang zu sich und ihren Gefühlen und Bedürfnissen praktizieren können. So gibt es beispielsweise einen Joni-Workshop in dem sich die Frauen* ihrer Vulva nicht nur durch eine Ansicht im Spiegel nähern, sondern auch durch ein selbstgestaltetes und abstraktes Bild ihrer Vulva. Die Männer* hingegen lernen, im Dialog ihre Ängste und Bedürfnisse zu kommunizieren. Angeleitet werden diese Workshops jedoch jeweils von Menschen. Lanas Interventionen hier wirken immer situativ, wobei die Workshops staffel- und länderübergreifend doch immer sehr ähnlich sind.
Die Figur Lana verkörpert eine ambivalente mediale Inszenierung künstlicher Intelligenz, die sowohl technisch-rational als auch emotional-menschlich codiert ist. Sie erscheint auf der einen Seite als hochgradig technifizierte, objektivierende Entität, auf der anderen Seite aber auch als sozio-emotionales Gegenüber mit humorvollen und gendercodierten Zügen.
Die Künstlichkeit von Lana ist auf den ersten Blick unübersehbar – und dennoch wird sie zugleich als sozial kompatible Interaktionspartnerin und charmante Freundin präsentiert. Wie Catrin Misselhorn betont, zielt der aktuelle technologische Diskurs zunehmend darauf ab, KI nicht nur als leistungsfähig, sondern auch als zwischenmenschlich anschlussfähig zu gestalten. Emotionale künstliche Intelligenz soll dabei helfen, soziale Rollen zu übernehmen – etwa in der Pflege oder Therapie – und setzt deshalb auf eine möglichst realistische Simulation von Empathie. Doch was wie Einfühlung wirkt, sei letztlich oft nicht mehr als eine „optische Täuschung“ [3], eine Oberfläche, die zur Projektion menschlicher Erwartungen einlädt.
Lanas humorvolle Einwürfe und ihr ,recher Tonfall‘ sind daher keine beiläufigen Gesten, sondern Teil eines Interface-Designs, das auf affektive Wirksamkeit zielt. Im Sinne des AffectiveComputing – jenes Forschungsfelds, das sich der maschinellen Erkennung, Simulation und Reaktion auf Emotionen widmet – soll die Maschine nicht nur effizient, sondern vertraut wirken.
Lana ist kein menschliches Subjekt, wird aber mit Eigenschaften versehen, die sie als beziehungsfähig markieren – durch ihren ironischen Tonfall, ihre gelegentlichen Kommentare, ihre Fähigkeit zur Sanktion. N. Katherine Hayles beschreibt dies als Verschiebung von der Maschine als Werkzeug hin zur Maschine als Akteur*in. [4] Und genau das wird in Too Hot to Handle performativ sichtbar: Lana agiert, sie spricht, sie moralisiert – sie übernimmt Aufgaben, die klassisch menschlich gedacht waren.
Gleichzeitig nimmt Lana dabei eine zutiefst weiblich codierte Form an – sie spricht mit weiblicher Stimme, zeigt Humor, mahnt sanft, ist aber unerbittlich. Wie Martina Schmidhuber feststellt, werden gerade solche emotionalen Rollen im Smart-Tech-Bereich oft mit weiblichen Attributen belegt – denkt man nur an Künstliche Assistenzsysteme wie Alexa oder Siri. Sie schreibt: „Emotionale und kommunikative Arbeit wird in digitalen Systemen häufig feminisiert – auch wenn es sich um Maschinen handelt.“ [5] Die verweiblichte KI Lana übernimmt damit nicht nur die Überwachung, sondern auch die Rolle der emotional kompetenten Bezugsperson – sie hört zu, tröstet, warnt, erinnert.
In diesem Sinne ist sie mehr als eine Figur – sie ist ein mediales Skript. Ein digitales Framing von Weiblichkeit als moralischer Instanz.
Lana ist mehr als ein digitaler Kegel mit Stimme – sie ist eine Projektionsfläche für gesellschaftliche Sehnsüchte, mediale Strategien und normative Ordnungen im Gewand technischer Neutralität. In Too Hot to Handle wird sie zur zentralen Instanz eines moralischen Systems, das Kontrolle und Nähe, Strafe und Empathie auf paradoxe Weise verbindet. Als künstliche Intelligenz fungiert sie als Regierungstechnologie im Sinne Foucaults (Quelle?) – nicht durch offene Autorität, sondern durch subtile Überwachung und affektive Steuerung. Die scheinbare Objektivität ihrer Sanktionen verschleiert die Tatsache, dass auch sie – oder besser: das, was sie sagt – Ergebnis redaktioneller Auswahl und kultureller Codierungen sind.
Obwohl tatsächlich auch einige Paare aus dem Format hervorgegangen sind, könnte man infrage stellen, ob Lana bei aller Kontrolle und Sanktion – tatsächlich zur emotionalen Selbsterkenntnis beiträgt, oder ob sie stattdessen emotionale Normen reproduziert, die unhinterfragt angenommen werden.
Dass Lana keine autonome Instanz ist, sondern ein von Menschen gesteuertes Skript, wird im Format gezielt verschleiert. Die Undurchsichtigkeit ihrer Programmierung ist kein Zufall oder technisches Detail, sondern ein zentrales Element ihrer medialen Wirkung. Die intransparenten, redaktionell kuratierten Prozesse hinter ihrer „Stimme“ erzeugen den Eindruck maschineller Objektivität – als wäre Technik selbst Garant für Wahrheit. Genau darin liegt eine Form epistemologischer Gewalt: Künstliche Intelligenz erscheint als neutraler Wissensproduzent, während sie in Wahrheit durch menschliche Interessen, Machtstrukturen und narrative Strategien vorgeprägt ist. Dass ausgerechnet eine solche technologische Figur im Zentrum eines Formats steht, das vermeintlich auf „authentische Beziehungen“ zielt, verweist darauf, wie Technologie und Intimität inzwischen miteinander verschaltet sind und darauf, wie das Fernsehen diese Konstellation ästhetisch formt, legitimiert und unterhaltsam verpackt.
Referenzen und Anmerkungen
[1] Misselhorn, Catri, Künstliche Intelligenz und Empathie. Vom Leben mit Emotionserkennung, Sexrobotern und Co. Stuttgart: 2021, Reclam, S. 9.
[2] Weber-Guskar, Eva, „Emotion“, in: Florian Arnold et al. (Hg.): Digitalität von A bis Z, Bielefeld: 2024, transcript, S. 95.
[3] Misselhorn, Künstliche Intelligenz und Empathie, S. 9.
[4] Vgl. Apprich, Clemens, „Digitale Wahrheitsfindung, oder: Was hat mentale Gesundheit mit Daten‑Positivismus zu tun?“ In: Gottfried Schweiger & Michael Zichy (Hrsg.), Zwischenmenschliche Beziehungen im Zeitalter des Digitalen. Ethische und interdisziplinäre Perspektiven. Techno:Phil Band 7. Berlin: 2023, Springer, S. 4.
[5] Schmidhuber, Martina, „Smart Home statt zwischenmenschlicher Beziehungen als Zukunft des Alters?“ In: Gottfried Schweiger & Michael Zichy (Hrsg.), Zwischenmenschliche Beziehungen im Zeitalter des Digitalen. Ethische und interdisziplinäre Perspektiven. Techno:Phil Band 7. Berlin: 2023, Springer, S. 54.