Affekt und Autorität:

Körpernahe KI-Systeme und digitale (Selbst-) Überwachung

von Anonym

Die Einbindung neuer Technologien in das tägliche Arbeits- und Privatleben hat das Verhältnis von Körper und Arbeit nachhaltig verändert. Wearables (Wearable Activity Tracker) und Smartwatches wirken als entscheidende Faktoren dieser Transformation. Sie sind Teil eines Prozesses, in dem Arbeit, körperliche Leistung und Verwaltung neu verhandelt werden müssen. Dabei ist zu differenzieren zwischen Fitness-Tracker und Smart-Endgeräten, die jeweils andere Formen der (Selbst-)Kontrolle und (Selbst-)Überwachung übernehmen. Sie bilden das Bindeglied zwischen dem Verhalten des Individums und dem Diskurs einer neuen Form der Arbeit und Leistungskontrolle, in dem sie aus Körperprozessen Daten erfassen. Dabei werden Körper und Verhalten Teil eines Datenerfassungsvorgangs, aus dem Leistung, Produktivität und gesundheitsbezogenes Verhalten im ökonomischen Sinne sowohl für das Individuum wie auch für System und Wirtschaft optimiert werden sollen. Dabei werden physiologische Merkmale und alltägliche Handlungsweisen in den Datenerfassungsprozess eingebunden. Ziel ist es, Leistung, Produktivität und gesundheitsbezogenes Verhalten im Sinne wirtschaftlicher Effizienz zu optimieren. Unternehmen erhalten dadurch neue Möglichkeiten, auf körperbezogene Daten zuzugreifen und diese zu nutzen. Einerseits können solche Informationen im direkten Arbeitsumfeld eingesetzt werden, um etwa Effizienz oder Einsatzfähigkeit von Mitarbeiter*innen zu steigern. Andererseits lassen sich die gesammelten Daten im weiteren wirtschaftlichen Kontext sehen – etwa zur Entwicklung neuer Produkte, zur Analyse von Konsumverhalten oder zur Risikobewertung. Auf diese Weise werden körperliche Prozesse in verwertbare ökonomische Ressourcen überführt.

Gouvernementalität und prozedurale Rhetorik

Wie Menschen ihre Gesundheit und Leistungsfähigkeit im Alltag beobachten und folglich auch von Unternehmen beobachtet werden, wirft Fragen zu neuen Formen von Steuerung und Kontrolle des Individuums auf. In einer digitalen Umwelt, in der Daten Macht bedeuten, entstehen folglich neue Macht- und Kontrollstrukturen, die über individuelle Selbstoptimierung hinausreichen. Anhand dieses Hintergrunds lassen sich zwei Theorien an den Nutzen von Smarten Endgeräten heranziehen. Michel Foucault prägte den Begriff der Gouvernementailtät, um eine Machtform zu beschreiben, die nicht durch offene Repression sondern durch Selbststeuerung und -disziplinierung des Subjektes wirkt. Anstelle von Machtausübung durch externe Kontrolle entsteht eine Form der Machausübung, bei der das Individuum sich selbst normgerecht verhält, weil eine internalisierte Zielvorgabe verfolgt wird.[1] Die prozedurale Rhetorik beschreibt folglich wie bei KI-Systemen mittels vorprogrammierter Regeln das Nutzer*innenverhalten gelenkt wird. Ramón Reichert greift diese Theorie auf und zeigt, wie mit Hilfe von Nutzer*innen-Elementen, die gamifiziert wurden – also Elemente wie Badges, Fortschrittsanzeigen und Zielvorgaben (z.B. Schrittziele) –, diese prozedurale Rhetorik genutzt wird um Verhaltensänderungen herbeizuführen. Nutzer*innen dieser Geräte füllen so innerhalb eines festen Regelwerks Handlungsspielräume aus, bleiben jedoch in den vom Programm (Unternehmen, System, Politik) gesetzten Bahnen [2]. Jene KI-Systeme sind so gestaltet, dass sie den Nutzer*innen scheinbar Freiräume zur Selbstbestimmung und Selbststeuerung bieten. In Wirklichkeit jedoch sind diese Freiräume durch die Softwarestrukturen begrenzt und geordnet. Die Programme definieren vorab, welche Daten gemessen werden sollen (Schritte, Herzfrequenz), welche Ziele verfolgt werden sollen und in welcher Form vor allem das Feedback erfolgt (Rot für schlecht, Grün für gut, zum Beispiel in meiner Ernährungsapp die begleitend zu meinem Fitnesstracker zu installieren war.) So entstehen Disziplinierungs- und Überwachungsmechanismen, bei denen Nutzer*innen dieser Geräte aus freien Stücken genau das Verhalten zeigen, das die ökonomischen, gesundheitspolitischen oder unternehmerischen Interessen hinter diesen Technologien beabsichtigen. Diese Logik zeigt sich nicht nur bei allgemeinen Fitness-Trackern und Smartwatches, sondern zunehmend auch bei spezifischen Anwendungen wie Period-Tracking-Apps, Mood-Rings oder allgemeinen affective computing Anwendungen. Hier werden Menstruationszyklen oder emotionale Abweichungen der sogenannten Norm dokumentiert, Symptome eingegeben und Vorhersagen über Fruchtbarkeit oder Zyklusabweichungen oder emotionale „Stabilität“ generiert [3]. Dabei werden hier optimierte Zielvorgaben als gesundheitlich neutral deklariert, erstellen jedoch gleichzeitig einen normierenden Diskurs über Gesundheit und Leistungsfähigkeit. Folglich entstehen vor allem in Arbeitsumfeldern Potenziale, Menschen auf Grund von körperlichen Aspekten zu marginalisieren oder diskriminieren.

Capture Kapitalismus

Im Zentrum der digitalen Selbstüberwachung steht nicht nur das Sammeln von Daten, sondern vielmehr die Etablierung einer neuen epistemischen Ordnung. Tracking-Systeme folgen einer spezifischen Form des Captures, die Daten nicht nur registrieren sondern jede Eingabe und jede Interaktion in strukturierte, maschinenlesbare Daten überführt, was folglich eine Analyse und Auswertung von Nutzer*innenverhalten ermöglicht. Diese systematische Erfassung findet sich zunehmend im Diskurs, auch in Österreich, in Bezug auf Arbeit und Gesundheit wieder. Damit werden Körperpraktiken sichtbar und erfassbar, jedoch jene, die sich nicht in normierten Schemata befinden, epistemisch unsichtbar gemacht.

In Corporate-Wellness-Programmen zeigt sich diese Problematik deutlich. Hier werden Arbeitnehmer*innen angehalten, ihre Aktivitäten, Schlaf und Gesundheitsdaten über Wearables an die Arbeitgeber*innen zu Übermitteln oder es werden Mitarbeiter*innen bei der Arbeit getrackt [4]. Diese Daten werden für Personalentscheidungen, Gesundheitsmanagement und Leistungsbewertung herangezogen. Dabei ersetzt die Sichtbarkeit messbarer Parameter, wie Schrittzahl, Stresspegel oder Müdigkeit, komplexere sozial und psychische Dimensionen, die nur in Interaktion sichtbar gemacht werden können. Es lässt sich sagen, nur was zählbar ist wird relevant [5].

In den Auswertungen dieser algorithmischen Bewertung wird ein epistemologischer Bias deutlich. Vor allem wenn Nutzer*innen sich zunehmend auf die Daten von KI-Systemen verlassen, ohne zugleich die Daten kritisch zu hinterfragen [6]. Dadurch werden individuelle Kontrollinstanzen zusätzlich geschwächt, sowie fehlerhafte oder diskriminierende Entscheidungen unsichtbar. Auch in Österreich entstehen erste Pilotprojekte (z.B. Krankenkassen die Anreize geben, wenn man Tracker trägt), in denen solche Systeme von Unternehmen erprobt werden. Denn neben einer möglichen Produktivitätssteigerung und Reduktion von Erkrankungen, erscheinen die individuellen erzeugten Datenprofile optimal für das zahlenbasierte System von Versicherungen und Krankenkassen. Denn hier geht es nur um Prämien, Risikoprofile und Kosten-Nutzen-Analysen. Zwar wird von der DSGVO (Datenschutzbehörde) sowie von Gewerkschaften und Datenschutzräten davor gewarnt – schlussendlich jedoch nur im Rahmen eines möglichen Datenschutzproblems, nicht im Sinne von neuen Möglichkeiten der Diskriminierung [7]. Interessant dabei ist, dass der oberflächliche Datensatz für die Nutzer*innen sichtbar ist, obwohl er sich hinter Kontroll- und Steuerungsmechanismen befindet, jedoch der eigentliche Verwertungsprozess der Daten im Hintergrund geschieht und sich der Wahrnehmung der Nutzer*innen entzieht.

Dieser Prozess wird durch die zunehmende Vernetzung der Systeme noch verstärkt. Wearables haben zumeist benötigte Apps. Diese befinden sich auf externen Plattformen auf einem smarten Endgerät (Smartphone). Über diese Überschneidungen entstehen Datenökonomiesysteme, die weit über die ursprüngliche Anwendung hinausgehen. Folglich ist der Datensatz, der von diesen Geräten entnommen wird, weit größer als es von Nutzer*innen wahrnehmbar ist. Dies kann jedoch zur Reproduktion und Verstärkung bestehender sozialer Problematiken führen. Gleichzeitig wird die epistemische Asymmetrie zwischen den datenverarbeitenden Parteien und den Nutzer*innen kontinuierlich größer. Währenddessen bleibt den Nutzer*innen verborgen, wer Zugriff auf welche Daten hat, nach welchen Logiken, beziehungsweise Berechnungen dies ausgewertet wird und welche Folgen langfristig daraus entstehen.

Macht, Kontrolle und Selbstoptimierung

Durch das Zusammenspiel von Gouvernementalität, prozeduraler Rhetorik und Capture-Kapitalismus steht eine neue Form der digitalen Steuerung bevor. Nutzer*innen nehmen freiwillig an ihrer eigenen Überwachung teil und werden zugleich zur Ressource für datenbasierte Geschäftsmodelle. Der freiwillige Charakter dieser Systeme verschleiert dabei die asymmetrischen Machtverhältnisse zwischen dem Individuum und jenen, die diese Daten sammeln und nutzen. Die mediale Logik von Sichtbarkeit und Unsichtbarkeit findet sich dabei in allen Ebenen dieser Technologiearchitektur wieder. Die Verlagerung von Verantwortung vom Unternehmen und System auf die Nutzer*innen erscheint als zusätzliche Problematik einer Gesellschaft, die sich auf ökonomisches Wachstum fokussiert. Dabei werden Menschen dazu verstärkt angehalten, selbst für Gesundheit, Leistungsfähigkeit und berufliche Anpassung zu sorgen. In dieser Logik erscheinen Probleme wie Überbelastung, psychische Belastung oder strukturelle Benachteiligung als individuelles Defizit, die durch individuelles Training, Kontrolle oder Optimierung überwunden werden müssen, während gesellschaftliche Ursachen übersehen werden und der Druck auf das Individuum weiter wächst. Hinzu kommt, dass diese Systeme in sich nicht neutral funktionieren, sondern nach bestehenden ökonomischen und gesellschaftlichen Normen funktionieren und so Ungleichheiten verstärken können. Wer also aufgrund von Alter, Gesundheit oder gesellschaftlichen Verantwortungen von dieser Norm abweicht, läuft Gefahr ausgegrenzt zu werden.


Referenzen und Anmerkungen

[1] Vgl. Reichert, Ramón: „Digitale Selbstvermessung. Verdatung und soziale Kontrolle“, in: Zeitschrift für Medienwissenschaft. Heft 13: Überwachung und Kontrolle, Jg. 7 (2015), Nr. 2, S. 66–77.

[2] Ebd., S. 69.

[3] Köppert, Katrin: „Patching and Hoarding:Recodings of Period Tracking Apps“, in: Michael Klipphahn-Karge/Ann-Katrin Koster/Sara Morais dos Santos Bruss (Hg.): Queer Reflections on AI. Uncertain Intelligences, Oxon/New York: Routledge, S. 109–123.

[4] https://www.bbc.co.uk/mediacentre/latestnews/2016/amazon-inside-out

[5]Vgl. Heilmann, Till A.: „Datenarbeit im ,Capture‘-Kapitalismus. Zur Ausweitung der Verwertungszone im Zeitalter informatischer Überwachung“, in: Zeitschrift für Medienwissenschaft. Heft 13: Überwachung und Kontrolle, Jg. 7 (2015), Nr. 2, S. 35–48. DOI: https://doi.org/10.25969/mediarep/1561

[6] Vgl. Anslinger, Julian/Jaroslava Huber/Michael Haslgrübler/Anita Thaler (Hg.): „Verantwortungsvolle Einbindung von KI-Assistenzsystemen am Arbeitsplatz. Ein Handbuch für Arbeitnehmende und ihre Vertretungen“, 2022, S. 10–11.

[7] Ebd., S. 10–11.