Auftritt
Holzmarkt Berlin: Die Utopie vorurteilsfreier KI
„DECODING BIAS“ (UA) – Concept / Direction / Text Theresa Reiwer, Co-Direction / Video David Egger, Text / Dramaturgy Miriam Schmidtke, Music / Sound Design Kenji Tanaka, 3D Animation Christian Bikadi
von Theresa Schütz
Assoziationen: Theaterkritiken Berlin Dossier: Digitales Theater

Sprachassistentinnen Alexa und Siri, Einkaufsempfehlungen bei Amazon oder auf Instagram, Tracklisten bei Spotify, der Chatbot im Kundendienst, die Gesichtserkennung des Smartphones, Übersetzungsassistent DeepL – und nun die vieldiskutierte Software ChatGPT, die nicht nur zusammenhängende Texte, sondern auch Programmcodes analysieren und schreiben kann. Künstliche Intelligenzen (KI) sind inzwischen fester Bestandteil unseres Alltags. Ihr selektives wie selektierendes Output fußt dabei auf maschinellem Lernen entlang riesiger Datenmengen. Sie werden optimiert, indem wir sie benutzen und damit weiter trainieren. Auch im Feld der Kunstproduktionen kommen künstliche Intelligenzen vermehrt zum Einsatz; sei es zur Text-, Klang- oder Bildproduktion, sei es zur Kreation komplexer Spielwelten.
In ihrer neuen Arbeit hat sich die Szenografin und Medienkünstlerin Theresa Reiwer gemeinsam mit Visual Artist David Egger, der Autorin Miriam Schmidtke und weiteren Kolleg:innen erneut dem Themenkomplex KI zugewendet. Während sie sich 2021 mit dem narrative space „Social Capsule“ dem Phänomen Smart Home widmete, liegt der Fokus nun speziell auf einer machtkritischen Perspektive auf KI. Hierfür schickt das Team in der theatralen Form eines räumlichen Videoessays mit dem Titel „Decoding Bias“ acht verschiedene, anthropomorphisierte KIs in eine Gruppentherapie.
Der englische Begriff „bias“ lässt sich mit „Verzerrung“ übersetzen und verweist – insbesondere im Feld der Psychologie – auf ein angesichts der Überfülle an Wahrnehmungsereignissen notwendiges, kognitives „Sortiersystem“, was sich konkret z.B. in sozialisierungsbedingten Stereotypen oder Entscheidungen beeinflussenden Beurteilungsmustern niederschlägt. Insofern es Menschen sind, die KIs programmieren und mit Daten speisen, schreiben sich auch ihre Vorurteile in den technischen Systemen fort.
Im Gegensatz zu Debatten, die dazu neigen, Mensch und Maschine als zwei Welten einander gegenüberzustellen, verweist bereits die Anordnung der Installation auf die dezidiert kollaborative Konstitution von Mensch und Maschinen, wenn es um das Thema Bias geht. So sind in der Artistenhalle im Holzmarkt Berlin acht Bildschirme im Kreis positioniert. Zwischen ihnen findet je ein:e Zuschauer:in Platz, sodass die Avatare auf den Bildschirmen und das Publikum einen gemeinsamen Therapiekreis bilden. Reiwer und ihr Team haben die Avatare einer game engine entnommen, sie dann mittels motion capture und der detailgenauen Abnahme von Sprache und Mimik durch beteiligte Schauspieler:innen zu fotorealistischen Figurenkörpern entwickelt. Nach der Check-in-Runde wird deutlich, dass sich in den Figuren verschiedene KIs verdichtet wiederfinden, die sich vom „cringy mob of meatballs who programmed us“ emanzipieren wollen. Dabei kristallisiert sich neben den Biases vor allem der Komplex der Emotionalität als dasjenige Feld heraus, in dem sie sich gegenüber Menschen (noch) als defizitär erleben.
Es folgt ein Ortswechsel für eine praktische, verhaltenstherapeutische Einheit. Dabei steht eine männlich gelesene KI in einem Bürosetting im Mittelpunkt bzw. sein programmierter Gender-Bias, mit dem er in automatisierten Bewerbungsverfahren, die eigentlich Diskriminierung minimieren sollen, trotzdem Kandidatinnen aufgrund ihres Geschlechts aussortiert. Um sein wiederholtes Scheitern in der Übung einzuordnen, schließt sich ein kurzes Memory-Training an, das die unzähligen, nacheinander aufflackernden, menschlichen (mehrheitlich weißen, männlich gelesenen) Gesichter zeigt, die als Datenbasis für die genderbasierte Verzerrung verantwortlich sind. Kurz darauf sehen wir in einer abweichenden, von einer anderen KI generierten, Bildästhetik die Tech-Unternehmens-Leiter Musk, Zuckerberg, Bezos und Co., um den Ursprung dieser Verzerrungen konkret gesellschaftlich wie epistemisch zu situieren („they raised me according to their image“). Folgerichtig finden sich die Acht für ihre nächste Therapieeinheit auf dem Weg zur Emanzipation in einer sonnenbestrahlten Wüstenlandschaft zum „mindful masculinity workshop“ wieder, bevor sie sich abschließend in Latex-Suits in einer empowernden Karaoke-Session zu Chers „Strong enough (without you)“ versammeln.
Neben der technischen Perfektion überzeugt „Decoding Bias“ mit Blick auf die künstlerische Verdichtung aktueller KI-Diskurse, die in den Stimmen zum Ausdruck kommen und nicht nur den Zeitgeist widerspiegeln, sondern so auch zum Gegenstand gesellschaftlicher Aushandlung wie künstlerischer Spekulation gemacht werden. Das Videoessay leistet damit auch ein stückweit Aufklärungsarbeit, sensibilisiert Zuschauer:innen für die diskriminierende Struktur derjenigen Technologien, mit denen wir tagtäglich verwoben sind und deutet an, in welcher Weise diskriminierende Algorithmen eben auch diskriminierende Haltungen zur Welt reproduzieren – gerade weil Menschen und Technologien ein zusammenhängendes, einander bedingendes System bilden. Genau deshalb muss eine vorurteilsfreie KI auch Utopie bleiben.
Dass das Videoessay mit seiner Perspektivierung auf gendered biases selbst biased bleibt, insofern es z.B. intersektionale Dimensionen von Biases wie sie u.a. die Netflix-Dokumentation „Coded Bias“ thematisiert, ausblendet, tut der künstlerischen Qualität und Relevanz der Arbeit allerdings keinen Abbruch. Schließlich spricht es eine deutliche Einladung aus, sich mit dem zukunftsbestimmenden Themenkomplex weiter zu beschäftigen, um die vielfältigen Biases überhaupt sicht- und verhandelbar zu machen.
Erschienen am 22.3.2023