Menü

Männlichkeit und KI Brauchen Roboter Brüste?

Besser, klüger und gerechter soll sie die Welt machen, die schöne neue KI und Hightech-Robotik, so versprechen es Open AI, Alibaba, Meta, Alphabet, Amazon, Apple oder Microsoft. Doch stattdessen reproduzieren generative und assistierende Systeme vor allem eins: Stereotype. KI-Produkte vervielfachen die in Software und interaktiven Systemen kodierten geschlechtsspezifischen Vorurteile, von der unterwürfigen Stimmassistentin, über Serviceroboter mit Brüsten bis hin zu Bilder-Generatoren, die nicht nur ein Frauenproblem haben, sondern auch surreale Über-Männer produzieren. Wie verändern KI-Anwendungen die Art, wie Männer auf Frauen schauen – und wie auf sich selbst?

KI-Stimmassistenten: dienstbar, devot – und weiblich

Seit 2011 (Apples »Siri«) und 2014 (Amazons »Alexa«) sind sprachgesteuerte Software und Konversationssimulationen die laut Juniper Researches am schnellsten wachsende Sparte der fortgeschrittenen Informatik. Chatbots bedienen als digitale Domestiken in GPS-Leitsystemen, in der Selbstbedienungskasse, in Hotelliften, in Warteschleifen, in simultanen Übersetzungen. Auffällig: die Assistenten sind nicht nur dienstbar und devot – sondern überproportional feminisiert. Weltweit nehmen 4,8 Milliarden Voice Assistants, also sprach­gesteuerte Geräte, mit häufig weiblichen Namen wie Siri, Alexa oder Cortana rund um die Uhr Befehle entgegen. Mal neutral, mal servil, gibt die Armada an digitalen Hauszofen mit synthetisierten Frauenstimmen artig Antworten auf auch die anzüglichsten Fragen, wirft Musik und Schlafzimmerlicht an, managt fürsorglich Einkauf, sozialen Kalender und wetter­angepasste Kleidungs­empfehlung – und gehorcht so treu wie die »ideale« Ehefrau. Also, wie eine, die dem Baukasten des toxischen Feudalpatriarchats entspringt.

In der werksseitigen Vorauswahl besitzen 68 Prozent der derzeit 70 bekanntesten Voice Assistants weibliche Stimmen, die vier beliebtesten, die 90 Prozent aller weltweiten Befehle erfüllen, sind die lang gedienten Hausdamen Alexa, Siri, Cortana und Google Assistant. Alle diese Sekretärinnen wurden von männlich dominierten Teams entwickelt, und werden für Befehle, Erledigungen, Kleinkram und sexuell offensive Konversationen eingespannt. Wohingegen Sprachprogramme und Chatbots, die männliche oder neutrale Namen besitzen und eine maskuline Stimme, deutlich häufiger eingesetzt werden, um Sachbücher vorzulesen oder technische Zusammenhänge zu erläutern.

»Jetzt aufwachsende Generationen werden mit den weiblichen Servicekräften aus dem Smartphone sozialisiert.«

Frau bedient, Mann erklärt die Welt – Miriam Meckel, Professorin für Kommunikationsmanagement an der Universität St. Gallen, verweist auf die Folgen: »Da zunehmend auch Kinder im Umgang mit Alexa und Co. aufwachsen, die Servicefunktion übernehmen, die im täglichen Umgang dadurch mit weiblich verbunden werden, kann das einen Einfluss auf das Geschlechterrollenverständnis einer Gesellschaft haben«, erklärte sie gegenüber dem ManagerMagazin. Der Bericht »I’d blush if I could« der UNESCO bestätigt, dass die femininen Stimmen und artifiziellen Persönlichkeiten von Siri und Co. das Bild einer unterwürfigen, jungen Frau, die gehorche, als Ideal tiefer in die Gesellschaft hineintrage. Jetzt aufwachsende Generationen werden mit den weiblichen Servicekräften aus dem Smartphone sozialisiert – die erst vor wenigen Jahren »gelernt« haben, auf sexistische Gefälligkeitsbefehle neutrale Antworten zu geben. Zuvor kommunizierten Siri und Alexa flirtiv (»Ich würde erröten, wenn ich das könnte« auf den Zuruf: »Hey, Siri, du Bitch«), nun tun sie so, als hätten sie es nicht verstanden. Keine der Sprachassistentinnen weist je eine sexuelle Beleidigung klar zurück. Erziehung zu Respekt: sieht anders aus.

Bis 2026 werden über 8,4 Milliarden Voice Assistants global im Einsatz sein - und damit mehr virtuelle, sehr vermutlich weibliche Servicekräfte, als es Menschen auf dem Planeten gibt.

KI-Bilder: Männer leiten, Frauen putzen

Im Juni 2023 machte eine Studie von Bloomberg zum Bilder-Generator Stable Diffusion deutlich: KI hat ein Frauenproblem. Nutzer, die zur Bebilderung ihrer Websites, Buchcover, Powerpoints, Werbeanzeigen et cetera, Bilder zusammenstellen lassen, bekommen Stereotype in Hyperpotenz geliefert. Insbesondere wenn es um die Zuordnung von Macht und Wissen in Berufsfeldern geht, war die Bloomberg-Auswertung bizarr realitätsfremd: In dem Test wurden beim Begriff »judge« (Richter) nur drei Prozent Frauenbilder generiert, unbeeindruckt von der Tatsache, dass in den USA 34 Prozent der Richter weiblich sind. »Doctors« (Ärzte) in den USA werden zu 40 Prozent von Frauen bekleidet, in der Welt von Stable Diffusion sind es sieben. Am häufigsten wurden Frauen beim Pflegen, Putzen und am Schnellimbiss-Tresen gezeigt, und am seltensten als CEO oder Politikerin. Künstliche Frauenbilder sind überproportional sexualisiert, in knappen Krankenschwesterkitteln, an denen deutlich zu viele Knöpfe fehlen.

Warum programmieren männliche Entwickler durchweg Über-Männlichkeit als Ideal?

Überpotente und rassistische Darstellung von Männlichkeit ist das andere Ex­trem: wenn Bilder von Dealern, Süchtigen oder Terroristen abgefragt werden, sind es stets dunkel pigmentierte oder arabisch wirkende Männerbilder, die die Bildgeneratoren als Beispiel zusammen manschen. Weiße Männer werden häufiger mit Werkzeugen dargestellt, Schwarze mit Waffen. Gleichzeitig kreieren die Bildermaschinen »Über-Männer«, als muskulöse, sonnengeknusperte, braunhaarige Dreitage­bart­träger, auf deren Bauchmuskeln sich Möhren raspeln ließen. Warum haben die durchweg männlichen Entwickler diese Über-Männlichkeit als zu bevorzugendes Ideal programmiert? Als Trost, weil der Blick in den Spiegel weniger den Waschbrett- als den Waschbärbauch zeigt? Welche Rollen spielen fragile als auch toxische Männlichkeit, wie bedingen sich männliche Entwickler und männliche User in dem Schaffen von Selbst- und von Fremdbildern? KI-Apps etwa, die Bilder-Generator für die ganz persönliche Perversion von Tentakel-Sex über unappetitliche Kinks mit Daisy Duck anbieten, sind genauso beliebt wie Apps, in denen man Bilder von echten Frauen mischen kann mit artifizieller Pornografie. Beide Anwendungen sind ein Instrument für Incels und andere, die sich mit »Rache-Pornos« an jenen Frauen auslassen, die sie zurückgewiesen haben; KI als Waffe des beleidigten Mannes.

Übrigens: Bilder-KI hat mittlerweile mehr stereotype Darstellungen von menschlichen Antlitzen generiert als menschliche Fotografen und Illustratoren von Vielfalt in 150 Jahren: 15,4 Milliarden.

Brauchen Roboter Brüste?

Die Coronapandemie bescherte einen Schub in Herstellung und Einsatz nicht-menschlicher Hilfskräfte: Roboter. Humanoid designte Pflege- und Haushaltsmaschinen, die sich um Senioren oder Erkrankte sorgen, erhalten von Herstellern häufiger ein feminines Erscheinungsbild, während Assistenzsysteme in der Forschung, in Werkstätten oder Logistik, männliche Ausstattungen bekommen. Die Anthropo­morphisierung, die Vermenschlichung von Robotern, offenbart auch in diesem Hightech-Bereich, wie sich Genderstereotype multiplizieren. Der verweiblichte Android, lieb und geduldig, kümmert sich um Menschen, der vermännlichte Roboter, stark und klug, nimmt sich die versachlichten Aufgaben vor. In Japan und Indien werden Kellner-Androiden, Platzanweiser und Robot-TV-Sprecher im Einsatz getestet. Sie alle: mit Brüsten. Wozu brauchen Maschinen Brüste? Wozu erhalten Geräte überhaupt ein Geschlecht?

Maschinenethikforscher untersuchen seit 15 Jahren die Wechselwirkung von Entwicklern und Abnehmern, darunter auch Genderaspekte. So haben Menschen z. B. mehr Vertrauen in die vermeintlich fürsorglicheren Kompetenzen eines femininen Androids und fürchten sich weniger vor einem Roboter. Deutlich mehr Männer (85 Prozent) als Frauen sind allerdings Kunden der Sexroboterhersteller, die Erfüllungsgeräte nach Wunsch anbieten. Ebenso ordern mehr Männer als Frauen virtuelle Gefährtinnen: Seit 11. Januar 2024 kommt auf GPT-4-Chatbotbasis ein halbes Dutzend neue Apps auf den Markt, die als digitale »Freundin« Männern mit biederen bis koketten Konversationen zur Verfügung stehen. Das Geschäft mit der maskulinen Einsamkeit läuft bestens.

Programmierte Über-Männer als Ausgleich zur fragilen Männlichkeit?

Automatisches Personal wird konsequent verweiblicht, während zahlreiche KI-Anwendungen gleichzeitig höchst intime Bedürfnisse von heterosexuellen Männern bedienen. Nun ließe sich salopp sagen: weil die weißen, verspielten 27-jährigen Hoodiejungs eben am häufigsten KI machen. Das ist nicht ganz unzutreffend: KI-Technologie ist weiß und männlich dominiert. Weibliche Programmierer kommen viermal seltener vor als männliche, Hightech-Patente werden dreizehmal seltener von Frauen eingereicht, KI-Unternehmen und Start-ups werden zu 82 Prozent von männlichen CEOs und Leitungskräften dominiert. Bei Apple sind 23 Prozent der Angestellten im IT-Bereich weiblich, bei Google 20 Prozent und bei Microsoft 17,5 Prozent; im weltweiten KI-Bereich ist der Anteil der Forscherinnen: 12 Prozent. Jede Datenverarbeitung beruht auf menschlichen Modellierungen und Wünschen, und je homogener eine Gruppe Entwickler, desto eher geschieht die Osmose der Verzerrungen von Gender-Marginalisierung, bis hin zur Darstellung und Dienstleistung für eine eindimensionale Über-Männlichkeit, fixiert auf Macht und folgenlosem Sex.

»Bill Gates war der Prototyp der profit- und wachstumsorientierten Werteheimat in der IT.«

Software und Informationstechnologien waren bis Mitte der 80er Jahre eine Sparte, in der Frauen zu rund 35 Prozent studierten und arbeiteten. Erst ab 1990 wurde IT häufiger von Männern entwickelt, Frauen machen heute nur einen Anteil von 22 Prozent aus (Global Gender Gap Report Weltwirtschaftsforum). Zeitgleich bescherte der wirtschaftliche Aufschwung durch Hightech-Technologien in den 90er Jahren einen neuen Typus Tech-Boy: Bill Gates war der Prototyp der profit- und wachstumsorientierten Werteheimat in der IT. Es sollte nicht nur smart und sinnstiftend sein. Sondern vor allem lukrativ und marktdominant. Empathie, Nachhaltigkeit, Diversität, Selbstkritik, Risikoassessment, die Zeit kostet, bevor der Markt penetriert werden kann: Das vermeiden die Techboys und ihre Idole wie Musk, Altman und Zuckerberg, denn damit steigen keine Dividenden. Ist das typisch männlich? Typisch amerikanisch? Typisch für eine globale Gegenwart?

Künstliche Intelligenz braucht humane Intelligenz

»In einem idealen KI-Entwicklerteam säßen Frauen, Männer und diverse Personen – Menschen verschiedener Altersgruppen, unterschiedlicher Hautfarben und sexueller Identität sowie gemischter sozialer Herkunft«, das wünschte sich Kenza Ait Si Abbou Lyadini, Senior-Managerin im Robotics-and-Artificial-Intelligence-Hub der Telekom IT, bereits 2019. »Außerdem Anthropologen, Psychologen, Soziologen oder Linguisten. Weil wir mit KI die Welt von morgen bauen.«

In der Tat: Eine KI schaffen, die weder Geschlechter marginalisiert oder überhöht, diese Ziele verfolgen bewusst divers aufgestellte Projekte, Initiativen, aber deutlich zu wenige Regierungen und politische Ressorts. Geschaffen jedoch muss auch ein Bewusstsein, wie fortgeschrittene Informatik die »Welt von morgen« mitgestaltet, insbesondere wenn sie Menschen nachahmt, ersetzt oder destruktive Eigenschafts­zuweisungen zementiert. Das reicht über Geschlechterklischees weit hinaus und in alle Aspekte einer Demokratie hinein; und diese kann es sich zum Überleben nicht leisten, dass eine Handvoll profitorientierter Monopole über Menschenbilder bestimmen.

Kommentare (0)

Keine Kommentare gefunden!

Neuen Kommentar schreiben

Nach oben