“Transgeräte”

Sheep 2372148 1280 1

Die Frankfurter Allgemeine veröffentlichte die Tage einen Text zum Thema künstliche Intelligenz und der populären Vorzeigedisziplin “Sprach”erkennung. Die Rede ist von Alexa, Siri und Cortana, Stimmen, die die Funktion bestimmter Geräte erweitern. Entsprechend einer Studie der Unesco seien diese Stimmen mittlerweile für viele Menschen ein Gesprächspartner, mit dem sie mehr sprächen, als mit echten Menschen. “Gesprächspartner”, heißt es, nicht Partnerinnen, obwohl es sich um weibliche Stimmen mit weiblichen Vornamen handelt.

Die Geräte, aus denen die Stimmen erklingen, werden aufgrund dieser Stimme personalisiert und bekommen ein Geschlecht? Mit der weiblichen Stimme in einem sächlichen (“es”) oder männlichen (“er”) Körper müsste es sich genau genommen um “Transgeräte” handeln. Aber das führt zu weit.

Schon in diesem Stadium der Diskussion zeigt sich ein Charakterzug künstlicher Intelligenz: sie tut als ob, ist aber etwas ganz anderes, “kapert” dabei die Sprache und läßt sie das Unrichtige verfestigen, kaum dass man es merkt. Wie? Ganz einfach. Indem man darüber schreibt oder spricht, verkürzt man auf den (weiblichen) Vornamen, an den man auch das Personalpronomen anpasst. Siri antwortet, Alexa sagt, Cortana schweigt. Ich habe ihr gesagt, sie hat nicht geantwortet, die hat das nicht verstanden.
Vom Algorithmus (maskulin) ist nicht mehr die Rede. Und nur von einem Apparat oder Gerät zu reden, grenzt an Respektlosigkeit oder Dummheit. Analog zu einem sehr alten Werbeslogan eines Bananenherstellers – nenne nie Chiquita nur Banane – könnte man sagen, nenne einen Lautsprecher auf dem Alexa läuft, nie nur Lautsprecher. “Er” wird von den (weiblichen) Vornamen überdeckt, bleibt aber nichts als ein (dummer) Lautsprecher, der tatsächlich weder sprechen noch Sprache verstehen kann. Sein Algorithmus tut lediglich so, als könnte “er” es und nutzt die Personalisierung für den schönen Schein.

Auf der anderen Seite benötigt so ein Ding richtig Personen, deren Sprachalltag sich so verarmt hat, dass sie das, was diese Geräte tun, wahrnehmen wie Äußerungen von Menschen. Eine (an anderer Stelle näher zu beschreibende) Interaktion mit einem Lautsprecher wird zu einem “Gespräch” zurechtphantasiert. Aber Gespräche im einen oder anderen Sinn zu führen, ist noch nicht einmal der Zweck der erwähnten Geräte. Es geht lediglich um die Ausführung von Anweisungen und das Befolgen von Befehlen.

Und hierzu passe am besten, so die Verantwortlichen, eine weibliche Stimme und ein weiblicher Vorname. Dass diese Einstellung nicht nur aus der Vergangenheit abgeleitet ist, sondern diese (durch die Praxis des “Gesprächs” mit den Geräten) auch noch verfestigt, dürfte nicht zu bestreiten sein. Zwischen den Zeilen lugt ein euphemistischer Charakterzug der “künstlichen Intelligenz” hervor, die so künstlich und so intelligent nicht ist, sondern dumm und rückschrittlich. Und dabei so tut, als sei alles interesselose Sachlichkeit.

Die Unesco untersuchte u.a. was passiert, wenn man in der Nähe eines solchen Gerätes eine Lautstruktur äußert, die dem Wort “Schlampe” ähnelt. Das von Amazon stammende Gerät äußerte, so die FAZ, “Danke für das Feedback”. Die Stimme, die Apple Siri nennt, so die Frankfurter Tageszeitung, erwiderte sogar (sic), “ich würde erröten”. Nur Googles Apparat reagierte mit Unverständnis, das aber wohl eher technische als andere Ursachen hatte.

Bei der Vorstellung des Unesco-Berichtes versuchte die Leiterin des Bereichs Gleichberechtigung diese etwas chauvinistischen Eigenarten der Weltanschauungen der mit den Apparaten sich äußernden EntwicklerInnen (und/oder Unternehmen) damit zu erklären, dass grade einmal 12% der mit der Entwicklung künstlicher Intelligenz befassten Menschen weiblich seien. Aha! Wäre das Geschlechterverhältnis umgekehrt, würden diese Apparate eine männliche Stimme haben und Manfred, Karl oder August heißen? Nicht notwendigerweise, aber die Antworten auf Beleidigungen würden vielleicht etwas anders ausfallen. Aber kann man ein Gerät beleidigen?

Sei es wie es ist, Apples Stimmenalgorithmus reagiert mittlerweile auf die Lautkonstellation “Schlampe” ähnlich wie Googles Entwicklung: “Ich weiß nicht, was ich darauf sagen soll.”

Erlaubt sei es, abschließend zu fragen, ob der Abgleich der Reaktionen technischer Geräte mit menschlichen Verhaltensweisen nicht vor allem dazu geeignet ist, den ideologischen Charakter künstlicher Intelligenz zu verschleiern, statt ihn zu unterstreichen.

siehe auch FAZ

Burkhard Heinz
mediatpress®