Un rapport des Nations Unies indique que Siri et d'autres assistantes intelligentes féminines renforcent les préjugés sexistes

Un rapport des Nations Unies accuse indirectement des fournisseurs d'assistants intelligents comme Apple, Google et Microsoft de renforcer les préjugés sexistes en utilisant par défaut des voix d'assistantes.

Siri d'Apple, Cortana de Microsoft, Assistant sur les haut-parleurs de Google et Alexa d'Amazon sont de loin les assistants numériques les plus populaires. Dans la grande majorité des cas, tous ces assistants utilisent par défaut une voix féminine. Certains assistants utilisent exclusivement des voix féminines, comme Alexa, et d'autres permettent à l'utilisateur de changer le sexe de la voix dans les paramètres, comme Siri.

Dans certains cas, le sexe de la voix par défaut d'un assistant dépend du marché spécifique de l'utilisateur, et Apple en est un bon exemple: Siri utilise une voix féminine dans la plupart des pays, mais elle utilise par défaut une voix masculine lorsque la langue du système est définie sur arabe, français , Néerlandais ou anglais britannique.

Du rapport, intitulé "Je rougirais si je pouvais":

Parce que le discours de la plupart des assistants vocaux est féminin, il envoie un signal que les femmes sont des aides obligeantes, dociles et désireuses de plaire, disponibles au simple toucher d'un bouton ou avec une commande vocale émoussée comme `` Hey '' ou `` OK ''.

L'assistant n'a aucun pouvoir d'agence au-delà de ce que le commandant lui demande. Il honore les commandes et répond aux requêtes quel que soit leur ton ou leur hostilité. Dans de nombreuses communautés, cela renforce les préjugés sexistes répandus selon lesquels les femmes sont soumises et tolérantes aux mauvais traitements.

Le titre du rapport ("Je rougirais si je pouvais") était une des réponses de Siri à être traité de salope (un autre: "Eh bien, je n'ai jamais!"), Comme l'a noté 9to5Mac, mais Apple a depuis changé ces réponses en "Je ne sais pas comment répondre à cela."

Il est également préoccupant de constater qu'une assistante en IA risque de donner aux enfants des idées fausses sur le rôle des femmes dans la société moderne, ce qui pourrait suggérer qu'il est normal que les femmes, les filles et les personnes de sexe féminin répondent à la demande..

Selon Calvin Lai, un chercheur de l'Université de Harvard qui étudie les biais inconscients, les associations de genre que les gens adoptent dépendent du nombre de fois où ils y sont exposés. À mesure que les assistantes numériques féminines se répandent, la fréquence et le volume des associations entre «femme» et «assistante» augmentent considérablement.

Selon Lai, plus la culture apprend aux gens à assimiler les femmes aux assistantes, plus les vraies femmes seront considérées comme des assistantes et pénalisées pour ne pas être assimilables à des assistantes. Cela démontre qu'une technologie puissante peut non seulement reproduire les inégalités entre les sexes, mais aussi les élargir.

Je ne sais pas quoi penser de ce rapport à part le fait qu'Apple, Google, Microsoft et Amazon sont très bien conscients du sous-texte culturel de tout cela - sinon, le sexe de la voix par défaut de Siri ne serait pas dépendant de la région, mais je '' Je ne suis pas sûr que les entreprises soient conscientes que les voix des assistantes exclusivement féminines pourraient, et probablement le font, renforcer les préjugés sexistes, en particulier avec les enfants qui pourraient au fil du temps prendre cela comme une preuve d'un lien entre la voix d'une femme et l'asservissement.

Les voix d'assistantes féminines renforcent-elles vraiment les stéréotypes de genre occidentaux? Que pensez-vous de ce rapport? Assurez-vous de répondre à vos pensées dans la section des commentaires ci-dessous.