Loader
¿Son Siri y Alexa sexistas?

Informe de la ONU advierte sobre asistentes virtuales que alimentan estereotipos de género

Muchas de estas plataformas permiten al usuario propinar insultos y tener actitudes abusivas hacia una respuesta que viene de una "mujer"

  • Por El Mercurio / GDA
  • 25 MAY. 2019 - 06:30 AM
Photo
Las asistentes virtuales están programadas para responder con una actitud sumisa y cortés. (Waldemar Brandt / Unsplash)
  • Compartir esta nota:

¿Están amplificando la discriminación de género en el mundo las voces femeninas detrás de Siri de Apple, Alexa de Amazon y Cortana de Microsoft? Según un informe de la Organización de Naciones Unidas (ONU), la respuesta es "sí". Las populares voces femeninas de asistentes virtuales que están en los celulares y otros aparatos para ayudar a los usuarios están reforzando los estereotipos sexistas, ya que millones de personas se acostumbran a darles órdenes y estas "siempre responden con cortesía", incluso cuando los seres humanos las "acosan", de acuerdo al informe "Me sonrojaría, si pudiera" publicado por la Unesco. 

El nombre del documento hace referencia a un ejemplo que entregó, donde destacó que cuando a Siri, de Apple, un usuario la llamaba "prostituta", la asistente virtual manifestaba "me sonrojaría si pudiera". Sin embargo, en abril pasado se adaptó esa respuesta a "no sé cómo responder a eso", mostrando una actitud sumisa hacia la violencia de género. A pesar de que estas voces pueden ser modificadas por cada usuario, la gran mayoría están diseñadas para que por defecto la respuesta venga de una "mujer".

A juicio de los investigadores, las asistentes virtuales están programadas para ser sumisas y serviciales, incluso para responder de forma amable a los insultos, lo que refuerza los prejuicios de género y normalizan el acoso sexista.

"La sumisión de Siri ante el abuso de género, así como el servilismo expresado por muchos otros asistentes digitales proyectados como mujeres jóvenes, proporciona una potente muestra sobre los sesgos de género codificados en los productos tecnológicos", señaló el informe.

Y el problema crece, ya que cada vez son más las personas que utilizan esta tecnología alrededor del mundo. Según aclaró el reporte, representan casi una quinta parte de todas las búsquedas en internet, por lo que el impacto cultural es significativo.

Por eso, de acuerdo al informe, la masificación de estas plataformas que por defecto vienen programadas con voces femeninas, ayuda a que los sesgos de género continúen aumentando y propagándose alrededor del mundo. A partir de estas reflexiones, el estudio recomendó a las compañías tecnológicas que dejen de hacer que sus asistentes virtuales sean femeninas de fábrica, y las programen para desalentar los insultos basados en el género y el lenguaje abusivo, según publicó Infobae. Además, instaron a que exploraran nuevas opciones de voces neutras, y programaciones que desalienten los insultos y el lenguaje abusivo.

  • Compartir esta nota:
Volver Arriba