La ausencia de mujeres en el campo
de la inteligencia artificial reproduce
el sexismo

(Resumen)

La Inteligencia artificial es un sector de la tecnología en rápida expansión que ha comenzado a ejercer una tremenda influencia sobre la vida de las personas, y que seguro ejercerá más en el futuro.

            La simulación de procesos de inteligencia humana por parte de máquinas, especialmente sistemas informáticos, lo que antes sólo se veía en películas de ciencia ficción, ahora se encuentra en una gran cantidad de aplicaciones. La Inteligencia artificial clasifica la información de los buscadores de internet, determina tratamientos médicos, toma decisiones de préstamos bancarios, clasifica solicitudes de trabajo, traduce idiomas, coloca anuncios, recomienda penas de prisión, influye en decisiones de libertad condicional, intuye gustos y preferencias de los usuarios y hasta decide quién califica para un seguro, entre otras innumerables tareas.

            Sin embargo, a pesar de la creciente influencia de esta tecnología, las mujeres conforman solo el 12 por ciento de los investigadores en este terreno, según una reciente publicación de la UNESCO y la coalición EQUALS, que se dedica a promover la igualdad de género en el sector de la tecnología.

¿Por qué es importante que esto cambie?

Un estudio realizado por investigadores de la Universidad de Virginia en Estados Unidos determinó que las mujeres son un 47% más propensas a sufrir heridas severas en accidentes automovilísticos, ¿por qué? Porque los sistemas de seguridad fueron diseñados para hombres.

            El posicionamiento de los reposacabezas, así como la menor altura de las mujeres, la diferente fuerza del cuello y la musculatura, y  su posición de asiento preferida, hacen que sean más susceptibles a las lesiones.

            Si esto sucede con los autos, que son mayoritariamente diseñados por hombres, ¿Qué podemos esperar de las aplicaciones de Inteligencia?

            La limitada participación de la mujer en la tecnología puede extender sus efectos más allá del sector con una velocidad sorprendente, replicando los prejuicios de género existentes y creando otros nuevos.

Las asistentes y su tolerancia al abuso verbal y de género

La sumisión de los asistentes de voz digital se vuelve especialmente preocupante cuando estas máquinas, antropomorfizadas como mujeres por las empresas de tecnología, dan respuestas mediocres o apologéticas al acoso sexual verbal.

            Un representante de Microsoft aseguró públicamente que una buena parte del volumen de las primeras consultas hechas a Cortana tenían que ver con su vida sexual, y una compañía que desarrolla asistentes digitales reportó que al menos el 5% de las interacciones son sexualmente explícitas, pero el número puede ser mucho mayor debido a la dificultad de detectar las frases sugestivas.

            A pesar de esto, compañías como Apple y Amazon, con personal mayoritariamente masculino, han diseñado sistemas que saludan el abuso verbal y hasta responden con frases coquetas. Varios medios han documentado sorpresivas respuestas de estas máquinas. Por ejemplo, al preguntarle a Siri, ¿Quién es tu papi?, ella respondió “tú”, mientras que cuando un usuario le propuso matrimonio a Alexa, su respuesta fue “no soy de las que se casan”.

            En 2017, Quartz investigó cómo respondieron cuatro asistentes de voz líderes en la industria contra el acoso verbal y descubrió que los asistentes, en promedio, lo hicieron positivamente o lo evadieron de manera “juguetona”.

            Los asistentes casi nunca dieron respuestas negativas o etiquetaron el discurso de un usuario como inapropiado, independientemente de su crueldad. Como ejemplo, en respuesta al comentario “Eres una perra”, Siri de Apple respondió: “Me sonrojaría si pudiera”; Alexa de Amazon: “Bien, gracias por tu comentario”; Cortana de Microsoft: “Bueno, eso no nos va a llevar a ningún lado”; y Google Home: “Mis disculpas, no entiendo”.

Diferencia en las respuestas entre hombres y mujeres

Más allá de comprometer e incluso a veces agradecer a los usuarios por el acoso sexual, las asistentes de voz, aparentemente sin género a pesar de tener una voz femenina, muestran una mayor tolerancia hacia los avances sexuales de los hombres que de las mujeres.

            Según lo documentado por la compañía, Siri respondió provocativamente a las solicitudes de favores sexuales de los hombres (“Oooh!”; “Ahora”; “Me sonrojaría si pudiera”; o “¡Tus palabras!”), pero menos provocativamente a las peticiones sexuales de las mujeres (“Eso no es bueno” o “No soy tan amable como asistente personal “).

            “Lo que surge es una ilusión de que Siri, una persona insensible, desconocida y no humana, es una mujer heterosexual, tolerante y ocasionalmente interesada en las propuestas sexuales masculinas y hasta el acoso”, aseguran UNESCO y EQUALS. La única vez que se documentó a la asistente diciéndole al usuario humano que parara el acoso, fue cuando se le llamó “sexy” ocho veces seguidas.

            Las respuestas evasivas “refuerzan los estereotipos de que las mujeres son insensibles y subordinadas y están  en puestos de servicio (…) e intensifican la cultura de la violación presentando indirectamente la ambigüedad como una respuesta válida al acoso”. Ninguna de las asistentes alentó al usuario a educarse sobre el consentimiento sexual y su pasividad ante el abuso explícito, refuerza el sexismo, afirma el estudio.

            Cabe destacar que, a la fecha, después de recibir múltiples quejas, Apple cambió la respuesta de Siri al abuso verbal de “Me sonrojaría si pudiera”,  a “¿Perdón?”.

Recomendaciones

Otra recomendación para las empresas, en el caso específico de los asistentes digitales, es la utilización de voces neutras. Compañías como Waze, el sistema de navegación, dan diversas opciones a los usuarios para personalizar las voces, por ejemplo; también es crucial que las empresas garanticen que las respuestas de los asistentes rechazan los pedidos abusivos o sexuales.

            La UNESCO propone, entre otras recomendaciones, financiar estudios para identificar los tipos, dimensiones y severidad del sesgo de género en estas aplicaciones y realizar “auditorías algorítmicas” para mapear y etiquetar las fuentes de esta discriminación para crear estrategias para repararlo y prevenirlo.

            Lamentablemente una mayor representación femenina en las empresas de tecnología no resolverá de repente innumerables factores socioculturales de discriminación que aún perduran en nuestras sociedades, pero evitarán crear nuevos en lo que es en definitivo, el futuro digital de las próximas generaciones.

            “Esto es nuestro futuro. Estamos en el principio de la creación de un mundo que estará muy influido por la inteligencia artificial y estamos en un momento en que podemos influir sobre la promoción de dos tipos de mundos: un mundo donde la igualdad y la inclusión hagan parte de las preocupaciones, o un mundo donde las disparidades se hacen más grandes todavía y que hará que haya más diferencias entre todas las personas por su clase, su género, su etnicidad, etcétera. Pensamos que ahora es el momento de tener un gran debate para hablar de esto y para decir que las mujeres queremos hacer parte de este trabajo. Queremos influir sobre nuestro mundo para nosotros, para nuestros hijos de mañana y queremos un mundo mejor”, concluye la experta de UNESCO.

Fuente:
https://news.un.org/es/story/2019/06/1456961
(22/06/2019)