lunes, 6 de junio de 2022

Los sesgos de género en la inteligencia artificial

 


Aparte de la asignación de roles de género en la robótica, lo que implica, por ejemplo, que los robots militares sean por norma masculinos y los sociales o relacionales femeninos, existen otros sesgos de género que afectan a la inteligencia artificial, más allá del mero diseño de androides. Un reciente informe de la Fundación Alternativas los clasifica en dos grupos: sesgos de datos y de diseño.

El primer aspecto son los datos, el combustible de la inteligencia artificial actual basada en machine learning o aprendizaje automático. Estos algoritmos aprenden a base de consumir ingentes cantidades de datos –cuanto más volumen dispongan de ellos, más precisos serán sus diagnósticos-, sin embargo, nadie puede garantizar que la información que reciben los algoritmos sea realmente representativa. De hecho, se trata de datos que tienen los mismos sesgos que existen en las sociedades. Por ejemplo, el primer concurso de belleza en contar con un jurado no humano, Beauty.AI 2.0, demostró que el algoritmo había desarrollado un sesgo racista que le llevó a puntuar más bajo a las mujeres asiáticas o de color. Probablemente, el sesgo se produjo porque el sistema fue alimentado a base de modelos de belleza más occidentales.

En el aspecto de género, los datos pueden no ser lo suficientemente representativos de lo que ocurre en la sociedad y ocultar la presencia y el papel de las mujeres en la misma, convirtiéndolas en invisibles. Otro ejemplo que ilustra esto es la experiencia de Amazon, que empezó a utilizar la inteligencia artificial para llevar a cabo las contrataciones, entrenando al algoritmo sobre el ideal de empleado utilizando datos de las contrataciones llevadas a cabo en los diez años precedentes. El problema es que los puestos técnicos durante ese periodo habían sido ocupados en su mayoría por hombres, por lo que el sistema determinó que las candidatas no se ajustaban al perfil requerido por la empresa. Los datos que aparentemente son neutros esconden poderosos sesgos.

La segunda categoría corresponde a los sesgos de diseño, es decir, los prejuicios que vierten en la inteligencia artificial los propios diseñadores de esta. Por ejemplo, es muy común que los chatbots de atención al público tengan una voz femenina, llevando al plano tecnológico el rol estereotipado de la mujer como asistente, como recepcionista, o como empleada de atención al cliente. En España nos encontramos numerosos ejemplos de esto, como Lola de la Universidad de Murcia, Eva de Vueling, o Rosi, que contesta preguntas sobre información básica de Murcia.

También los asistentes de voz suelen tener voces femeninas -Siri de Apple, Alexa de Amazon, Cortana de Microsoft, y Google Assistant-, y sus creadores les asignan una personalidad específica de mujer. Por ejemplo, James Giangola, uno de los desarrolladores de Google Assistant, reconoció ante un medio de comunicación que habían concebido al asistente como una mujer joven del estado de Colorado, hija pequeña de una pareja de investigadores. El estereotipo de género en los asistentes inteligentes tiene su paradigma en la respuesta que da Siri ante la expresión “Eres una zorra”, que es “Me sonrojaría si pudiese”, frase que dio título a un conocido informe de Unesco sobre brechas de género tecnológicas.

Una de las causas de esto es la escasa presencia de mujeres en los equipos que desarrollan sistemas basados en inteligencia artificial. De acuerdo con un reciente informe de la Fundación Alternativas, en la Unión Europea la brecha digital de género en actividades de programación era de 8 puntos en 2014; las mujeres solo representan el 12% de los autores de artículos en las principales conferencias sobre machine learning y el 13,83% de los miles que se escriben en general sobre inteligencia artificial. Por otro lado, un estudio realizado en 2017 por Emerj demostró que sólo el 13% de las altas posiciones ejecutivas en empresas tecnológicas dedicadas a la inteligencia artificial son ocupadas por mujeres, y, si nos centramos en el subámbito del lenguaje natural, el porcentaje cae hasta el 5%.

 

No hay comentarios:

Publicar un comentario

Comenta lo que quieras

 
Google Analytics Alternative