Aparte de la asignación de roles
de género en la robótica, lo que implica, por ejemplo, que los robots militares
sean por norma masculinos y los sociales o relacionales femeninos, existen
otros sesgos de género que afectan a la inteligencia artificial, más allá del
mero diseño de androides. Un reciente informe de la Fundación Alternativas los
clasifica en dos grupos: sesgos de datos y de diseño.
El primer aspecto son los datos,
el combustible de la inteligencia artificial actual basada en machine
learning o aprendizaje automático. Estos algoritmos aprenden a base de
consumir ingentes cantidades de datos –cuanto más volumen dispongan de ellos,
más precisos serán sus diagnósticos-, sin embargo, nadie puede garantizar que
la información que reciben los algoritmos sea realmente representativa. De
hecho, se trata de datos que tienen los mismos sesgos que existen en las
sociedades. Por ejemplo, el primer concurso de belleza en contar con un jurado
no humano, Beauty.AI 2.0, demostró que el algoritmo había desarrollado un sesgo
racista que le llevó a puntuar más bajo a las mujeres asiáticas o de color.
Probablemente, el sesgo se produjo porque el sistema fue alimentado a base de
modelos de belleza más occidentales.
En el aspecto de género, los
datos pueden no ser lo suficientemente representativos de lo que ocurre en la
sociedad y ocultar la presencia y el papel de las mujeres en la misma,
convirtiéndolas en invisibles. Otro ejemplo que ilustra esto es la experiencia
de Amazon, que empezó a utilizar la inteligencia artificial para llevar a cabo
las contrataciones, entrenando al algoritmo sobre el ideal de empleado
utilizando datos de las contrataciones llevadas a cabo en los diez años
precedentes. El problema es que los puestos técnicos durante ese periodo habían
sido ocupados en su mayoría por hombres, por lo que el sistema determinó que
las candidatas no se ajustaban al perfil requerido por la empresa. Los datos
que aparentemente son neutros esconden poderosos sesgos.
La segunda categoría corresponde
a los sesgos de diseño, es decir, los prejuicios que vierten en la inteligencia
artificial los propios diseñadores de esta. Por ejemplo, es muy común que los
chatbots de atención al público tengan una voz femenina, llevando al plano
tecnológico el rol estereotipado de la mujer como asistente, como
recepcionista, o como empleada de atención al cliente. En España nos
encontramos numerosos ejemplos de esto, como Lola de la Universidad de Murcia,
Eva de Vueling, o Rosi, que contesta preguntas sobre información básica de
Murcia.
También los asistentes de voz
suelen tener voces femeninas -Siri de Apple, Alexa de Amazon, Cortana de
Microsoft, y Google Assistant-, y sus creadores les asignan una personalidad
específica de mujer. Por ejemplo, James Giangola, uno de los desarrolladores de
Google Assistant, reconoció ante un medio de comunicación que habían concebido
al asistente como una mujer joven del estado de Colorado, hija pequeña de una
pareja de investigadores. El estereotipo de género en los asistentes
inteligentes tiene su paradigma en la respuesta que da Siri ante la
expresión “Eres una zorra”, que es “Me sonrojaría si
pudiese”, frase que dio título a un conocido informe de Unesco sobre
brechas de género tecnológicas.
Una de las causas de esto es la
escasa presencia de mujeres en los equipos que desarrollan sistemas basados en
inteligencia artificial. De acuerdo con un reciente informe de la Fundación
Alternativas, en la Unión Europea la brecha digital de género en actividades de
programación era de 8 puntos en 2014; las mujeres solo representan el 12% de
los autores de artículos en las principales conferencias sobre machine
learning y el 13,83% de los miles que se escriben en general sobre
inteligencia artificial. Por otro lado, un estudio realizado en 2017 por Emerj
demostró que sólo el 13% de las altas posiciones ejecutivas en empresas
tecnológicas dedicadas a la inteligencia artificial son ocupadas por mujeres,
y, si nos centramos en el subámbito del lenguaje natural, el porcentaje cae hasta
el 5%.
No hay comentarios:
Publicar un comentario
Comenta lo que quieras