La Comisión Europea ha realizado
una aproximación a la inteligencia artificial completamente distinta que sus
competidores directos, apostando por hacerla ética, fiable y transparente, de
forma que no perjudique a ninguna persona y colectivo, y que traiga bienestar a
la ciudadanía europea. Frente al modelo estadounidense dirigido por los
intereses del mercado, y al chino que está guiado por las prioridades del
Gobierno, la europea pretende establecer un marco normativo muy rígido para el
desarrollo y uso de sistemas inteligentes, que proteja a las personas de los
sesgos que pueden surgir y de las malas prácticas, salvaguardando el derecho a
la privacidad y a la seguridad, y la protección de los datos personales.
La estrategia de despliegue de la
inteligencia artificial que ha llevado a cabo la Unión Europea siempre se ha
centrado en limitar los posibles efectos adversos que puede traer consigo esta
tecnología. Desde el informe de 2019 Directrices éticas para una IA
fiable hasta el Libro blanco sobre la inteligencia artificial
– un enfoque europeo orientado a la excelencia y la confianza, los
esfuerzos de las autoridades comunitarias se han centrado en definir una
estrategia para el desarrollo de la IA en la zona que repose sobre los valores
europeos. En abril de 2021, el Parlamento Europeo presentó lo que será el
borrador de la futura Ley de inteligencia artificial a la que estará sometida
toda empresa o institución que quiera desarrollar esta tecnología u ofrecer
servicios basados en ella dentro del mercado de la Unión.
La ley define de forma amplia la
inteligencia artificial como el software que se desarrolla empleando una o
varias de las técnicas y estrategias (aprendizaje automático, sistemas lógicos
y expertos o aproximaciones Bayesianas o estadísticas), y que puede, para un
conjunto determinado de objetivos definidos por seres humanos, generar
información de salida como contenidos, predicciones, recomendaciones o
decisiones que influyan en los entornos con los que interactúa. Y distingue
entre tres tipos de prácticas: prohibidas, de alto riesgo y sistemas con riesgo
limitado.
A grandes rasgos, las prácticas
prohibidas son aquellas que:
1. Se sirvan de técnicas subliminales que trasciendan
la conciencia de una persona para alterar de manera sustancial su
comportamiento de un modo que provoque perjuicios físicos o psicológicos.
2. Aprovechen alguna de las vulnerabilidades de un
grupo específico de personas debido a su edad o discapacidad física o mental
para alterar de manera sustancial el comportamiento de una persona.
3. Permitan a las autoridades públicas evaluar o
clasificar la fiabilidad de personas físicas durante un período determinado de
tiempo atendiendo a su conducta social o a características personales o de su
personalidad.
4.
Utilicen el uso de sistemas de identificación
biométrica remota «en tiempo real» en espacios de acceso público, excepto en
casos específicos tipificados. Por ejemplo, las técnicas de identificación por
reconocimiento facial.
Por su parte, se consideran de
alto riesgo aquellos sistemas de inteligencia artificial que tengan
consecuencias perjudiciales importantes para la salud, la seguridad y los
derechos fundamentales de las personas de la Unión.
No hay comentarios:
Publicar un comentario
Comenta lo que quieras