lunes, 11 de julio de 2022

Una inteligencia artificial europea ética y fiable

 


La Comisión Europea ha realizado una aproximación a la inteligencia artificial completamente distinta que sus competidores directos, apostando por hacerla ética, fiable y transparente, de forma que no perjudique a ninguna persona y colectivo, y que traiga bienestar a la ciudadanía europea. Frente al modelo estadounidense dirigido por los intereses del mercado, y al chino que está guiado por las prioridades del Gobierno, la europea pretende establecer un marco normativo muy rígido para el desarrollo y uso de sistemas inteligentes, que proteja a las personas de los sesgos que pueden surgir y de las malas prácticas, salvaguardando el derecho a la privacidad y a la seguridad, y la protección de los datos personales.

La estrategia de despliegue de la inteligencia artificial que ha llevado a cabo la Unión Europea siempre se ha centrado en limitar los posibles efectos adversos que puede traer consigo esta tecnología. Desde el informe de 2019 Directrices éticas para una IA fiable hasta el Libro blanco sobre la inteligencia artificial – un enfoque europeo orientado a la excelencia y la confianza, los esfuerzos de las autoridades comunitarias se han centrado en definir una estrategia para el desarrollo de la IA en la zona que repose sobre los valores europeos. En abril de 2021, el Parlamento Europeo presentó lo que será el borrador de la futura Ley de inteligencia artificial a la que estará sometida toda empresa o institución que quiera desarrollar esta tecnología u ofrecer servicios basados en ella dentro del mercado de la Unión.

La ley define de forma amplia la inteligencia artificial como el software que se desarrolla empleando una o varias de las técnicas y estrategias (aprendizaje automático, sistemas lógicos y expertos o aproximaciones Bayesianas o estadísticas), y que puede, para un conjunto determinado de objetivos definidos por seres humanos, generar información de salida como contenidos, predicciones, recomendaciones o decisiones que influyan en los entornos con los que interactúa. Y distingue entre tres tipos de prácticas: prohibidas, de alto riesgo y sistemas con riesgo limitado.

A grandes rasgos, las prácticas prohibidas son aquellas que:

1.   Se sirvan de técnicas subliminales que trasciendan la conciencia de una persona para alterar de manera sustancial su comportamiento de un modo que provoque perjuicios físicos o psicológicos.

2.   Aprovechen alguna de las vulnerabilidades de un grupo específico de personas debido a su edad o discapacidad física o mental para alterar de manera sustancial el comportamiento de una persona.

3.   Permitan a las autoridades públicas evaluar o clasificar la fiabilidad de personas físicas durante un período determinado de tiempo atendiendo a su conducta social o a características personales o de su personalidad.

4.     Utilicen el uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público, excepto en casos específicos tipificados. Por ejemplo, las técnicas de identificación por reconocimiento facial.

Por su parte, se consideran de alto riesgo aquellos sistemas de inteligencia artificial que tengan consecuencias perjudiciales importantes para la salud, la seguridad y los derechos fundamentales de las personas de la Unión.

 

 

No hay comentarios:

Publicar un comentario

Comenta lo que quieras

 
Google Analytics Alternative