La inteligencia artificial está en el corazón de la agenda científica de la Unión Europea. La Comisión reconoce la capacidad de este conjunto de tecnologías para mejorar la vida de las personas, y para generar beneficios para la sociedad y la economía, a través de cuestiones como el impulso del cuidado de la salud, el aumento de la eficiencia de la administración pública, haciendo el transporte más seguro, inyectando competitividad en la industria o generando una agricultura más sostenible.
El impacto económico de la automatización del trabajo intelectual, de los robots y de los vehículos autónomos, se calcula que alcanzará entre los 6,5 y los 12 billones de euros anuales para 2025. Sin embargo, Europa se queda atrás en relación a la inversión privada en inteligencia artificial, pues dedicó en 2016 entre 2 400 y 3 200 millones de euros frente a los entre 6 500 y 9 700 millones de Asia, y los entre 12 100 y 18 600 millones de Norteamérica.
Es por ello, que la Comisión Europea impulsa con grandes inversiones aspectos como los sistemas cognitivos, la robótica, el big data y las tecnologías emergentes del futuro, con el fin de garantizar el mantenimiento de la competitividad del tejido económico del continente.
A través del programa Horizon 2020, ha dedicado 2 600 millones de euros a las áreas relacionadas con la inteligencia artificial, como la robótica, el big data, el transporte, la sanidad y las tecnologías emergentes. La investigación en robótica ha recibido hasta 700 millones de fondos públicos, a los que hay que sumar 2 100 millones de financiación privada. Los Fondos Estructurales y de Inversión europeos también han incidido en la formación y el desarrollo de capacidades con 27 000 millones de gasto en ese tema, de los cuales 2 300 han sido dedicados al desarrollo de capacidades digitales.
Las autoridades europeas son conscientes de los peligros que entraña el desarrollo descontrolado y no razonado de la inteligencia artificial. En consecuencia, paralelamente al desarrollo científico y tecnológico, han visto la necesidad de abrir un debate para esclarecer cómo conseguir que los sistemas inteligentes traigan consigo beneficios a las personas, y no perjuicios. A tal efecto, en junio de 2018 la Comisión creó el Grupo de expertos de alto nivel sobre IA, que en abril de 2019 presentó el documento Directrices éticas para una IA fiable. El informe pretende ofrecer algo más que una simple lista de principios éticos, y proporciona orientación sobre cómo poner en práctica esos principios en los sistemas sociotécnicos.
Los autores se centran en el concepto de fiabilidad de la inteligencia artificial, que hacen reposar sobre tres pilares: debe ser lícita, es decir, cumplir todas las leyes y reglamentos aplicables; también ha de ser ética, de modo que se garantice el respeto de los principios y valores éticos; y, finalmente, debe ser robusta, tanto desde el punto de vista técnico como social. Cada uno de estos componentes es en sí mismo necesario, pero no es suficiente para el logro de una inteligencia artificial fiable.
Las directrices que propone en el trabajo se dirigen solamente a los dos últimos aspectos, la ética y la robustez. El Grupo de Expertos identifica una serie de directrices éticas que deben acompañar la construcción de máquinas inteligentes:
- Desarrollar, desplegar y utilizar los sistemas de IA respetando los principios éticos de: respeto de la autonomía humana, prevención del daño, equidad y explicabilidad. Reconocer y abordar las tensiones que pueden surgir entre estos principios.
- Prestar una atención especial a las situaciones que afecten a los grupos más vulnerables, como los niños, las personas con discapacidad y otras que se hayan visto históricamente desfavorecidas o que se encuentren en riesgo de exclusión, así como a las situaciones caracterizadas por asimetrías de poder o de información, como las que pueden producirse entre empresarios y trabajadores o entre empresas y consumidores.
- Reconocer y tener presente que, pese a que aportan beneficios sustanciales a las personas y a la sociedad, los sistemas de IA también entrañan determinados riesgos y pueden tener efectos negativos, algunos de los cuales pueden resultar difíciles de prever, identificar o medir (por ejemplo, sobre la democracia, el estado de Derecho y la justicia distributiva, o sobre la propia mente humana). Adoptar medidas adecuadas para mitigar estos riesgos cuando proceda; dichas medidas deberán ser proporcionales a la magnitud del riesgo.
No hay comentarios:
Publicar un comentario
Comenta lo que quieras