lunes, 6 de noviembre de 2023

El verdadero peligro de la inteligencia artificial generativa

 


Aunque parece un argumento de película de ciencia ficción, ya desde hace tiempo hay expertos avisando de que la inteligencia artificial se puede volver contra el ser humano. Hace unos años algunas figuras relevantes de la ciencia y la tecnología -como Bill Gates, Elon Musk o el mismísimo Stephen Hawking- alzaron su voz alertando sobre los peligros para la especie que traía consigo el grado de desarrollo actual de esta tecnología.

El último episodio de esta historia ha llegado de la mano de los productos basados en la inteligencia artificial generativa, especialmente aquellos de la empresa estadounidense Open.AI, como el software generador de imágenes Dall-e o el chatbox ChatGPT, cuya cuarta versión entró en funcionamiento en 2023 alcanzando un gran impacto social por su capacidad desplegada de generar conocimiento. Como es un sistema abierto, todo el mundo ha podido interactuar con ChatGPT4 y comprobar su habilidad para generar textos sobre cualquier tema sobre el que se le pregunte. De ahí el revuelo mediático.

Durante la primera mitad de 2023, el sistema de Open.AI ha ocupado portadas y titulares, y ha generado una ola de temor a la inteligencia artificial generativa que ha recorrido el mundo. La inteligencia artificial generativa (IAG) es una rama de la inteligencia artificial que crea nuevos resultados -un texto, una imagen, un archivo de sonido- en base a los datos recibidos, a diferencia de los sistemas tradicionales centrados en el reconocimiento de patrones y en la elaboración de predicciones. La primera alarma relacionada con esta tecnología ha sonado en el terreno del empleo: ¿a cuántas profesiones puede desplazar este sistema? ¿qué competencias actualmente desempeñadas por humanos quedarán obsoletas? El segundo motivo de preocupación está relacionado con la maestría con la que los sistemas de IAG pueden crear contenidos falsos que parecen completamente reales. Suponen, por tanto, herramientas eficaces para crear desinformación, fake news y deep fakes.

Esta vez han sido los propios responsables del desarrollo de este tipo de algoritmos los que han anunciado que traerán consigo el apocalipsis. En una carta publicada el 30 de mayo, 350 ingenieros y ejecutivos de empresas tecnológicas –entre los que se encontraban Sam Altman (presidente ejecutivo de OpenAI), Demis Hassabis (Google DeepMind) y Dario Amodei (Anthropic), las compañías más punteras en este campo- han comparado la amenaza que supone para la humanidad la inteligencia artificial con una guerra nuclear o una pandemia. Para algunos tecnólogos -encabezados por Ray Kurzweil- en algún momento no muy lejano, la inteligencia artificial superará a la humana, y las propias máquinas serán capaces de crear máquinas mucho más inteligentes que las actuales. Es lo que se denomina la singularidad tecnológica.

La pregunta clave es ¿está realmente tan avanzado el grado de desarrollo de la inteligencia artificial? ¿Podemos hablar de inteligencia real o tan solo estamos ante herramientas estadísticas muy poderosas y sofisticadas?

A pesar de su indudable capacidad para crear contenidos, no parece que los modelos actuales de inteligencia artificial generativa vayan a desplazar por ahora a la inteligencia humana. Es verdad que determinadas habilidades que presentan pueden suponer una amenaza para algunas profesiones, pero por automatizables que resulten algunas tareas siempre deben llevar supervisión humana. Los algoritmos podrán redactar textos legales o periodísticos mucho más rápido que los abogados y los redactores, y, sin embargo, no tienen la capacidad para evaluar la validez de su producto, que debería ser revisado por un experto en el tema.

La supuesta creatividad de los modelos amplios de lenguaje también es algo más que cuestionable, dado que lo que suelen hacer es fundir en sus resultados a las consultas recibidas contenidos de distintas fuentes. En este sentido, Charlie Brooker, el creador de la popular serie de Netflix Black Mirror, realizó el curioso experimento de pedirle a ChatGPT que escribiese el guion de un nuevo capítulo. El resultado no pudo ser más decepcionante: el algoritmo había cogido las sinopsis de distintos capítulos y las había mezclado para escribir su trama.

El verdadero peligro de este tipo de inteligencia artificial es su utilización para crear bulos y mentiras para inundar los espacios públicos de desinformación que pueda manipular la opinión pública. El mal uso de la inteligencia artificial generativa por los propios humanos es la mayor amenaza que presenta en este momento para nosotros. Este es el aspecto que necesita de mayor legislación y control institucional. Incluso se ha llegado a sugerir que sería conveniente que cualquier contenido generado por inteligencia artificial lleve una marca de agua que indique al interlocutor que se está tratando con un chatbot.

La desinformación y el engaño que proliferan por los medios de comunicación y, especialmente, a través de las redes sociales supone una seria amenaza para la democracia. Michael Sandel, profesor de la Universidad de Harvard, entrevistado por la revista Telos, advierte del riesgo que supone que las generaciones que vienen pierdan interés por la línea que separa lo que es falso de lo que es real. En sus palabras: “este es el verdadero peligro, no solo que cada vez sea más difícil distinguir lo que es real de lo que es falso, sino que esa distinción deje de importarnos”. Controlar la utilización que se hace de los algoritmos generativos resulta crucial en este sentido.

 

 

No hay comentarios:

Publicar un comentario

Comenta lo que quieras

 
Google Analytics Alternative