Aunque parece un argumento de
película de ciencia ficción, ya desde hace tiempo hay expertos avisando de que
la inteligencia artificial se puede volver contra el ser humano. Hace unos años
algunas figuras relevantes de la ciencia y la tecnología -como Bill Gates, Elon
Musk o el mismísimo Stephen Hawking- alzaron su voz alertando sobre los
peligros para la especie que traía consigo el grado de desarrollo actual de
esta tecnología.
El último episodio de esta
historia ha llegado de la mano de los productos basados en la inteligencia
artificial generativa, especialmente aquellos de la empresa estadounidense
Open.AI, como el software generador de imágenes Dall-e o el
chatbox ChatGPT, cuya cuarta versión entró en funcionamiento en 2023 alcanzando
un gran impacto social por su capacidad desplegada de generar conocimiento.
Como es un sistema abierto, todo el mundo ha podido interactuar con ChatGPT4 y
comprobar su habilidad para generar textos sobre cualquier tema sobre el que se
le pregunte. De ahí el revuelo mediático.
Durante la primera mitad de 2023,
el sistema de Open.AI ha ocupado portadas y titulares, y ha generado una ola de
temor a la inteligencia artificial generativa que ha recorrido el mundo. La
inteligencia artificial generativa (IAG) es una rama de la inteligencia
artificial que crea nuevos resultados -un texto, una imagen, un archivo de
sonido- en base a los datos recibidos, a diferencia de los sistemas
tradicionales centrados en el reconocimiento de patrones y en la elaboración de
predicciones. La primera alarma relacionada con esta tecnología ha sonado en el
terreno del empleo: ¿a cuántas profesiones puede desplazar este sistema? ¿qué
competencias actualmente desempeñadas por humanos quedarán obsoletas? El
segundo motivo de preocupación está relacionado con la maestría con la que los
sistemas de IAG pueden crear contenidos falsos que parecen completamente
reales. Suponen, por tanto, herramientas eficaces para crear
desinformación, fake news y deep fakes.
Esta vez han sido los propios
responsables del desarrollo de este tipo de algoritmos los que han anunciado
que traerán consigo el apocalipsis. En una carta publicada el 30 de mayo, 350
ingenieros y ejecutivos de empresas tecnológicas –entre los que se encontraban
Sam Altman (presidente ejecutivo de OpenAI), Demis Hassabis (Google DeepMind) y
Dario Amodei (Anthropic), las compañías más punteras en este campo- han
comparado la amenaza que supone para la humanidad la inteligencia artificial
con una guerra nuclear o una pandemia. Para algunos tecnólogos -encabezados por
Ray Kurzweil- en algún momento no muy lejano, la inteligencia artificial
superará a la humana, y las propias máquinas serán capaces de crear máquinas
mucho más inteligentes que las actuales. Es lo que se denomina la singularidad
tecnológica.
La pregunta clave es ¿está
realmente tan avanzado el grado de desarrollo de la inteligencia artificial?
¿Podemos hablar de inteligencia real o tan solo estamos ante herramientas
estadísticas muy poderosas y sofisticadas?
A pesar de su indudable capacidad
para crear contenidos, no parece que los modelos actuales de inteligencia
artificial generativa vayan a desplazar por ahora a la inteligencia humana. Es
verdad que determinadas habilidades que presentan pueden suponer una amenaza
para algunas profesiones, pero por automatizables que resulten algunas tareas
siempre deben llevar supervisión humana. Los algoritmos podrán redactar textos
legales o periodísticos mucho más rápido que los abogados y los redactores, y,
sin embargo, no tienen la capacidad para evaluar la validez de su producto, que
debería ser revisado por un experto en el tema.
La supuesta creatividad de los
modelos amplios de lenguaje también es algo más que cuestionable, dado que lo
que suelen hacer es fundir en sus resultados a las consultas recibidas contenidos
de distintas fuentes. En este sentido, Charlie Brooker, el creador de la
popular serie de Netflix Black Mirror, realizó el curioso
experimento de pedirle a ChatGPT que escribiese el guion de un nuevo capítulo.
El resultado no pudo ser más decepcionante: el algoritmo había cogido las
sinopsis de distintos capítulos y las había mezclado para escribir su trama.
El verdadero peligro de este tipo
de inteligencia artificial es su utilización para crear bulos y mentiras para
inundar los espacios públicos de desinformación que pueda manipular la opinión
pública. El mal uso de la inteligencia artificial generativa por los propios
humanos es la mayor amenaza que presenta en este momento para nosotros. Este es
el aspecto que necesita de mayor legislación y control institucional. Incluso
se ha llegado a sugerir que sería conveniente que cualquier contenido generado
por inteligencia artificial lleve una marca de agua que indique al interlocutor
que se está tratando con un chatbot.
La desinformación y el engaño que
proliferan por los medios de comunicación y, especialmente, a través de las
redes sociales supone una seria amenaza para la democracia. Michael Sandel, profesor
de la Universidad de Harvard, entrevistado por la revista Telos, advierte del
riesgo que supone que las generaciones que vienen pierdan interés por la línea
que separa lo que es falso de lo que es real. En sus palabras: “este es el
verdadero peligro, no solo que cada vez sea más difícil distinguir lo que es
real de lo que es falso, sino que esa distinción deje de importarnos”.
Controlar la utilización que se hace de los algoritmos generativos resulta
crucial en este sentido.
No hay comentarios:
Publicar un comentario
Comenta lo que quieras