Existe un gran debate en
la actualidad sobre la supuesta inteligencia de la inteligencia artificial
generativa, cuyos productos más conocidos son herramientas como ChatGPT de
OpenAI o Gemini de Google. Para muchos expertos, empezando por sus creadores, estos
modelos amplios de lenguaje (del inglés
large language models, LLM) constituyen la antesala de la inteligencia
artificial general, un estado de la innovación tan temido como deseado en el
que las máquinas podrán emular las funciones y capacidades del cerebro humano.
Otra corriente de pensamiento, por el contrario, opina que la rama de la inteligencia artificial basada en el aprendizaje automático, responsable de los avances espectaculares que han tenido lugar en el último decenio, y los LLM en particular, cuyas hazañas nos dejan boquiabiertos, distan mucho de poder igualar nuestra inteligencia en la actualidad, y no son más que potentísimos programas estadísticos que se nutren de ingentes cantidades de datos para poder realizar sus diagnósticos y predicciones.
Una de las limitaciones fundamentales de la inteligencia artificial de hoy en día, a juicio de sus principales críticos encabezados por el profesor de la Universidad de Nueva York Gary Marcus, es que estos sistemas no entienden el mundo que les rodea. Son capaces de establecer correlaciones entre distintos objetos o situaciones, pero ignoran el principio de causalidad que los conecta. Además, para funcionar de forma eficiente requieren de inmensos volúmenes de datos, que no siempre pueden estár disponibles.
Uno de los análisis más brillantes en este campo de los últimos tiempos es el que realizó el ingeniero de software Baldur Bjarnason basado en la idea de que los modelos amplios de lenguaje que tanto impresionan a propios y extraños usan las mismas técnicas que los mentalistas e ilusionistas. El artículo The LLMentalist Effect: how chat-based Large Language Models replicate the mechanisms of a psychic’s con postula que no hay ninguna razón que nos lleve a concluir que estos sistemas piensan de la forma en que lo hacemos los humanos, y que la ilusión de que realmente son inteligentes está únicamente en la mente del usuario. De hecho, su funcionamiento es un claro caso de ilusionismo.
Bjarnason descubre en su texto la técnica que utiliza un mentalista para hacerle creer a la gente que tiene el poder de leer la mente, y la divide en seis fases:
1. El público se auto selecciona:
los asistentes a un espectáculo de mentalismo suelen estar más interesados que
el público en general en estos temas y los afrontan con menos prejuicios.
2.
Se crea la escena: a través de la
luz y otros factores se prepara el espectáculo y se crea expectación en el
público, mientras el mentalista y su equipo investiga al público en redes
sociales o a través de conversaciones, intentando establecer perfiles demográficos.
3. Se estrecha el factor
demográfico: el mentalista calibra la información demográfica del público y se
dirige a una sección o fila concreta del auditorio, realizando una afirmación
que parece específica, pero que está en consonancia estadística con los factores
demográficos detectados.
4. La víctima es testada: la
reacción de una persona de esa sección del público demuestra que realmente ha
creído que se les ha leído la mente, y el mentalista realiza una batería de
preguntas que, igual que antes, parecen muy específicas, pero que en realidad
son genéricas. Si la víctima no responde a cada afirmación, el mentalista lo
considera un triunfo y sigue adelante.
5. El bucle de la validación
subjetiva: el mentalista le formula a la víctima preguntas aparentemente muy
específicas, pero que son conjeturas basadas en los datos demográficos
recopilados y en las respuestas anteriores.
6.
¡El mentalista tiene poderes de
verdad! El proceso termina y la víctima se queda con la idea de que el
ilusionista realmente le ha leído la mente, pero todo ha sido fruto de una
sofisticada técnica.
Veamos ahora cómo utilizan los modelos amplios de lenguaje de texto las técnicas de los ilusionistas, a juicio de Baldur Bjarnason:
1.
El público se auto selecciona:
los principales usuarios de la inteligencia artificial son personas muy
convencidas, gente muy techie, con la
mente abierta y una predisposición natural hacia estos sistemas.
2.
Se crea la escena: la moda y
tendencia en torno a esta tecnología predispone las elevadas expectativas de
los usuarios, que reciben noticias e intercambian comentarios al respecto en
chats especializados.
3.
El prompt establece el contexto: los usuarios le dan al chatbot un prompt o texto que define y acota la
pregunta realizada, y el sistema responde. Algunos lo dejan tras la primera
respuesta, pero otros -los más entusiastas de esta tecnología- siguen
preguntando y afinando la consulta de forma que parece que se enzarzan en una conversación
con el algoritmo.
4. La víctima se pone a prueba a sí
misma: los más crédulos creerán que la conversación arroja respuestas del
sistema muy específicas para ellos en particular que denotan inteligencia.
Llegan a pensar que el bot está leyendo el texto que se le presenta y que
responde de forma razonada, pero es solamente una herramienta que utiliza la
estadística para elaborar respuestas lógicas al texto del prompt que ha recibido.
5.
El bucle de la validación
subjetiva: al igual que el mentalista no lee la mente sino que establece los
patrones más probables de pensamiento y comportamiento del público en función
de toda la información sobre éste que puede recabar, el LLM no lee, ni piensa
ni razona, sino que va afinando más las respuestas genéricas que ofrece a
medida que interactúa con el usuario. Aunque suenan como respuestas razonadas
en un contexto específico, son conjeturas estadísticamente probables, y a
medida que el usuario formula más consultas sucesivas más se convence de que
está conversando con un ser inteligente.
6.
¡La inteligencia artificial
generativa piensa! El usuario “víctima” llega a la conclusión de que el chatbot
está muy cerca de adquirir conciencia de ser y de que es capaz de razonar, pero
todo ello no es más que un efecto psicológico y estadístico. Igual que el
mentalismo.
No hay comentarios:
Publicar un comentario
Comenta lo que quieras