El éxito reciente del chatbot
ChatGPT ha puesto en el centro del debate público la inteligencia artificial,
una tecnología que ha conocido un avance considerable a lo largo de la década
pasada de forma que ya está presente en numerosos aspectos de nuestras vidas.
Aunque ya tratamos con sistemas inteligentes de forma cotidiana, muchas veces
sin darnos cuenta (por ejemplo, cuando las plataformas nos recomiendan
contenidos audiovisuales personalizados o cuando utilizamos el texto predictivo
al escribir un mensaje en el móvil), el producto de la empresa Open.AI nos ha
enfrentado a un nuevo fenómeno asaz vistoso, como es contemplar la capacidad
creativa de las maquinas.
Este tipo de inteligencia
artificial se denomina “generativa”, pues da lugar a algún tipo de creación, ya
sea un texto, una imagen o sonido. A pesar de lo novedoso que parecen estas
habilidades, ya existe una larga tradición de algoritmos que escriben novelas o
poesía, o que pintan cuadros o diseñan imágenes. Es probable que la popularidad
que han cosechado los llamados Large Language Models (LLM) -como
ChatGPT, Turing NLG de Microsoft, Bard de Google o Gopher de Deep Mind- resida
en que han abandonado el ámbito de los expertos y están en la mayoría de los
casos en manos de la gente. De esta forma, todo el mundo ha podido probar en
primera persona cómo funcionan estos chatbots y las posibilidades que ofrecen.
Ahora bien, a pesar de lo
espectacular de los resultados que ofrecen, existen voces que señalan las
limitaciones de esta rama de la inteligencia artificial, y lo lejos que está de
emular las funciones del cerebro humano. El pasado agosto, el físico Michio
Kaku denunciaba el sensacionalismo que se ha generado en torno a estos robots
conversacionales, que, a su juicio, no hacen más que seleccionar y ordenar
contenidos de internet, sin saber discernir la verdad de la ficción, ni
distinguir los datos reales de la desinformación. Básicamente, los LLM no
serían más que versiones avanzadas de los buscadores de la web, como Google,
que han estado funcionando durante los últimos veinte años.
Uno de los mayores críticos de la
inteligencia artificial actual es sin duda el profesor y empresario Gary
Marcus, quien considera que la rama más utilizada hoy en día, el aprendizaje
automático y las redes neuronales -responsables de los avances producidos en
los últimos veinte años-, presenta carencias relativas al razonamiento, no
resulta fiable y se aleja de la forma de pensar que tenemos los humanos. A su
juicio, las carencias que presenta el aprendizaje profundo de las redes
neuronales podrían ser salvadas gracias a la denominada inteligencia artificial
simbólica, una aproximación clásica a esta tecnología que hoy en día ha sido
desplazada a un segundo plano.
La inteligencia artificial
simbólica se centra en la manipulación y el procesado de símbolos y conceptos
en vez de grandes cantidades de datos numéricos, como hace el aprendizaje
automático. Este tipo de algoritmos funciona manejando símbolos que representan
objetos o ideas del mundo y sus relaciones. La principal aproximación de esta
rama es el uso de programación basada en la lógica, en la que las normas y los
axiomas son utilizados para realizar inferencias y deducciones.
Mientras que la inteligencia
artificial simbólica es más adecuada para trabajar en entornos de conocimiento
bien definido y estructurado, el aprendizaje automático es más útil cuando
existen grandes volúmenes de datos y patrones complejos.
La tesis que defiende Gary Marcus
es que la inteligencia artificial actual basada en el aprendizaje automático y
el aprendizaje profundo solamente podrá seguir evolucionando si se combina con
el enfoque simbólico, en la forma de una inteligencia artificial “híbrida”. De
no ser así, predice que se podría producir otro “invierno de la inteligencia
artificial”, es decir, un estancamiento y un desencanto generalizado en torno a
esta tecnología, como el que tuvo lugar a partir de los años 70 del siglo
pasado.
Para Gary Marcus el futuro de la
inteligencia artificial no puede basarse en modelos basados en un exceso de
datos y en una carencia de conocimiento y raciocinio. Necesitamos sistemas que
manifiesten una elevada comprensión del mundo, lo que conlleva centrarnos en
cómo se representa, adquiere y razona el conocimiento abstracto.
Esta tercera vía de innovación
está siendo explorada por IBM a través de lo que denomina inteligencia
artificial neuro simbólica, un planteamiento experimental que combina el uso
de redes neuronales convolucionales dedicadas a la clasificación de imágenes
con la capacidad de establecer relaciones entre elementos simbólicos, como
secuencias de palabras, de forma que el sistema aprende de sus errores de una
forma mucho más rápida que mediante el entrenamiento clásico de una red
neuronal.
No hay comentarios:
Publicar un comentario
Comenta lo que quieras