lunes, 8 de enero de 2024

Necesitamos que la inteligencia artificial comprenda el mundo

 


El éxito reciente del chatbot ChatGPT ha puesto en el centro del debate público la inteligencia artificial, una tecnología que ha conocido un avance considerable a lo largo de la década pasada de forma que ya está presente en numerosos aspectos de nuestras vidas. Aunque ya tratamos con sistemas inteligentes de forma cotidiana, muchas veces sin darnos cuenta (por ejemplo, cuando las plataformas nos recomiendan contenidos audiovisuales personalizados o cuando utilizamos el texto predictivo al escribir un mensaje en el móvil), el producto de la empresa Open.AI nos ha enfrentado a un nuevo fenómeno asaz vistoso, como es contemplar la capacidad creativa de las maquinas.

Este tipo de inteligencia artificial se denomina “generativa”, pues da lugar a algún tipo de creación, ya sea un texto, una imagen o sonido. A pesar de lo novedoso que parecen estas habilidades, ya existe una larga tradición de algoritmos que escriben novelas o poesía, o que pintan cuadros o diseñan imágenes. Es probable que la popularidad que han cosechado los llamados Large Language Models (LLM) -como ChatGPT, Turing NLG de Microsoft, Bard de Google o Gopher de Deep Mind- resida en que han abandonado el ámbito de los expertos y están en la mayoría de los casos en manos de la gente. De esta forma, todo el mundo ha podido probar en primera persona cómo funcionan estos chatbots y las posibilidades que ofrecen.

Ahora bien, a pesar de lo espectacular de los resultados que ofrecen, existen voces que señalan las limitaciones de esta rama de la inteligencia artificial, y lo lejos que está de emular las funciones del cerebro humano. El pasado agosto, el físico Michio Kaku denunciaba el sensacionalismo que se ha generado en torno a estos robots conversacionales, que, a su juicio, no hacen más que seleccionar y ordenar contenidos de internet, sin saber discernir la verdad de la ficción, ni distinguir los datos reales de la desinformación. Básicamente, los LLM no serían más que versiones avanzadas de los buscadores de la web, como Google, que han estado funcionando durante los últimos veinte años.

Uno de los mayores críticos de la inteligencia artificial actual es sin duda el profesor y empresario Gary Marcus, quien considera que la rama más utilizada hoy en día, el aprendizaje automático y las redes neuronales -responsables de los avances producidos en los últimos veinte años-, presenta carencias relativas al razonamiento, no resulta fiable y se aleja de la forma de pensar que tenemos los humanos. A su juicio, las carencias que presenta el aprendizaje profundo de las redes neuronales podrían ser salvadas gracias a la denominada inteligencia artificial simbólica, una aproximación clásica a esta tecnología que hoy en día ha sido desplazada a un segundo plano.

La inteligencia artificial simbólica se centra en la manipulación y el procesado de símbolos y conceptos en vez de grandes cantidades de datos numéricos, como hace el aprendizaje automático. Este tipo de algoritmos funciona manejando símbolos que representan objetos o ideas del mundo y sus relaciones. La principal aproximación de esta rama es el uso de programación basada en la lógica, en la que las normas y los axiomas son utilizados para realizar inferencias y deducciones.

Mientras que la inteligencia artificial simbólica es más adecuada para trabajar en entornos de conocimiento bien definido y estructurado, el aprendizaje automático es más útil cuando existen grandes volúmenes de datos y patrones complejos.

La tesis que defiende Gary Marcus es que la inteligencia artificial actual basada en el aprendizaje automático y el aprendizaje profundo solamente podrá seguir evolucionando si se combina con el enfoque simbólico, en la forma de una inteligencia artificial “híbrida”. De no ser así, predice que se podría producir otro “invierno de la inteligencia artificial”, es decir, un estancamiento y un desencanto generalizado en torno a esta tecnología, como el que tuvo lugar a partir de los años 70 del siglo pasado.

Para Gary Marcus el futuro de la inteligencia artificial no puede basarse en modelos basados en un exceso de datos y en una carencia de conocimiento y raciocinio. Necesitamos sistemas que manifiesten una elevada comprensión del mundo, lo que conlleva centrarnos en cómo se representa, adquiere y razona el conocimiento abstracto.

Esta tercera vía de innovación está siendo explorada por IBM a través de lo que denomina inteligencia artificial neuro simbólica, un planteamiento experimental que combina el uso de redes neuronales convolucionales dedicadas a la clasificación de imágenes con la capacidad de establecer relaciones entre elementos simbólicos, como secuencias de palabras, de forma que el sistema aprende de sus errores de una forma mucho más rápida que mediante el entrenamiento clásico de una red neuronal.

 

 

No hay comentarios:

Publicar un comentario

Comenta lo que quieras

 
Google Analytics Alternative