lunes, 17 de febrero de 2020

Inteligencia artificial contra las fake news


El término fake news ha saltado a primera plana en los últimos años a raíz de la manipulación de la opinión pública y del voto en las elecciones de Estados Unidos de 2016, y también en el referéndum del Brexit celebrado en el Reino Unido. El escándalo protagonizado por la empresa Cambridge Analytica, que hizo un uso fraudulento de los datos personales de millones de usuarios de Facebook, volvió a avivar su protagonismo el pasado año.

No obstante, no todos aprueban el uso de la denominación de noticias falsas para referirse al fenómeno y hay quien lo considera muy restrictivo e insuficientemente descriptivo del problema de fondo. Es el caso de la Comisión Europa, que prefiere hablar de desinformación.

En concreto, define la desinformación como “información falsa, inexacta o engañosa, diseñada, presentada o promovida para causar intencionadamente un daño público o para obtener un beneficio”. Para la Comisión, la expresión fake news no es adecuada, porque no abarca la complejidad del problema.

De hecho, a menudo se trata de contenido que no es falso, o que no es completamente falso, pero que es información fabricada, mezclada con hechos y prácticas que poco tienen que ver con el concepto de noticia, como pueden ser cuentas automáticas en redes sociales utilizadas para hacer astroturfing (disfrazar las acciones de una entidad política o comercial como la reacción pública espontánea), el uso de redes de seguidores falsos, los vídeos manipulados, la publicidad dirigida, los trolls organizados o los memes visuales. En resumen, se trata de todo un abanico de prácticas para manipular la opinión pública en internet, que van más allá de lanzar una noticia falsa.

Paradójicamente, las noticias falsas o fake news se viralizan en las redes sociales mucho más rápidamente que la información veraz y contrastada. Es algo que ha podido demostrar un reciente estudio de MIT Initiative on the Digital Economy, que analizó, entre 2006 y 2017, en torno a 126.000 hilos de noticias en Twitter, tuiteados más de 4,5 millones de veces por unos 3 millones de personas.

Los resultados fueron desalentadores. En palabras de los autores, la verdad tarda aproximadamente seis veces más que la mentira en alcanzar a 1.500 personas. En suma, los contenidos falsos se difunden significativamente más lejos, más rápido y más profundamente en los hilos y cascadas de conversaciones, que los verdaderos.

Entre todas las categorías de bulos, los relacionados con la política son los que alcanzan mayor difusión, por encima de los relacionados con el terrorismo, los desastres naturales, la ciencia, la información financiera o las leyendas urbanas.

El hecho de que las fake news presentan una probabilidad de ser retuiteadas un 70% superior puede tener que ver, según el estudio, a que se perciben como más novedosas que las reales. La gente tiende a difundir la novedad en mayor medida que lo ya conocido.

Finalmente, y en contra de lo que se piensa, el análisis realizado demostró que los bots, los perfiles automáticos de Twitter, aceleran las noticias falsas y verdaderas en la misma proporción, lo que implica que somos los humanos -y solo nosotros- los únicos responsables de la proliferación de las fake news.

La caza de noticias falsas es una tarea ardua y compleja. El inmenso caudal de información que llega a los portales agregadores de contenidos y que circula por las redes sociales hace muy difícil que los editores humanos puedan verificar rápidamente una determinada noticia, especialmente cuando se trata de una historia nueva. Ocurre con frecuencia que, cuando se consigue demostrar que una noticia es falsa, el daño que produce ya ha tenido lugar.

Las máquinas pueden aportar rapidez y eficiencia a la tarea de cazar bulos. En concreto, nos pueden superar en el análisis de los atributos cuantificables de la noticia, como la estructura gramática, la elección de palabras, la puntuación y la complejidad del texto. No obstante, el verdadero desafío para construir un buen detector de fake news no es tanto el diseño del algoritmo, sino encontrar los datos adecuados para alimentarlo y entrenarlo en suficiente cantidad. Pero los bulos aparecen y desaparecen con rapidez, y resulta complicado recopilarlos para podérselos mostrar a las máquinas.

Un equipo de investigación de la Universidad de Michigan ha creado un algoritmo cazador de noticias falsas que ha demostrado hacerlo mejor que los humanos: ha conseguido identificar fake news con un 76% de éxito, frente al 70% de los cazadores humanos.

Otro ejemplo de detección de noticias falsas a través de la inteligencia artificial es el sistema basado en aprendizaje profundo que ha desarrollado la startup británica Fabula. En este caso, la identificación del bulo no se produce a través del análisis del texto, sino estudiando cómo se comparten las historias, para reconocer patrones de difusión que únicamente pueden corresponder a fake news.

Por último, el MIT’s Computer Science and Artificial Intelligence Lab (CSAIL), en colaboración con el Qatar Computing Research Institute (QCRI), ha realizado una tercera aproximación a este tema, en este caso centrando la atención en las fuentes de las noticias. El sistema que han desarrollado utiliza el aprendizaje automático (machine learning) para determinar la exactitud de una fuente de información e identificar si está políticamente sesgada.

La tesis que subyace en esta experiencia es que, si una web ha publicado fake news en el pasado, es muy probable que lo vuelva a hacer. De esta forma, el algoritmo recopila datos de estos sitios sospechosos y los modeliza, para poder identificar con este patrón a otras páginas que vayan a publicar bulos por primera vez. Este rastreador solamente necesita analizar unos 150 artículos para poder determinar con fiabilidad si una fuente de información es o no de confianza.



Photo by Bruno Moretti from Pexels

No hay comentarios:

Publicar un comentario

Comenta lo que quieras

 
Google Analytics Alternative