martes, 21 de enero de 2025

Los retos y amenazas para la democracia de la inteligencia artificial



Mientras escribo estas líneas está teniendo lugar el acto de investidura de Donald Trump en Washington. Como ya hemos podido comprobar, va a iniciar su segundo mandato con la adhesión absoluta de todos los grandes señores digitales, es decir, los dueños de las grandes plataformas tecnológicas que, para bien o para mal, se han convertido en elementos esenciales en nuestras vidas. Al indiscutible protagonismo que va a tener Elon Musk (Tesla, SpaceX y X, anteriormente conocida como Twitter) en el nuevo gobierno, se le suman los apoyos de gente como Sundar Pichai (Google), Jeff Bezos (Amazon), Sam Altman (OpenAI) o Mark Zuckerberg, quien como un gesto para congraciarse con el nuevo presidente ha suprimido en Facebook su sistema de verificación de datos por terceros, sustituyéndolo por notas de la comunidad como en la red X (por lo menos en Estados Unidos). Se ha extendido un miedo generalizado a que a partir de ahora estas grandes empresas tengan todavía más capacidad de control sobre las personas de la que han tenido hasta ahora, y más libertad para hacer lo que les venga en gana sin responder ante nadie.


Existe consenso sobre el hecho de que la digitalización, y en especial la inteligencia artificial, van a modelar el futuro de la humanidad y a transformar la idea de democracia que hemos tenido hasta ahora. Esto es algo que analiza un reciente informe de UNESCO que, dirigido por el filósofo Daniel Innerarity, ha estudiado cómo la digitalización reforma los procesos colectivos de toma de decisiones e influye en la acción ciudadana (Artificial intelligence and democracy).


El trabajo plantea que la proliferación a través de medios digitales de la  desinformación, los bulos y los discursos de odio está dañando profundamente la esfera pública, que constituye un elemento esencial para garantizar la buena salud de las democracias. Y ésta reside en una ciudadanía bien informada y progresa con el diálogo activo que busque espacios de encuentro entre los puntos de vista divergentes. Sin embargo, la utilización de algoritmos que generan y difunden la información a través de plataformas digitales, tanto con fines comerciales como ideológicos, contribuye a generar discursos de odio y desinformación que lo que consiguen es aislar al ciudadano en cámaras estancas de opinión, donde no tiene acceso a otras perspectivas de la realidad, y en las que no existe un espacio para el intercambio de ideas distintas, impidiendo el desarrollo del pensamiento crítico. En este sentido, un reciente artículo publicado en El País hablaba de un estudio que demuestra que la gente mayor elige la información dudosa, no por falta de habilidades digitales, sino porque confirma su ideología. De alguna forma, todos inconscientemente nos inclinamos a aislarnos con las noticias de opinión que refuerzan nuestros principios y puntos de vista.


A diferencia de lo que comúnmente se piensa, la tecnología no es neutral y refleja los valores de sus desarrolladores. Así, la inteligencia artificial tiene un inmenso potencial para impulsar la transparencia en las instituciones públicas y para garantizar un amplio espectro de participación ciudadana que enriquezca el proceso democrático, pero también puede ser concebida para propósitos maliciosos, como la manipulación de la opinión pública. Ya desde la década pasada hemos podido comprobar su capacidad para dirigir mensajes individualizados a colectivos específicos e incluso a ciudadanos concretos, y ya estamos familiarizados con la publicidad dirigida -esos anuncios que nos aparecen recurrentemente tras haber realizado una búsqueda online de un producto o servicio-, y también hemos podido comprobar cómo estos algoritmos pueden ayudar a manipular la opinión del público, como ocurrió en el escándalo de Cambridge Analytica.


Vivimos en la economía del dato, pero el dato no es políticamente neutral, pues su recolección y análisis se basan en decisiones específicas. A medida que las decisiones políticas reposen más en el big data, más relevante resulta monitorizar con precisión las posibles razones ocultas que guían la selección de datos o los  sesgos que manifiesta, pues pueden generar sesgos en la forma en que los algoritmos de inteligencia artificial ejecutan sus dictámenes. El tipo de información disponible establece los problemas que debe enfrentar un gobierno y el modo de hacerlo. Unos datos sesgados intencionadamente pueden condicionar el funcionamiento de la Administración. Como nos recuerda Innerarity en el informe, en gran medida la gobernanza se está convirtiendo en algorítmica, y cada vez lo será más, de forma que la inteligencia artificial progresivamente automatiza una mayor proporción de la toma de decisiones gubernamental. La gobernanza algorítmica presenta no pocos retos para el sistema democrático, principalmente la identificación de aquellas cuestiones susceptibles de ser automatizadas sin comprometer los valores democráticos, y las condiciones para garantizar esa compatibilidad. 



miércoles, 8 de enero de 2025

Los Reyes Magos también pueden traer ciberamenazas

 


A buen seguro que Sus Majestades de Oriente habrán dejado no pocos juguetes tecnológicos en los hogares españoles. Los que crecimos en la era de Scalextric, Ibertren, Exin Castillos y Madelman jamás podríamos haber imaginado ni de lejos el nivel de sofisticación que han alcanzado los juguetes en la actualidad. Y es que, al igual que todos los ámbitos sociales, también han experimentado la transformación digital. De la misma forma que los juguetes tradicionales tienen que cumplir unos estándares de calidad y seguridad en su diseño y funcionamiento que eviten cualquier perjuicio derivado de su uso, los juguetes conectados o inteligentes deben garantizar la protección ante las ciberamenazas que acechan en la red.


Estamos hablando de una nueva generación de juguetes interactivos que incorporan elementos como la conexión a internet, la posibilidad de compartir información con otros dispositivos, la capacidad de interactuar con sensores o que llevan incorporados cámaras de vídeo y micrófonos. Todo ello implica que deben cumplir unos estándares de ciberseguridad que protejan a los más pequeños de todos los peligros derivados de la delincuencia en internet. En este sentido, Incibe (Instituto Nacional de Ciberseguridad) publicó a finales del año pasado un estudio evaluando el grado de ciberseguridad de los juguetes conectados de la campaña de Navidad 2024. El informe analizó las características de veintiséis juguetes inteligentes con capacidad de manejar datos del usuario, grabar vídeo o audio, conexión Bluetooth o wifi o aplicación móvil para el manejo del dispositivo, estableciendo sus puntos fuertes y aspectos de mejora, y realizando recomendaciones para fabricantes y consumidores.


Las conclusiones del trabajo arrojan que más de la mitad de los dispositivos analizados obtienen resultados mayoritariamente favorables en las pruebas realizadas, y, sin embargo, hay seis que obtienen resultados ampliamente desfavorables, es decir, que no cumplen con los requisitos mínimos de ciberseguridad y que podrían convertirse en puntos de entrada para ciberataques. Entre las debilidades detectadas se identifican problemas como la falta de cifrado para datos sensibles (la información del usuario está insuficientemente protegida y expuesta al robo), la existencia de servicios innecesarios habilitados sin una justificación funcional, el uso de tecnologías obsoletas o inseguras (algo que deja a los dispositivos vulnerables frente a ataques bien documentados), la falta de medidas para restringir el acceso ilegítimo y, finalmente, la inadecuación frente a estándares modernos y futuras leyes y normas.


Si entramos en detalle, los aspectos más favorables que ofrecen estos juguetes en términos de ciberseguridad son las interfaces físicas y aéreas, que garantizan una sólida protección frente a accesos no autorizados a conexiones físicas o inalámbricas (el 91% de los dispositivos analizados lo cumple) y el alto nivel de seguridad en las aplicaciones móviles asociadas (casi el 82% de los juguetes).


En un segundo grupo intermedio encontramos temas como el análisis de vulnerabilidades, la seguridad de las comunicaciones y los mecanismos de actualización. En el primer caso, casi un 70% de los juguetes presenta una estructura razonablemente resistente a vulnerabilidades conocidas y la minimización de puertos y servicios innecesarios expuestos. Por otro lado, el 53% incorpora en su diseño medidas de seguridad en las comunicaciones y recolección de datos suficientes. Finalmente, tan solo el 41% de los dispositivos tiene mecanismos de actualización del firmware adecuados. El firmware es un tipo de software incorporado a cualquier tipo de dispositivo, ya sean unos auriculares inalámbricos, una cámara o un teléfono móvil, que se encarga de controlar las funciones del hardware.


Parece ser que el firmware es una de las principales debilidades de estos juguetes conectados, pues el informe establece que más del 80% de los analizados presenta graves riesgos relacionados con su integridad y seguridad. El otro punto flaco son los métodos de autenticación, es decir, la falta de robustez de los sistemas que verifican la identidad de usuarios. Solamente la quinta parte de los dispositivos han dado resultados favorables en esta prueba.


¿Tendrán los progenitores que convertirse en expertos en ciberseguridad para proteger a sus hijos mientras juegan despreocupadamente con sus flamantes regalos de Reyes? Probablemente no hará falta, si bien el trabajo de Incibe ofrece una lista muy interesante de recomendaciones para usuarios y familias que todos deberíamos tener muy en cuenta para evitar males procedentes de las redes.


 
Google Analytics Alternative