lunes, 23 de enero de 2023

Web3, un internet descentralizado sobre cadenas de bloques

 


La web del futuro próximo ya no funcionará sobre plataformas digitales de servicios, sino sobre la tecnología blockchain, una base que garantizará las relaciones directas sin intermediación entre los usuarios de la red, y traerá condigo la llegada de un internet más democrático, a juicio de los expertos.

Sir Tim Berners-Lee inventó la World Wide Web que hoy todos conocemos y usamos hacia 1989, mientras estaba empleado en el CERN, la Organizacion Europea para la Investigacion Nuclear. Él solamente buscaba una solución operativa a las limitaciones que encontraba el intercambio de información entre las distintas áreas de su organización y, por aquel entonces, no podía ni imaginar que su idea iba a diseñar la forma que ha tenido internet en los últimos treinta años. La filosofía de la web parecía destinada a cumplir la utopía de darle una voz a cada habitante del planeta gracias a su estructura descentralizada y aparentemente democrática.

Un nuevo giro de guion ocurre entre 2008 y 2010, cuando comienza a hablarse de la web social o web 2.0, una evolución de internet basada en los medios sociales, que convertía a los usuarios en prosumers, es decir, consumidores y a la vez productores de información y de contenidos digitales, pues la simplificación de las herramientas -especialmente blogs y redes sociales- permitían que todo el mundo pudiese publicar y crear sin conocimientos avanzados de ningún tipo. Sin embargo, a la hora de la verdad, la experiencia de la web se ha acabado concentrando a través de unas pocas empresas, que en su mayor parte trafican con los datos personales de las personas exprimiéndolos en su beneficio y en el de sus clientes.

En los últimos tiempos hablamos de que la Web3 va a transformar el marco de relaciones de la red, eliminado el papel de las plataformas, los servidores y la centralización de autorizaciones en la gestión de la información que circula por internet y de los flujos de valor que se generan entre los distintos agentes. Y vuelve el viejo anhelo de navegar por un internet más libre y participativo, en el que todas las personas tengan un protagonismo específico y en el que sus manifestaciones digitales no constituyan materia prima para alimentar algoritmos para la manipulación comercial o ideológica.

El padre de la criptomoneda Ether Gavin Wood, acuñó el término Web3 en 2014, y resume su esencia en una frase sintética: “menor confianza, mayor verdad”. Para él, la confianza constituye básicamente fe, la creencia ciega de que el mundo va a funcionar, pero sin una evidencia real o un argumento racional que lo justifiquen. En sus propias palabras: “la confianza implica que estás depositando algún tipo de autoridad en otra persona, o en alguna organización, y ellos pueden hacer uso de esta autoridad de una forma arbitraria”. Y concluye: “queremos más verdad- a lo que realmente me refiero es a una razón de más peso para creer que nuestras expectativas se cumplirán”. Y la tecnología de las cadenas de bloques aporta la verdad que demanda Wood.

El planteamiento de partida de la Web3 es que los usuarios, a diferencia de lo que ocurre en la actualidad, son los dueños de sus datos personales, tanto los que definen su identidad, como de los que generan a través de las interacciones de las redes, y todos ellos quedarán protegidos en wallets o monederos digitales personales y anónimos. De esta forma, tanto nuestra información personal -de la que ahora se benefician empresas como Facebook o Google-, como otros activos digitales de nuestra propiedad, representados por tokens, están registrados y protegidos en bloques de blockchain. Cualquier operación que hagamos con los mismos quedará igualmente registrada y protegida por la cadena de bloques de posibles alteraciones o manipulaciones. Estamos, por tanto, ante el surgimiento de nuevos esquemas de relaciones sociales y de negocios en las redes.

 

 

lunes, 16 de enero de 2023

Los riesgos de utilizar la inteligencia artificial en la sanidad

 


El dato se ha convertido en el combustible de la economía digital. El cuidado de la salud no es una excepción, y la recolección, el análisis y el uso de datos sanitarios -desde los análisis clínicos, hasta los historiales médicos- es la base de la práctica de la medicina y de la investigación en este campo. La progresiva digitalización del sector ha hecho que durante las últimas dos décadas haya aumentado exponencialmente el tipo de datos utilizados por los servicios de salud, incluyendo ahora información personal sobre los individuos procedente de diversas fuentes a veces no directamente relacionadas con la salud, como, por ejemplo, datos sobre el entorno del paciente, sobre su estilo de vida, socioeconómicos o comportamentales.

Qué duda cabe que el potencial de los macrodatos y la inteligencia artificial aplicados al cuidado sanitario es inmenso, tanto en términos de la velocidad y precisión a la hora de realizar diagnósticos, como en la mejora de la calidad del servicio prestado o el apoyo a la toma de decisiones. Sin embargo, este uso de información personal puede acarrear problemas éticos, que es necesario poder identificar y controlar mediante una legislación adecuada, que proteja los derechos de la ciudadanía.

Uno de los principales riesgos que conlleva la utilización de grandes colecciones de datos es la posibilidad de vulnerar el derecho a la privacidad de los individuos. El compartir datos o transferir datos personales cedidos por los pacientes -o generados dentro de un proceso sanitario-, puede llevar a que la información recabada sea utilizada para discriminar o para cometer injusticias, e incluso, si caen en malas manos, pueden utilizarse para cometer actos delictivos. En este sentido, resulta fundamental establecer protocolos y normas estrictas sobre quién puede acceder a los datos personales y bajo qué circunstancias a lo largo de todo el ciclo de vida de la inteligencia artificial.

La Organización Mundial de la Salud (OMS) alerta del peligro adicional de que las instituciones encargadas de prestar los servicios de salud recojan más datos de carácter personal que los que requiere el algoritmo para funcionar, y que ese “superávit de datos”, sea compartido con terceros, por ejemplo, agencias gubernamentales, para llevar a cabo acciones que puedan vulnerar los derechos humanos, como pueden ser la vigilancia y el control de la población, o la aplicación de castigos individuales. La OMS pone de ejemplo de esto la aplicación para rastrear contactos de COVID-19 que puso en marcha el Gobierno de Singapur, cuyos datos podían ser accedidos en el marco de una investigación criminal.

Otro de los grandes problemas que presenta el uso de big data en la inteligencia artificial es la posible aparición de sesgos no deseados en los resultados que ofrecen los algoritmos, algo que puede originarse por la mala calidad de la información utilizada. Un estudio llevado a cabo por Marzyeh Ghassemi en el MIT ha descubierto que los datos utilizados en medicina siempre llevan algún tipo de sesgo de sexo, género o raza, tanto los que proceden de dispositivos clínicos, los asociados a las intervenciones, como los que tienen su origen en las interacciones entre pacientes y personal sanitario. Al alimentar con estos datos el machine learning, las conclusiones a las que llegan los algoritmos reproducen esos sesgos. En la práctica el estudio ha desvelado que los modelos de inteligencia artificial sanitarios analizados funcionan de forma diferente en función del tipo de paciente, y ofrecen resultados sesgados en función del género y la raza.

Resulta primordial que un algoritmo relacionado con el cuidado de la salud resulte lo suficientemente comprensible, transparente y explicable para el personal sanitario que debe trabajar con él, que son aquellos que deben estar al tanto de los datos y variables que ha utilizado el sistema para elaborar su resultado. El problema es que a menudo un sistema de machine learning puede ser difícil de comprender por sus usuarios, y difícil de explicar por los técnicos que lo han creado. En este sentido, según apunta un informe de DigitalES, se ha comprobado que el personal sanitario prefiere sacrificar un poco de precisión con tal de que el sistema sea más entendible.

Por otro lado, la inteligencia artificial debe ser robusta, es decir, tiene que tener una solidez técnica y haber sido desarrollada con un enfoque preventivo de riesgos, de forma que se comporte siempre como se espera que lo haga, minimizando los daños involuntarios e imprevistos.

Y, en última instancia, en la aplicación de algoritmos inteligentes en la prestación sanitaria siempre debe regir la supervisión humana.

 

 

 
Google Analytics Alternative