El dato se ha convertido en el
combustible de la economía digital. El cuidado de la salud no es una excepción,
y la recolección, el análisis y el uso de datos sanitarios -desde los análisis
clínicos, hasta los historiales médicos- es la base de la práctica de la
medicina y de la investigación en este campo. La progresiva digitalización del
sector ha hecho que durante las últimas dos décadas haya aumentado
exponencialmente el tipo de datos utilizados por los servicios de salud,
incluyendo ahora información personal sobre los individuos procedente de
diversas fuentes a veces no directamente relacionadas con la salud, como, por
ejemplo, datos sobre el entorno del paciente, sobre su estilo de vida,
socioeconómicos o comportamentales.
Qué duda cabe que el potencial de
los macrodatos y la inteligencia artificial aplicados al cuidado sanitario es
inmenso, tanto en términos de la velocidad y precisión a la hora de realizar
diagnósticos, como en la mejora de la calidad del servicio prestado o el apoyo
a la toma de decisiones. Sin embargo, este uso de información personal puede
acarrear problemas éticos, que es necesario poder identificar y controlar
mediante una legislación adecuada, que proteja los derechos de la ciudadanía.
Uno de los principales riesgos
que conlleva la utilización de grandes colecciones de datos es la posibilidad
de vulnerar el derecho a la privacidad de los individuos. El compartir datos o
transferir datos personales cedidos por los pacientes -o generados dentro de un
proceso sanitario-, puede llevar a que la información recabada sea utilizada
para discriminar o para cometer injusticias, e incluso, si caen en malas manos,
pueden utilizarse para cometer actos delictivos. En este sentido, resulta
fundamental establecer protocolos y normas estrictas sobre quién puede acceder
a los datos personales y bajo qué circunstancias a lo largo de todo el ciclo de
vida de la inteligencia artificial.
La Organización Mundial de la
Salud (OMS) alerta del peligro adicional de que las instituciones encargadas de
prestar los servicios de salud recojan más datos de carácter personal que los
que requiere el algoritmo para funcionar, y que ese “superávit de datos”, sea
compartido con terceros, por ejemplo, agencias gubernamentales, para llevar a
cabo acciones que puedan vulnerar los derechos humanos, como pueden ser la
vigilancia y el control de la población, o la aplicación de castigos
individuales. La OMS pone de ejemplo de esto la aplicación para rastrear
contactos de COVID-19 que puso en marcha el Gobierno de Singapur, cuyos datos
podían ser accedidos en el marco de una investigación criminal.
Otro de los grandes problemas que
presenta el uso de big data en la inteligencia artificial es
la posible aparición de sesgos no deseados en los resultados que ofrecen los
algoritmos, algo que puede originarse por la mala calidad de la información
utilizada. Un estudio llevado a cabo por Marzyeh Ghassemi en el MIT ha
descubierto que los datos utilizados en medicina siempre llevan algún tipo de
sesgo de sexo, género o raza, tanto los que proceden de dispositivos clínicos,
los asociados a las intervenciones, como los que tienen su origen en las
interacciones entre pacientes y personal sanitario. Al alimentar con estos
datos el machine learning, las conclusiones a las que llegan los
algoritmos reproducen esos sesgos. En la práctica el estudio ha desvelado que
los modelos de inteligencia artificial sanitarios analizados funcionan de forma
diferente en función del tipo de paciente, y ofrecen resultados sesgados en
función del género y la raza.
Resulta primordial que un
algoritmo relacionado con el cuidado de la salud resulte lo suficientemente
comprensible, transparente y explicable para el personal sanitario que debe
trabajar con él, que son aquellos que deben estar al tanto de los datos y
variables que ha utilizado el sistema para elaborar su resultado. El problema
es que a menudo un sistema de machine learning puede ser
difícil de comprender por sus usuarios, y difícil de explicar por los técnicos
que lo han creado. En este sentido, según apunta un informe de DigitalES, se ha
comprobado que el personal sanitario prefiere sacrificar un poco de precisión
con tal de que el sistema sea más entendible.
Por otro lado, la inteligencia
artificial debe ser robusta, es decir, tiene que tener una solidez técnica y
haber sido desarrollada con un enfoque preventivo de riesgos, de forma que se
comporte siempre como se espera que lo haga, minimizando los daños
involuntarios e imprevistos.
Y, en última instancia, en la
aplicación de algoritmos inteligentes en la prestación sanitaria siempre debe
regir la supervisión humana.
No hay comentarios:
Publicar un comentario
Comenta lo que quieras