miércoles, 12 de junio de 2019

Las versiones digitales de nosotros mismos



Los gemelos digitales o digital twins son versiones virtuales de objetos o procesos que, alimentándose de big data y haciendo uso del internet de las cosas (IoT), permiten conocer y comprender el funcionamiento y el comportamiento de algo físico a través de su modelo informático equivalente. La llegada del internet de las cosas ha permitido que los gemelos digitales puedan recolectar datos procedentes del objeto físico de manera continua a lo largo de todo su ciclo de vida.

A modo de ejemplo, el gemelo digital de un prototipo de automóvil debe reproducir cada parte del vehículo en 3D y replicar el mundo físico en el que circula de una forma tan precisa que un conductor de la réplica virtual recibe las mismas respuestas que si pilotase el modelo real. Los procesos también pueden tener gemelos, por ejemplo, una cadena de producción puede ser simulada y operada como si fuese su contraparte física.

Aplicando la misma filosofía a la medicina, surge la idea de las versiones digitales de las personas, o modelos digitales que reproducen la composición de nuestro organismo, y que ayudarán a predecir y evitar enfermedades.

Ya es de por sí un concepto vanguardista el crear copias digitales de las cosas, pero lo realmente disruptivo es poder hacer lo mismo con las personas. ¿Podremos tener algún día una copia digital exacta de nuestro organismo alimentada por millones de datos, históricos y recibidos en tiempo real, procedentes de nuestro “yo físico”? Hay quien piensa que algún día será posible.

Sin duda, estas personas virtuales serán uno de los grandes avances de la tecnología médica de los próximos tiempos. Se tratará de sistemas que permitirán al personal médico realmente llegar a conocer al paciente, al disponer de información completa y en tiempo real sobre su condición física, su nivel de respuesta a los tratamientos, el ecosistema en el que se desenvuelve, la reacción ante los medicamentos e incluso sobre sus valores y objetivos vitales.

El gemelo virtual de un ser humano nos puede aportar información instantánea sobre cómo afectan a su salud cambios en el entorno (por ejemplo, una nueva residencia u ocupación), en el estilo de vida (como puede ser una dieta alimenticia distinta) o en las costumbres (empezar a practicar un deporte podría ser un caso). 

También nos permitirá establecer correlaciones entre los distintos episodios clínicos que experimenta el paciente (por ejemplo, entre una subida de la tensión arterial y la ingestión de un medicamento). Y, por supuesto, sería una herramienta para óptima para poder evaluar el resultado de un tratamiento día a día. Todos los cambios y la evolución del organismo físico quedarían reflejados en el virtual.

La creación de réplicas virtuales cada vez más perfectas de humanos depende en gran medida de lo profundo que sea nuestro conocimiento del cuerpo humano. Y existen aspectos, como el cerebro, que todavía albergan muchas incógnitas para la ciencia médica.

No obstante, poco a poco van surgiendo experiencias en torno a la recreación digital de partes del organismo. La empresa Dassault tiene en marcha el proyecto Living Heart, que se basa en construir modelos del corazón en 3D para monitorizar la circulación sanguínea y probar de forma virtual fármacos en proceso de desarrollo, así como predecir posibles arritmias producidas por medicamentos, incluso en pacientes que viven en la otra parte del mundo.

El centro de investigación DZNE y Hewlett Packard están utilizando la arquitectura computacional MDC (Memory-Driven Computing) para analizar a una población de 30.000 personas mayores de 30 años, en busca de las causas del Alzheimer. El objeto es analizar millones de datos para poder determinar qué biomarcadores indican la probabilidad de que una persona joven desarrolle enfermedades neurológicas más adelante en su vida.

Y otro ejemplo más: el proyecto EPFL Blue Brain utiliza un supercomputador para reconstruir digitalmente el cerebro de un mamífero, de cara a comprender mejor su funcionamiento, realizando para ello simulaciones con el sistema.

La enorme complejidad del organismo humano puede limitar la creación de réplicas exactas de nuestros cuerpos, pero, en cualquier caso, es muy probable que esta tecnología nos depare grandes sorpresas en el campo de la ciencia médica a medio plazo.

lunes, 3 de junio de 2019

La edad de oro de la televisión



En menos de treinta años nuestro país ha pasado de tener una oferta televisiva basada en exclusiva en dos canales públicos, a gozar de un complejo y variado ecosistema audiovisual poblado de numerosos agentes y de no menos soportes distintos para hacer llegar contenidos hasta el espectador.

Los cambios en el mercado y la rápida evolución tecnológica que ha conocido el sector han tenido consecuencias sociológicas importantes, de forma que, frente al televisor del siglo XX que aglutinaba a toda la familia en la sala de estar de la casa para ver la programación lineal generalista, el consumo televisivo actual ha sido erradicado del dispositivo que le daba nombre y tiene lugar en cualquier aparato digital de los que nos rodean, ya sea el ordenador, la tableta, la consola de videojuegos o el teléfono inteligente.

Además, ver la televisión o -en términos más genéricos- consumir contenidos audiovisuales, se ha convertido en una actividad ubicua, dado que la podemos llevar a cabo en cualquier lugar y en cualquier momento, siempre que dispongamos de acceso a las redes de telecomunicaciones.

El espectador español ha visto cómo en los últimos años se multiplicaba y enriquecía la disponibilidad de contenidos a los que podía acceder y la cantidad de plataformas que los suministran. Casi se puede hablar de una edad de oro de la televisión, en la que las transformaciones se suceden a una velocidad vertiginosa.

Los grupos de televisión tradicionales han tenido que hacer hueco en el sector a nuevos participantes, en principio con modelos de negocio completamente ajenos, como las operadoras de telecomunicaciones -Telefónica, Vodafone y Orange- o las empresas de internet, como Netflix o Amazon.

A pesar de que el mercado de la televisión español no es tan maduro como el de países como Estados Unidos, muchas de las tendencias expuestas anteriormente ya están presentes en nuestro país. Y, sin duda, la principal es el crecimiento espectacular de los abonados a la televisión de pago.

A finales del año pasado había en España más de seis millones y medio de abonados a la televisión de pago en sus distintas modalidades, según los datos publicados por la Comisión Nacional de los Mercados y la Competencia (CNMC), lo que supone un crecimiento de casi el 40% desde 2010. De hecho, los ingresos de la televisión de pago en España crecieron un 14% en 2017

De esos seis millones y medio, casi cuatro millones están abonados a televisión por internet. En mayo, una nota de prensa de la CNMC anunciaba que tres de cada diez hogares con internet ya consumen contenidos audiovisuales online de pago. El cambio de cultura que consiste en sustituir la televisión lineal en abierto por contenido de pago bajo demanda parece imparable.

En 2016 la oferta televisiva en nuestro país aumentó y se diversificó con la llegada de las plataformas extranjeras, primero Netflix y un poco después HBO. Les siguieron Amazon Prime Video y, en septiembre de 2017, Sky. Todas ellas entraron en competencia directa con las plataformas locales como Movistar+, Filmin y Wuaki (rebautizada como Rakuten TV).

Y, sin embargo, la feroz competencia que parecía venir ha dado paso a una serie de alianzas que, en cierta medida, han calmado las aguas del mercado. Telefónica llegó el año pasado a un acuerdo con Netflix para incorporar sus contenidos en las plataformas de vídeo y TV de la compañía en España y Latinoamérica, de forma que las tres grandes operadoras disponen ya de dicha oferta, pues Vodafone y Orange la tenían incorporada. 

En agosto 2018 saltó la noticia de que Telefónica también está en tratos con Amazon Prime para añadir Prime Video a sus paquetes convergentes (fijo, móvil y televisión), negociación que también estaría llevando a cabo Vodafone, que además de Netflix ya tiene también la oferta de las series de éxito de HBO. 

En suma, lo que inicialmente parecía una estrategia comercial de competir con el contenido propio de calidad parece haber evolucionado hacia el deseo de crear una oferta global que incorpore todas las series más sobresaliente del mercado, vengan de donde vengan. 

El modelo de negocio audiovisual a través de internet es simple y económico, pues evita tener que invertir en costosas licencias y permite centrarse en desarrollar un contenido audiovisual atractivo, como explica Mitch Lowe de Netflix: 

“La era de la televisión abierta durará quizá unas décadas más: el vídeo por Internet continuará expandiéndose y terminará por absorberla. Competir por una licencia televisiva es prohibitivo para la mayoría, pero para entrar en la red sólo tienes que tener un buen contenido y hacerlo accesible.” 

Quizá estemos entrando en una edad de oro de la televisión, en la que el espectador cada podrá acceder a un mayor número de contenidos de calidad, de una forma cada vez más personalizada y adaptada a sus necesidades y preferencias.

martes, 29 de enero de 2019

La empresa española frente al internet de las cosas

En los últimos años el internet de las cosas (IoT) ha conseguido arrancar un gran número de titulares en todo el mundo, para poner de manifiesto la capacidad transformadora de esta tecnología digital. Según la Consultora Gardner, el IoT llegará a superar los veinte mil millones de dispositivos conectados en 2020 y ya es un elemento presente en la estrategia de numerosas empresas.

El estudio IoT Enterprise Insight Survey: Europe de Ovum analiza las opiniones y posiciones de empresas europeas que están desplegando soluciones tecnológicas basadas en el internet de las cosas (IoT). Se trata de una parte de un trabajo más amplio que incluye hasta catorce países de varios continentes. El capítulo europeo ha recabado las opiniones de 399 compañías de Alemania, Reino Unido, Francia, Italia y España.

En concreto, se ha preguntado sobre las estrategias para abordar el IoT y los principales desafíos que se presentan, sobre la inversión necesaria y las métricas utilizadas, las aplicaciones instaladas, la conectividad y la selección de proveedores.

La razón principal de las empresas españolas (57 fueron consultadas) para instalar soluciones basadas en IoT es mejorar la experiencia del cliente, seguida de la reducción de costes y del aumento de la competitividad. Estos dos últimos factores son los que tienen más peso para las firmas francesas, italianas y británicas, mientras que las alemanas valoran más el mejorar los procesos de negocio.

Cuando se les pregunta sobre los mayores retos que supone el IoT, las empresas españolas, igual que las alemanas, señalan los temas relacionados con la seguridad de los datos y de las redes. Le siguen en importancia la preocupación por los costes esperados del despliegue a lo largo del tiempo y la duda sobre si se dispone de la habilidad necesaria para transformar los datos recogidos en valor comercial para la compañía. Por el contrario, en Francia e Italia se ve como el mayor obstáculo la complejidad que supone integrar las aplicaciones del Internet de las cosas con la infraestructura de informática y telecomunicaciones de la empresa.

De todos los indicadores clave de rendimiento (KPI), la empresa española utiliza especialmente aquellos que miden la productividad de los datos (en esto coincide con las alemanas, británicas y francesas) y en la misma proporción los que evalúan el nivel de satisfacción del cliente. Las italianas en cambio se centran en indicadores que reflejan las mejoras en el volumen de ventas.

Las principales aplicaciones de IoT que valoran las empresas en España son aquellas relacionadas con la automatización o la optimización de operaciones. Igual ocurre en Francia e Italia. En segundo lugar, se encuentran las que tienen por objetivo la gestión del cliente y de la experiencia de este y las destinadas a la gestión u optimización de la fuerza de trabajo. En Alemania, por el contrario, se concede más importancia a aplicaciones para llevar a cabo mantenimiento predictivo.

Al preguntar por las formas de conexión elegidas para llevar a cabo los proyectos de Internet de las cosas, todos los países muestran su preferencia por las tecnologías de conectividad de corto alcance, como bluetooth o wifi, seguidas de los accesos a través de redes fijas, excepto en Reino Unido donde el acceso celular M2M (2G, 3G o 4G) ocupa un segundo lugar en importancia.

De cara a buscar un proveedor de soluciones IoT, las empresas españolas valoran especialmente el grado de conectividad y el alcance de su red, el que exista una integración previa con el proveedor que tenga la compañía de servicios cloud y, finalmente, la compatibilidad del sistema con múltiples soluciones tecnológicas de IoT.

Finalmente, se pregunta a las empresas por las tareas que consideran que requieren mayor apoyo del Internet de las cosas. En España se destaca la logística y la implementación de proyectos, seguida en importancia por la ingeniería de proyectos o soluciones. Los resultados en este caso son muy parecidos en todos los países considerados.


martes, 22 de enero de 2019

La descentralización de la web: devolver el poder al cibernauta


Hubo un tiempo en que llegó a concebirse Internet como un espacio nivelador que devolvía en el mundo digital al ciudadano de a pie su voz individual, la que le había sido arrebatada por la complejidad organizativa e institucional de las sociedades modernas. Cualquiera podía colgar contenido en la web y opinar en igualdad de condiciones –o eso parecía-, y nuestras aportaciones podían llegar a cualquier cibernauta de cualquier parte del mundo.

La dificultad técnica para manejar herramientas de edición que podía encontrar un usuario con conocimientos de informática medios o bajos fue subsanada con la aparición de servicios como los chats y los foros, en los que cualquiera que supiese escribir podía expresarse sin necesidad de aprender nada e interactuar con otros, y más adelante con las plataformas más elementales de blogging, como Blogger o Tumblr, y especialmente, con las redes sociales más populares como Twitter, Facebook o Instagram.

En teoría, la vocecilla solitaria de cualquier usuario era amplificada exponencialmente gracias al alcance y capilaridad de las redes, pero en la práctica, aquel primer Internet no era tan accesible y fácil de navegar. La World Wide Web, que el CERN presentó en sociedad en abril de 1993, facilitaba sobremanera la navegación y pronto desplazó en gran medida a los sistemas anteriores de navegación y publicación de contenidos, como FTP, Gopher o WAIS, pero lo cierto es que era una web bastante caótica, con el contenido muy distribuido y disperso, y muy compleja de recorrer cómodamente para el usuario medio de tecnología.

A pesar de que la WWW tenía una estructura descentralizada basada en protocolos distribuidos, la red necesitaba servicios de sindicación e intermediación que facilitasen y simplificasen la navegación, ordenando y haciendo visibles los contenidos desperdigados por el ciberespacio. Surgen las plataformas de curación de contenidos, como los buscadores y webs de servicios de Internet (Yahoo, Webcrawler, AOL, Google, Terra…).

Esta forma de “ordenar” la web acaba desembocando en un Internet como el de hoy, con unos pocos puntos de acceso más fácil de recorrer y manejar, pero en el que el control está concentrado en unas pocas manos (Facebook, Twitter, Google…) que han acumulado un inmenso poder basado en los millones de usuarios que a diario demandan sus servicios (Facebook y Google concentran el 81% de todo el tráfico de noticias en EE.UU).

Estos actores suelen ser empresas guiadas por la rentabilidad a las que los navegantes hemos cedido acceso a nuestra privacidad (datos personales, fotos, gustos y preferencias…), información que ellas explotan comercialmente. Asimismo, han adquirido la potestad de decidir lo que debemos y no debemos ver, promoviendo unos contenidos y censurando otros, como ha denunciado el activista Eli Pariser, sumergiéndonos en una burbuja de contenidos filtrados que aleja cualquier principio de neutralidad de la red.

El inmenso desequilibrio de poder en el medio digital, que deja en manos de unos pocos agentes gigantes la posibilidad de manipular y controlar la opinión de millones de usuarios, ha despertado un debate en torno a la necesidad de “redescentralizar” la web, de devolverle la estructura en la que existía una teórica igualdad en el acceso y en la capacidad de expresión para cualquier usuario.

Un informe del MIT Media Lab, Defending Internet Freedom through Decentralization: Back to the Future?, reflexiona sobre la descentralización de la Internet como vía para garantizar la libertad en las redes. Para los autores, el proceso de “redescentralización” consiste en realinear las relaciones de poder entre las instituciones (administración, empresas…) y los usuarios finales.

Más que a través de intervenciones desde el marco legal –que siempre son susceptibles de ser maleables a las necesidades de distintos grupos de interés-, hay quien aboga por orientar la descentralización desde el enfoque tecnológico, apostando por estructuras de redes basadas en la relación directa sin intermediación entre usuarios (la vieja filosofía “peer to peer”, P2P) que garanticen un marco de relaciones en igualdad y hagan innecesaria la labor de las grandes plataformas, como Google.

El informe del MIT identifica la criptomoneda Bitcoin –y Blockchain, su tecnología subyacente-, como un servicio que contribuye a ese impulso de democratizar la red. Se trata de un sistema de transacciones monetarias entre particulares que no está intermediado por ninguna entidad financiera. Es como una gran base de datos descentralizada en la que cada usuario tiene acceso a toda la información del sistema.

El buscar “soluciones antimonopolio” a través de la propia tecnología que articula las redes demuestra una falta de confianza absoluta en la “buena voluntad” de organizaciones, empresas u administraciones, y especialmente, en la capacidad de corregir desigualdades en Internet del impulso institucional y la ley. Se trata sin duda de una postura propia del activismo cypherpunk, pero que en principio parece una garantía del éxito del fin perseguido, la libertad en las redes. Como expresó rotundamente Lawrence Lessig a principios de este siglo, “el código es la ley”:

Este regulador [del ciberespacio] es el código- el software y el hardware que hace del ciberespacio lo que es. Este código, o arquitectura, establece en qué términos se experimenta la vida en el ciberespacio. Establece la facilidad para proteger la privacidad o la facilidad para censurar un discurso. Determina si el acceso a la información es general o si está parcelado. Afecta a quién ve qué cosa y qué cosa está monitorizada.”

Defending Internet Freedom through Decentralization: Back to the Future? analiza en sus páginas las posibles intervenciones estructurales que se pueden realizar en Internet en aras de la descentralización y, para ello, propone dos preguntas que encauzan cada acción propuesta en una u otra estrategia:

  1. ¿Esta intervención (proyecto, iniciativa…) permitirá a los usuarios publicar, descubrir o sindicar contenidos de forma independiente reduciendo la necesidad de acudir a una plataforma de intermediación como puede ser Facebook?
  2. ¿Esta intervención ayuda a crear un mercado donde existan más plataformas en las que publicar, ya sea reduciendo los costes de conexión o dándole al usuario un mayor abanico de opciones relacionadas con la información?

Las conclusiones del estudio, a la vista de una serie de casos analizados, establecen las intervenciones estructurales en las redes como insuficientes para conducir a la descentralización de Internet, dado que están sometidas a fuerzas sociales y económicas más amplias que regulan el comportamiento de las personas.

Es por ello, que los autores plantean que no sólo hace falta crear software que funcione de forma descentralizada o un mayor número de plataformas de intermediación de contenidos que acaben con el monopolio de las actuales, sino que también hay que crear opciones para los usuarios que sean atractivas, fáciles de usar y económicamente sostenibles. Rara vez alguien adopta un determinado servicio o se da de alta en una plataforma por razones abstractas, como puede ser la “descentralización de la red”, más bien –afirman los autores-, “generalmente adoptan tecnologías basándose en la conveniencia, el precio, la usabilidad y por el hecho de que allí andan sus amigos”.
 
Google Analytics Alternative