lunes, 29 de mayo de 2023

Tendencias de evolución del mercado de trabajo

 


El futuro del trabajo a medio plazo se verá afectado directa o indirectamente por una serie macrotendencias, algunas de las cuales tienen que ver con las nubes que se ciernen sobre la situación internacional. La consultora GlobalData identifica la crisis de las cadenas de suministro internacionales entre las más relevantes. La pandemia del COVID-19 y sus efectos persistentes en la economía china, y, posteriormente, el conflicto ruso ucraniano, han creado problemas de abastecimiento y subidas disparadas de precios en sectores como la energía, la química, productos metálicos o la alimentación, entre muchos otros.

Una de las consecuencias directas de esta disrupción de las redes de abastecimiento globales es la relocalización de la producción desde los países emergentes de vuelta a los países de origen, como una forma de garantizar la autosuficiencia, por lo menos en lo relativo a la fabricación de bienes esenciales. GlobalData afirma que en los últimos dos años tres cuartas partes de las empresas de Reino Unido han aumentado la proporción de proveedores locales. Hay quien asocia esta tendencia con una inversión del proceso de globalización que lleva en marcha tres décadas, de forma que avanzaríamos hacia un mundo menos conectado que el actual, en el que primarían de nuevo los estados fuertes y las soluciones locales a los problemas, caracterizado por barreras fronterizas que limitan el flujo de personas y mercancías. De hecho, el peligro de la desglobalización fue uno de los temas que abordó el Foro Económico Mundial en su reunión de Davos de mayo de 2022.

Otra gran tendencia actual que afecta al mundo de las organizaciones, y que puede tener impacto sobre el trabajo, es el cumplimiento de criterios ESG (environmental, social and governance), es decir, los factores ambientales, sociales y de gobierno corporativo que se toman en cuenta a la hora de invertir en una empresa. Más directamente en el terreno del empleo, GlobalData también identifica como una tendencia postpandemia el abandono en masa de la fuerza laboral, lo que se ha dado en llamar “la gran renuncia” (Great Resignation), que implica que en algunos países queden cada vez más puestos de trabajo sin cubrir. El FMI calcula que, en EE. UU., Reino Unido, Canadá y Australia, había a finales de 2021 entre el 50% y el 80% más plazas vacantes que antes de la crisis sanitaria.

Uno de los grandes temas del ámbito laboral que emerge en la década pasada es la gig economy, una economía basada en plataformas digitales, bajo demanda centrada en trabajos esporádicos y de corta duración, que son desempeñados por personas que reciben una remuneración por cada una de las tareas realizadas. Aunque se planteaba como un gran yacimiento de empleo, en los últimos tiempos las empresas de este sector se han tenido que enfrentara aspectos legales que acaban con el vacío normativo en el que han basado su despegue. Así, los gobiernos de distintos países han intervenido para garantizar los derechos de los trabajadores de estas plataformas, como fue el caso de Países Bajos con la empresa de reparto de comida Deliveroo, o España, con el caso Glovo en 2020, y la denominada Ley Rider, que garantiza los derechos de los repartidores. Desde el ámbito comunitario se está trabajando igualmente en una directiva para mejorar las condiciones de trabajo en plataformas digitales. El tiempo dirá si la cobertura de unas condiciones de trabajo para los empleados no supondrá el fin de la rentabilidad de este tipo de empresas, tradicionalmente basada en el todo vale.

A las tendencias geoeconómicas, sociales y políticas hay que sumar el efecto que está teniendo el desarrollo tecnológico en el mercado de trabajo. De nuevo GlobalData nos ofrece una panorámica en este sentido, cuando plantea un marco para el futuro del trabajo caracterizado por los siguientes cinco componentes: visualización, automatización, interpretación, colaboración y conectividad.

El primer elemento mencionado, la visualización, hace referencia a que el trabajador digital deberá utilizar gráficos e imágenes para presentar o transmitir la información, dado que se verá obligado a manejar, analizar e interpretar grandes volúmenes de datos. De esta forma, cobran cada vez más relevancia tecnologías como la realidad aumentada y virtual, los gemelos digitales y las herramientas de visualización de datos. Se trata de un camino que se espera que acabará por integrar los puestos de trabajo en el metaverso.

Luego se menciona la automatización como una forma de que las máquinas complementen el trabajo humano, y que está relacionada con los robots industriales, los vehículos autónomos, la impresión aditiva o los drones. Por otra parte, la interpretación trata de la toma de decisiones en entornos muy complejos haciendo uso de ingentes cantidades de datos, y aplicando tecnologías de inteligencia artificial, especialmente, el aprendizaje automático. El ámbito de la colaboración utiliza la tecnología para facilitar el trabajo en equipo y las relaciones con los clientes, como las plataformas CRM, y, finalmente, la conectividad implica usar redes para mejorar la comunicación y los procesos, con tecnologías como las que dan soporte al internet industrial, el estándar 5G y el internet de las cosas en general.

GlobalData destaca también el metaverso como tendencia a la que se dirige la evolución del puesto de trabajo, dado que constituirá un entorno virtual de colaboración idóneo para el trabajo en equipo. No obstante, reconoce que, aparte de pioneras como Accenture o Havas que empiezan a generar experiencias al respecto, la gran parte de las empresas está a la expectativa hasta ver cómo va evolucionando esta tecnología y qué posibilidades reales ofrece.

Finalmente plantea como tendencia el trabajo híbrido -combinar teletrabajo con trabajo presencial- como un modelo que ha venido para quedarse tras la pandemia.

 

 

martes, 16 de mayo de 2023

La programación al alcance de todos

 


A aquellos que estudiábamos en la década de los ochenta del siglo pasado se nos repetía con insistencia que el ordenador iba a ser una herramienta básica para cualquier ocupación que fuésemos a desempeñar. Los más inquietos comenzaron a apuntarse a cursos de programación de los lenguajes más en boga entonces -Fortram, Cobol, Basic…-, o, cuando menos, a recibir formación para aprender a manejar el complejo software de oficina que se utilizaba en la época, como los procesadores de textos WordStar y WordPerfect o el gestor de bases de datos dBASE, que requerían el conocimiento de numerosos comandos para su manejo con cierta agilidad. Sin embargo, con el cambio de década la llegada de Windows de Microsoft trajo consigo la revolución de la informática de usuario. Los entornos de trabajo gráficos democratizaron el uso del ordenador, de forma que ya no hacía falta saber nada para escribir un texto o crear una hoja de datos -por lo menos para realizar las tareas más básicas-, pues todo se llevaba a cabo pinchando con el ratón de forma intuitiva iconos y botones virtuales. El farragoso sistema operativo MS-DOS, con su pantalla negra y sus líneas de comandos, quedó oculto tras un agradable y colorista entorno de trabajo que permitía hacer lo mismo -crear, borrar, mover archivos y carpetas- con sólo hacer clic.

Esto viene a cuento porque, salvando las distancias, nos encontramos actualmente en una situación similar a la que tuvo lugar en la primera década de los noventa. También hoy en día recibimos el bombardeo recurrente de mensajes que nos instan a aprender a programar como una condición necesaria para poder ocupar casi cualquier puesto de trabajo. Y, también, en paralelo se está fraguando otra democratización de la informática, otra forma de abrir sus posibilidades a todo el mundo sin la necesidad de tener una formación técnica, que cobra forma a través dos tendencias: el low-code y el no-code.

El primer caso, el low-code, se refiere al desarrollo de software que requiere muy poca programación. Se trata de plataformas donde podemos crear aplicaciones y programas a partir de bloques de código prediseñados, aunque también podemos añadir nuestras propias líneas de código sobre el generado de forma automática. Aparte de simplificar y agilizar el proceso de gestación de un sistema informático, reduce sobremanera el nivel de conocimientos técnicos que hay que tener para hacerlo.

El no-code va un paso más allá y permite crear productos informáticos sin tener que escribir ni una línea de código. Al igual que en el caso anterior, es una opción que se ofrece a través de plataformas digitales en las que el usuario se enfrenta a una interfaz visual en la que puede coger componentes de programación preconfigurados y añadirlos a su objeto de desarrollo.

Un buen ejemplo de esta filosofía reduccionista es el popular CMS (Content Management System) WordPress, una plataforma para la creación tanto de webs como de medios digitales. Su versión más sencilla, basada en plantillas y módulos prefabricados, pone en manos de cualquiera la posibilidad de crearse un sitio en internet. No obstante, es una solución de código abierto que permite a aquellos con conocimientos de programación ver el código fuente y modificarlo según sus necesidades para personalizar la web creada.

Las plataformas low-code y no-code presentan muchas ventajas, empezando porque permiten que cualquiera pueda crear programas y aplicaciones sin necesidad de programar (o con un mínimo de código), y este factor es una palanca relevante de cara a la digitalización de las empresas. Además, permite generar desarrollos informáticos de una forma más ágil y rápida, dado que escribir código es algo lento y farragoso, especialmente para aquellos no muy familiarizados con esta disciplina. Finalmente, el uso de este tipo de plataformas implica un ahorro de costes para las organizaciones, ya que evitan mucha de la inversión que conlleva la programación tradicional.

lunes, 10 de abril de 2023

El futuro prometedor de los medios sintéticos

 


Recientemente hemos podido ver a Lola Flores, fallecida en 1995, protagonizando un anuncio de televisión de la marca de cerveza Cruzcampo. La imagen de la Faraona se dirige a nosotros desde la pantalla con frescura, con la voz y el acento con los que la recordamos. Algo similar ocurre en la película de la saga Star Wars Rogue One, cuando presenta a la princesa Leia tan joven como cuando se rodó la primera entrega de la serie, en 1976, aunque la actriz Carrie Fisher que daba vida al personaje tenía en ese momento -2016- sesenta años (de hecho, murió en diciembre ese mismo año). Otro tanto ha ocurrido con el personaje de Luke Skywalker interpretado por Mark Hamill, que en la serie de Disney The Mandalorian estrenada en 2019, vuelve a aparecer tan joven como en la primera trilogía de la década de los setenta. Se trata de tres ejemplos de lo que se denomina medios sintéticos (synthetic media), la aplicación de las tecnologías digitales para producir contenidos mediáticos artificialmente.

A pesar de que una de las aplicaciones más conocidas y alarmantes de los medios sintéticos es el deep fake con fines delictivos -generalmente la creación de vídeos falsos para desacreditar a personajes públicos-, su futuro se presenta muy prometedor en numerosos campos como el periodismo, el marketing o la educación. No obstante, se trata de un fenómeno que va mucho más allá.

Hablamos de medios sintéticos para referirnos a cualquier formato de contenido digital creado o modificado mediante algoritmos, especialmente a través de algoritmos de inteligencia artificial. En concreto, incluye la síntesis de imagen, de audio y del habla, así como la generación de música y del lenguaje natural. La verdadera innovación consiste en que la creación de contenidos mediáticos pasa de ser física a completamente digital. La tecnología está transformando la forma en que nos comunicamos mediante nuevas formas de crear, consumir y contextualizar el contenido.

Más allá de los usos delictivos y peligrosos, los medios sintéticos abren la puerta a una verdadera era de innovación en la generación de contenidos mediáticos. Si nos centramos en el vídeo, la inteligencia artificial permite crear piezas de forma más rápida y fácil que con la tecnología tradicional, y además por una fracción del coste de producción. 

El vídeo sintético puede, por ejemplo, hacer más asimilable el contenido que en un texto resulta tedioso y complejo, como, por ejemplo, las características de un producto financiero o de un seguro. Se trata de utilizar las herramientas ofrece la inteligencia artificial para personalizar el soporte del mensaje, de forma que un avatar puede llamar al usuario por su nombre, utilizando un rostro o una voz que hagan la comunicación más cercana. Las posibilidades que ofrecen estas tecnologías son inimaginables. Por ejemplo, la compañía Vologram proporciona el convertir cualquier vídeo convencional en una pieza de realidad virtual o realidad aumentada. Otro caso interesante es el de la plataforma Replika, que permite al usuario crearse un compañero virtual a través de la inteligencia artificial. También los algoritmos inteligentes han hecho su entrada en las bellas artes, como es el caso de los sistemas DALL-E 2 y Midjourney, que generan obras gráficas a partir de descripciones de texto.

Empresas vanguardistas como Synthesia, Tavus, Hour One, D-ID o Colossyan se dedican a la creación de vídeos sintéticos bajo demanda -generalmente con fines comerciales-, sin la necesidad de contar con actores y costosos equipos de rodaje, dado que están basados en avatares generados con inteligencia artificial, y voces desarrolladas para la ocasión.

La inteligencia artificial también está llamada a revolucionar la atención al cliente, al utilizar bots conversacionales cada vez más perfectos y realistas. Un ejemplo un tanto pintoresco de esto es el que presenta el Museo Dalí de St. Petersburg, Florida, en los Estados Unidos, basado en una experiencia de realidad virtual, bautizada como Dalí Lives, gracias a la cual el público puede hablar con el genial pintor catalán, que aparece representado como cuando tenía la edad de 50 años.

A lo largo de esta década, los medios sintéticos van a ir extendiéndose por todos los sectores y actividades, adoptando formas y soluciones que hoy no podemos ni concebir. Se van a convertir en la llave que abre un universo de posibilidades sin límites y van a proyectar el uso de la inteligencia artificial mucho más allá que la esfera de la comunicación. Urge que el desarrollo de esta tecnología vaya acompañado de la creación de una normativa que regule los casos de uso, y de las herramientas necesarias para poder identificar y denunciar su aplicación con fines delictivos o dañinos.

martes, 21 de marzo de 2023

El internet de las cosas ahora vigila el comportamiento humano

 


El internet del comportamiento (IoB en sus siglas en inglés) es una aplicación del IoT que persigue monitorizar la conducta de las personas con el fin de establecer patrones de comportamiento. Se trata de una tecnología que puede revolucionar el conocimiento que tienen las empresas de sus clientes y la personalización de los productos y servicios.

El internet de las cosas (IoT) es una de las tecnologías protagonistas de la revolución digital que estamos viviendo. El término, que fue acuñado en el MIT por Kevin Ashton en 1999, define la interconexión de objetos y dispositivos en las redes para que recojan grandes cantidades de información que, una vez procesada y analizada, manifiesta una utilidad concreta. Se trata de terminales como pueden ser sensores, cámaras, termostatos, termómetros, altavoces inteligentes, instrumental para medir la calidad del aire de una ciudad, y, en general, cualquier aparato susceptible de recoger información.

El crecimiento del IoT es imparable: Ericsson vaticina que en 2027 habrá globalmente 30 200 millones de conexiones a internet, una cifra que supone un incremento del 106% sobre la cantidad que había en 2021. Una de las principales aplicaciones del internet de las cosas es la industria, el denominado en inglés industrial internet of things (IIoT), que, en combinación con aspectos como la inteligencia artificial, la robótica o el blockchain, está transformando completamente la fábrica, tal y como la conocíamos. En este sentido, la consultora OMDIA calculó que en el año 2030 habrá mundialmente alrededor de 4 400 millones de dispositivos conectados en las plantas manufactureras, de las cuales más de la mitad estarán localizados en Asia.

Hasta ahora, el internet de las cosas se ha centrado en monitorizar y analizar sistemas, por ejemplo, el tráfico en una ciudad, la seguridad de unas instalaciones o el funcionamiento de una planta de producción, entre las innumerables aplicaciones que tiene esta tecnología. Recientemente, se habla de aplicar esta filosofía a los humanos con el fin de analizar nuestro comportamiento. Se trata de lo que se ha denominado Internet of Behaviour (IoB) o internet del comportamiento.

El IoB utiliza big data para monitorizar la forma en que el ser humano se relaciona con la tecnología, analizándola, para, en su caso, modificarla. Se trata de una disciplina que utiliza el internet de las cosas, pero, en última instancia, la información recopilada está generada por humanos interactuando con tecnología, bien a través de terminales como ordenadores, smartphones, wearables, altavoces inteligentes o automóviles conectados, como por medio de la navegación y de las acciones que llevamos a cabo en las redes. Esos macrodatos son analizados desde la perspectiva de la psicología conductual con la finalidad de establecer patrones de comportamiento. Evidentemente, una de las primeras aplicaciones del internet de comportamiento que nos viene a la cabeza es el marketing: supone una herramienta de primer orden para conocer qué mueve al consumidor y al cliente potencial a tomar las decisiones que lleva a cabo, y puede contribuir a modificar sus hábitos de compra en beneficio de un determinado producto o servicio.

En octubre de 2019, la consultora Gartner predijo que para 2023 el 40% de las personas del mundo estarían monitorizadas a través de IoB, con el fin de mejorar la prestación de los servicios y optimizar el beneficio de las empresas. También reconoce este informe que a largo plazo todo el mundo, en mayor o menor medida, estará expuesto a alguna forma de internet del comportamiento, pues será algo que estará perfectamente contemplado en la legislación vigente y estará integrado en la cultura social del momento.

En principio, el principal riesgo que presenta el IoB es que una brecha de seguridad ponga los datos y la información de las personas en manos criminales. Es por ello, que garantizar la inquebrantabilidad de los servicios, los sistemas y las aplicaciones que se nutren de big data sobre el comportamiento debe constituir una prioridad. Otro tema relevante es exigir transparencia en el tipo de datos que recogen las organizaciones que llevan a cabo IoB, y el uso que hacen de ellos, especialmente, cuando se trata de aplicaciones que no requieren la autorización del usuario. 

Pero, sin duda, el mayor peligro es la posibilidad de que las acciones basadas en el internet del comportamiento resulten excesivamente intrusivas por el usuario. Hace años, la empresa estadounidense Target podía elaborar un “índice de predicción de embarazo” en función de la combinación de productos que adquirían sus clientas. Las estadísticas de ventas de la compañía establecían que las mujeres embarazadas eran más proclives a comprar 25 productos concretos. En concreto, podían establecer con bastante fiabilidad hasta la fase del embarazo en la que se encontraba cada mujer. En base a esta información, la empresa mandaba a estas clientas cupones de descuento en productos en función de su estado. Un día, la sucursal de Target de Minneapolis recibió la visita de un padre enfurecido porque le habían enviado a su hija adolescente cupones de descuento para ropa de bebé y cunas, y este acusaba a la compañía de animar a su hija a quedarse embarazada. El dependiente pidió perdón en nombre de la organización, ignorante de qué iba aquello, y días después llamó por teléfono al airado progenitor para reiterar sus excusas, y, cuál no sería su sorpresa, cuando el padre le dijo que, tras hablar con su hija, esta le había confesado que, efectivamente, estaba en estado. La empresa lo había sabido antes que la propia familia.

 

 

miércoles, 8 de marzo de 2023

Las ciudades espejo construidas con datos

 


“Los antiguos construyeron Valdrada a orillas de un lago con casas todas de galerías una sobre otra y calles altas que asoman al agua parapetos de balaustres. De modo que al llegar el viajero ve dos ciudades: una directa sobre el lago y una de reflejo, invertida. No existe o sucede algo en una Valdrada que la otra Valdrada no repita, porque la ciudad fue construida de manera que cada uno de sus puntos se reflejara en su espejo, y la Valdrada del agua, abajo, contiene no solo todas las canaladuras y relieves de las fachadas que se elevan sobre el lago, sino también el interior de las habitaciones con sus cielos rasos y sus pavimentos, las perspectivas de sus corredores, los espejos de sus armarios.”
Italo Calvino. Las ciudades invisibles

El concepto de gemelo digital ya está muy extendido en el ámbito de la industria. Consiste básicamente en construir una réplica virtual de un sistema – por ejemplo, una máquina, un motor, una línea de producción- y alimentarla con datos en tiempo real, recogidos del elemento físico original. Una posible aplicación podría ser el prototipo de un automóvil, donde el gemelo digital debe reproducir cada parte del vehículo en 3D y replicar el mundo físico en el que circula de una forma tan precisa que un conductor de la réplica virtual reciba las mismas respuestas que si pilotase el modelo real. La utilidad de esta tecnología es innegable en aspectos como el mantenimiento predictivo, pues con el modelo virtual podemos simular de manera fiel las situaciones y condiciones a las que se puede ver sometido un elemento, y estudiar su reacción, sin comprometer la seguridad ni el buen funcionamiento de este.

Sin embargo, los gemelos digitales no se limitan al ámbito de la producción manufacturera y la ingeniería industrial, y han llegado incluso al terreno de la planificación y la gestión urbanas. Hoy en día hablamos de ciudades gemelas digitales para referirnos a modelos que simulan algunos de los procesos que tienen lugar en un núcleo de población, elaborados en base a la información real que este genera. Se trata de una filosofía estrechamente relacionada con la smart city, la inteligencia del dato aplicada a la gestión urbana. Uno de los paradigmas en este campo es el proyecto Virtual Singapore, que persigue la creación de un modelo tridimensional dinámico y colaborativo de dicha ciudad.

El modelo de la ciudad estado asiática es uno de los pioneros en este campo, puesto que comenzó a erigirse en 2014. Está compuesto por más de tres millones de imágenes tomadas de las calles, además de 160 000 más capturadas desde el aire, y miles de millones de puntos de recogida de datos. Todo ello configura un mapa en tres dimensiones que supone más de 100 terabits de información.

El proyecto de Singapur tiene como objetivo promover el desarrollo sostenible de la isla. A modo de ejemplo, un reciente experimento con el modelo buscaba calcular la cantidad de energía solar podría recoger la ciudad en función de la disposición de sus edificios verticales y el estudio del nivel de insolación que recibe cada tejado y cada fachada. Igualmente, dentro de la meta de bajar la temperatura media del núcleo urbano, el modelo sirve para estudiar cómo cada nueva construcción puede afectar a las rachas de viento y las sombras sobre la superficie.

Las ciudades gemelas digitales tienen su origen en el concepto de los modelos espejo formulado por el profesor de la Universidad de Michigan Michael Grieves en 2006: erigir modelos digitales en el espacio virtual, que interactúan con entidades físicas, y que describen el ciclo de vida de estas. En 2017, en el seno de la CAICT, la Academia China de la Tecnología de la Información y las Comunicaciones, esta técnica se concibe aplicada por primera vez para la planificación y construcción de las ciudades inteligentes, mediante el diseño de un modelo holográfico que recree virtualmente la urbe de forma que pueda ser analizada en tiempo real, convirtiéndose así en una herramienta de gestión urbana.

Estos modelos virtuales urbanos parten de una red ubicua de recogida de información -mediante el internet de las cosas-, que suministra datos en tiempo real y de forma continua sobre temas como el tráfico, los parámetros medioambientales o las operaciones urbanas, y los sitúa en un mapa virtual. El ejercicio cartográfico permite analizar los problemas de la ciudad, identificando patrones de funcionamiento gracias a los algoritmos de gestión de big data, y ofrecer conclusiones y recomendaciones de apoyo a la toma de decisiones de las autoridades. La recreación virtual, en suma, presenta una panorámica completa del ciclo de vida de los servicios de la ciudad física, abriendo la puerta a la optimización de su funcionamiento y a promover un desarrollo económico sostenible.

Los gemelos digitales urbanos redundan en la mejora de las condiciones de vida de los ciudadanos, y también en el ahorro de costes de las políticas públicas. El Foro Económico Mundial calcula que en 2030 esta tecnología supondrá ahorros de hasta 280 000 millones de dólares en las inversiones y gastos asociados a la planificación urbana.

martes, 21 de febrero de 2023

El pueblo inteligente como solución a la despoblación

 


Uno de los grandes problemas que enfrenta España es la falta de articulación del territorio. La población se concentra en núcleos urbanos de gran tamaño muy densamente poblados, y, en general, no abundan los enclaves de tamaño mediano que contribuyan a distribuirla a lo largo y ancho del del mapa, como ocurre en otras naciones europeas. A modo de ejemplo, en nuestro país existen treinta ciudades de más de 200 000 habitantes, seis de las cuales superan el medio millón. En cambio, Francia –con un 40% más de población- tan solo cuenta con once ciudades de más de 200 000 habitantes, y solamente Lyon, Marsella y París pasan del medio millón. Por su parte, Italia, con casi un tercio más de población, tiene dieciséis núcleos urbanos de más de 200 000, mientras que Reino Unido, con 67 millones de habitantes, presenta veintidós.

El proceso de despoblación del medio rural viene de muy atrás, aunque se ha acelerado sobremanera en los últimos treinta años, en parte (aunque no solo), por la revolución que han conocido las infraestructuras de comunicaciones del país. Paradójicamente, el haber conectado con vías rápidas los distintos puntos de nuestra geografía, tanto férreas como carreteras, ha contribuido a aislar grandes zonas del interior de la península. Por una parte, los grandes trazados del tren de alta velocidad y la red de autopistas han convertido las rutas en no lugares, siguiendo la terminología del antropólogo francés Marc Augé (Los «no lugares». Espacios del anonimato. Una antropología de la Sobremodernidad, 1992).

Las carreteras de antes atravesaban las localidades y establecían una conexión entre el viajero y el espacio que recorría; ahora, “el paisaje toma sus distancias, y sus detalles arquitectónicos o naturales son la ocasión para un texto, a veces adornado con un dibujo esquemático”. Los ferrocarriles, incluso los de largo recorrido, antiguamente paraban en los pueblos, “las vías férreas penetraban en la intimidad de la vida cotidiana” de los lugares que atravesaban; hoy, los trenes pasan sin parar a tanta velocidad que apenas podemos leer el nombre de las estaciones que dejamos atrás. Las vías de comunicaciones ultrarrápidas han condenado al aislamiento a amplias zonas de nuestra geografía, que se han visto excluidas de las rutas que antaño vertebraban el territorio.

Por otro lado, los avances en las últimas décadas del transporte por carretera han supuesto que los grandes núcleos urbanos y las capitales de provincia han canibalizado una parte importante de la actividad económica del mundo rural. Frente a las carreteras de doble sentido de antes, autovías de varios carriles; frente al concepto del coche familiar como un símbolo de estatus, la posibilidad actual de que todo el mundo adquiera vehículos cada vez más rápidos y potentes. Todo ello ha llevado a que el medio rural esté mejor conectado con las ciudades, lo que, lejos de beneficiarle, ha condenado su actividad comercial. Antiguamente, recorrer distancias de entre 50 y 100 kilómetros para pasar una tarde de compras o de ocio era algo impensable por el tiempo que llevaba el desplazamiento. Hoy en día se trata de algo que hace la gente que vive en los pueblos de forma habitual, con el consiguiente efecto negativo sobre el comercio y la economía locales.

Lo cierto es que el medio rural se muere, con una población cada vez más escasa y envejecida, y sin una economía sostenible más allá de las actividades del sector primario. Las propuestas de revitalización pasan generalmente por fórmulas relacionadas con el turismo rural y con la explotación de productos regionales, pero no siempre resultan alternativas sólidas que generen empleo y oportunidades laborales suficientes que puedan frenar la despoblación. Recientemente, y especialmente después de la pandemia, se ha planteado la digitalización como palanca de crecimiento para estas regiones. De hecho, se ha llegado a acuñar el término smart village (pueblo inteligente) como espejo rural de las smart cities. Sin embargo, cualquier solución en este sentido debe tener en cuenta que la tecnología, por si sola, no resuelve nada, no es un remedio universal, y siempre debe como parte de políticas más amplias de desarrollo.

En 2017, el documento EU Action for Smart Villages incluía una definición de pueblo inteligente: “son zonas y comunidades rurales que aprovechan sus puntos fuertes y sus activos, así como las nuevas oportunidades, para la creación de valor añadido, y donde se refuerzan las redes tradicionales y nuevas por medio de la tecnología de comunicación digital, de las innovaciones y la mejora de la utilización del conocimiento en beneficio de los habitantes”.

En este sentido, el debate que tuvo lugar dentro del grupo de trabajo de la Red Europea de Desarrollo Rural (ENRD) trabajó una mayor definición del término inteligente, como una forma de aportar conocimiento sobre la transformación digital del medio rural. Una de las principales conclusiones al respecto es que las tecnologías son un medio, y no un fin, para dar respuesta a los problemas concreto que presenta cada territorio. En este sentido, deben utilizarse solamente cuando resulten apropiadas y necesarias.

Por otra parte, se destaca la necesidad de que los propios actores locales tomen la iniciativa para solucionar los problemas a los que se enfrenta su territorio, y que construyan alianzas entre sí, es decir, entre las instituciones públicas, el sector privado y el municipio. Asimismo, es necesario ampliar el marco de relaciones más allá del municipio, y establecerlas con otros municipios rurales y con los núcleos urbanos. Por último, hay que tener muy presente que no existe un modelo estándar para todos los territorios, y que la transformación digital debe adoptar una visión local, que aproveche los recursos propios y endógenos.

viernes, 3 de febrero de 2023

Del conocimiento al dataísmo: cuando abdicamos en la inteligencia artificial

 


Inteligencia artificial ha sido el término del año 2022 para la Real Academia de la Lengua. Tras vivir un largo invierno en letargo, esta disciplina tecnológica ha vuelto a coger carrerilla en la década pasada gracias especialmente a los avances en la capacidad para recoger y procesar inmensas cantidades de datos, el denominado big data. De hecho, la rama de la inteligencia artificial que realmente despunta es el aprendizaje automático o machine learning, que consiste precisamente en que los algoritmos aprenden de forma autónoma a base de consumir ingentes volúmenes de datos. Para algunos expertos, como Gary Marcus, profesor de psicología y neurociencia en la Universidad de Nueva York, esta dependencia de los macrodatos es un obstáculo para poder llegar a la inteligencia artificial general, es decir, aquella que funciona de forma similar al cerebro humano. Para otros, como Judea Pearl, el machine learning solamente sabe establecer correlaciones para crear patrones, pero no entiende el principio de causalidad, algo inherente a la inteligencia humana (de hecho, publicó en 2018 un libro entero sobre la relación causa y efecto: The book of whyEl libro del porqué).

El año pasado se puso de moda la aplicación online ChatGPT, un sistema basado en el modelo de lenguaje por inteligencia artificial GPT-3, que, a modo de oráculo moderno, mantiene conversaciones eruditas con todo aquel que se acerca a preguntarle. Sin embargo, aparte de estos ejemplos más o menos pintorescos, la inteligencia artificial ya está entre nosotros, en aplicaciones tan prosaicas como en la función de texto predictivo de nuestros teléfonos móviles o las recomendaciones personalizadas de serie que nos ofrece Netflix.

Todos estos servicios y aplicaciones son inmensos devoradores de datos, hasta el punto de que ya se habla de la economía del dato, y se considera el dato un factor de producción más dentro del proceso de creación de valor. A partir de ahora, todo comienza a regirse por datos, y, para el filósofo coreano Byung-Chul Han, el hombre “abdica como productor del saber y entrega su soberanía a los datos”.

La de Han es una de las voces más críticas que existen en la actualidad con los valores y el funcionamiento de esta sociedad del siglo XXI, que hemos denominado digital. A su juicio, la cultura de autosuperación y autoexigencia que guía al trabajador de esta época ha sido una maniobra brillante de pensamiento neoliberal para conseguir que nos explotemos a nosotros mismos. También critica la hiperconectividad e hiperactividad que sufrimos en esta sociedad, y defiende las bondades del “no hacer nada”, de la mera contemplación, y se muestra reacio a la digitalización, porque considera que ha desmaterializado nuestras vidas alejándonos de la realidad física, de manera que rompe una lanza por volver a poseer objetos físicos y por realizar trabajos manuales, como una forma de volver a conectar con el mundo.

En su libro La desaparición de los rituales (2019) dedica un capítulo al fenómeno que ha bautizado como dataísmo. El uso generalizado de big data ha desbancado al ser humano como productor de saber, de forma que “ahora el saber es producido maquinalmente”. La mente no puede trabajar con esas enormes cantidades de datos, pero los procesadores informáticos sí, porque no intentan comprender, sino que se limitan a calcular. La rapidez del trabajo algorítmico se basa en que las máquinas no piensan, solamente realizan tareas aditivas con los datos. El pensar requiere tiempo porque se basa en una narración y tiene un componente lúdico, que es destruido por la presión para producir más rápido.

Byung-Chul Han concluye que el paso al dataísmo es el paso de la narración a la mera enumeración. Y sentencia que, aunque el pensar se asimila al cálculo, “los pasos del pensar no son fases del cálculo que prosigan con lo igual. Son más bien jugadas o pasos de baile, que generan algo distinto, un orden completamente nuevo de cosas”.

lunes, 23 de enero de 2023

Web3, un internet descentralizado sobre cadenas de bloques

 


La web del futuro próximo ya no funcionará sobre plataformas digitales de servicios, sino sobre la tecnología blockchain, una base que garantizará las relaciones directas sin intermediación entre los usuarios de la red, y traerá condigo la llegada de un internet más democrático, a juicio de los expertos.

Sir Tim Berners-Lee inventó la World Wide Web que hoy todos conocemos y usamos hacia 1989, mientras estaba empleado en el CERN, la Organizacion Europea para la Investigacion Nuclear. Él solamente buscaba una solución operativa a las limitaciones que encontraba el intercambio de información entre las distintas áreas de su organización y, por aquel entonces, no podía ni imaginar que su idea iba a diseñar la forma que ha tenido internet en los últimos treinta años. La filosofía de la web parecía destinada a cumplir la utopía de darle una voz a cada habitante del planeta gracias a su estructura descentralizada y aparentemente democrática.

Un nuevo giro de guion ocurre entre 2008 y 2010, cuando comienza a hablarse de la web social o web 2.0, una evolución de internet basada en los medios sociales, que convertía a los usuarios en prosumers, es decir, consumidores y a la vez productores de información y de contenidos digitales, pues la simplificación de las herramientas -especialmente blogs y redes sociales- permitían que todo el mundo pudiese publicar y crear sin conocimientos avanzados de ningún tipo. Sin embargo, a la hora de la verdad, la experiencia de la web se ha acabado concentrando a través de unas pocas empresas, que en su mayor parte trafican con los datos personales de las personas exprimiéndolos en su beneficio y en el de sus clientes.

En los últimos tiempos hablamos de que la Web3 va a transformar el marco de relaciones de la red, eliminado el papel de las plataformas, los servidores y la centralización de autorizaciones en la gestión de la información que circula por internet y de los flujos de valor que se generan entre los distintos agentes. Y vuelve el viejo anhelo de navegar por un internet más libre y participativo, en el que todas las personas tengan un protagonismo específico y en el que sus manifestaciones digitales no constituyan materia prima para alimentar algoritmos para la manipulación comercial o ideológica.

El padre de la criptomoneda Ether Gavin Wood, acuñó el término Web3 en 2014, y resume su esencia en una frase sintética: “menor confianza, mayor verdad”. Para él, la confianza constituye básicamente fe, la creencia ciega de que el mundo va a funcionar, pero sin una evidencia real o un argumento racional que lo justifiquen. En sus propias palabras: “la confianza implica que estás depositando algún tipo de autoridad en otra persona, o en alguna organización, y ellos pueden hacer uso de esta autoridad de una forma arbitraria”. Y concluye: “queremos más verdad- a lo que realmente me refiero es a una razón de más peso para creer que nuestras expectativas se cumplirán”. Y la tecnología de las cadenas de bloques aporta la verdad que demanda Wood.

El planteamiento de partida de la Web3 es que los usuarios, a diferencia de lo que ocurre en la actualidad, son los dueños de sus datos personales, tanto los que definen su identidad, como de los que generan a través de las interacciones de las redes, y todos ellos quedarán protegidos en wallets o monederos digitales personales y anónimos. De esta forma, tanto nuestra información personal -de la que ahora se benefician empresas como Facebook o Google-, como otros activos digitales de nuestra propiedad, representados por tokens, están registrados y protegidos en bloques de blockchain. Cualquier operación que hagamos con los mismos quedará igualmente registrada y protegida por la cadena de bloques de posibles alteraciones o manipulaciones. Estamos, por tanto, ante el surgimiento de nuevos esquemas de relaciones sociales y de negocios en las redes.

 

 

lunes, 16 de enero de 2023

Los riesgos de utilizar la inteligencia artificial en la sanidad

 


El dato se ha convertido en el combustible de la economía digital. El cuidado de la salud no es una excepción, y la recolección, el análisis y el uso de datos sanitarios -desde los análisis clínicos, hasta los historiales médicos- es la base de la práctica de la medicina y de la investigación en este campo. La progresiva digitalización del sector ha hecho que durante las últimas dos décadas haya aumentado exponencialmente el tipo de datos utilizados por los servicios de salud, incluyendo ahora información personal sobre los individuos procedente de diversas fuentes a veces no directamente relacionadas con la salud, como, por ejemplo, datos sobre el entorno del paciente, sobre su estilo de vida, socioeconómicos o comportamentales.

Qué duda cabe que el potencial de los macrodatos y la inteligencia artificial aplicados al cuidado sanitario es inmenso, tanto en términos de la velocidad y precisión a la hora de realizar diagnósticos, como en la mejora de la calidad del servicio prestado o el apoyo a la toma de decisiones. Sin embargo, este uso de información personal puede acarrear problemas éticos, que es necesario poder identificar y controlar mediante una legislación adecuada, que proteja los derechos de la ciudadanía.

Uno de los principales riesgos que conlleva la utilización de grandes colecciones de datos es la posibilidad de vulnerar el derecho a la privacidad de los individuos. El compartir datos o transferir datos personales cedidos por los pacientes -o generados dentro de un proceso sanitario-, puede llevar a que la información recabada sea utilizada para discriminar o para cometer injusticias, e incluso, si caen en malas manos, pueden utilizarse para cometer actos delictivos. En este sentido, resulta fundamental establecer protocolos y normas estrictas sobre quién puede acceder a los datos personales y bajo qué circunstancias a lo largo de todo el ciclo de vida de la inteligencia artificial.

La Organización Mundial de la Salud (OMS) alerta del peligro adicional de que las instituciones encargadas de prestar los servicios de salud recojan más datos de carácter personal que los que requiere el algoritmo para funcionar, y que ese “superávit de datos”, sea compartido con terceros, por ejemplo, agencias gubernamentales, para llevar a cabo acciones que puedan vulnerar los derechos humanos, como pueden ser la vigilancia y el control de la población, o la aplicación de castigos individuales. La OMS pone de ejemplo de esto la aplicación para rastrear contactos de COVID-19 que puso en marcha el Gobierno de Singapur, cuyos datos podían ser accedidos en el marco de una investigación criminal.

Otro de los grandes problemas que presenta el uso de big data en la inteligencia artificial es la posible aparición de sesgos no deseados en los resultados que ofrecen los algoritmos, algo que puede originarse por la mala calidad de la información utilizada. Un estudio llevado a cabo por Marzyeh Ghassemi en el MIT ha descubierto que los datos utilizados en medicina siempre llevan algún tipo de sesgo de sexo, género o raza, tanto los que proceden de dispositivos clínicos, los asociados a las intervenciones, como los que tienen su origen en las interacciones entre pacientes y personal sanitario. Al alimentar con estos datos el machine learning, las conclusiones a las que llegan los algoritmos reproducen esos sesgos. En la práctica el estudio ha desvelado que los modelos de inteligencia artificial sanitarios analizados funcionan de forma diferente en función del tipo de paciente, y ofrecen resultados sesgados en función del género y la raza.

Resulta primordial que un algoritmo relacionado con el cuidado de la salud resulte lo suficientemente comprensible, transparente y explicable para el personal sanitario que debe trabajar con él, que son aquellos que deben estar al tanto de los datos y variables que ha utilizado el sistema para elaborar su resultado. El problema es que a menudo un sistema de machine learning puede ser difícil de comprender por sus usuarios, y difícil de explicar por los técnicos que lo han creado. En este sentido, según apunta un informe de DigitalES, se ha comprobado que el personal sanitario prefiere sacrificar un poco de precisión con tal de que el sistema sea más entendible.

Por otro lado, la inteligencia artificial debe ser robusta, es decir, tiene que tener una solidez técnica y haber sido desarrollada con un enfoque preventivo de riesgos, de forma que se comporte siempre como se espera que lo haga, minimizando los daños involuntarios e imprevistos.

Y, en última instancia, en la aplicación de algoritmos inteligentes en la prestación sanitaria siempre debe regir la supervisión humana.

 

 

 
Google Analytics Alternative