lunes, 29 de mayo de 2023

Tendencias de evolución del mercado de trabajo

 


El futuro del trabajo a medio plazo se verá afectado directa o indirectamente por una serie macrotendencias, algunas de las cuales tienen que ver con las nubes que se ciernen sobre la situación internacional. La consultora GlobalData identifica la crisis de las cadenas de suministro internacionales entre las más relevantes. La pandemia del COVID-19 y sus efectos persistentes en la economía china, y, posteriormente, el conflicto ruso ucraniano, han creado problemas de abastecimiento y subidas disparadas de precios en sectores como la energía, la química, productos metálicos o la alimentación, entre muchos otros.

Una de las consecuencias directas de esta disrupción de las redes de abastecimiento globales es la relocalización de la producción desde los países emergentes de vuelta a los países de origen, como una forma de garantizar la autosuficiencia, por lo menos en lo relativo a la fabricación de bienes esenciales. GlobalData afirma que en los últimos dos años tres cuartas partes de las empresas de Reino Unido han aumentado la proporción de proveedores locales. Hay quien asocia esta tendencia con una inversión del proceso de globalización que lleva en marcha tres décadas, de forma que avanzaríamos hacia un mundo menos conectado que el actual, en el que primarían de nuevo los estados fuertes y las soluciones locales a los problemas, caracterizado por barreras fronterizas que limitan el flujo de personas y mercancías. De hecho, el peligro de la desglobalización fue uno de los temas que abordó el Foro Económico Mundial en su reunión de Davos de mayo de 2022.

Otra gran tendencia actual que afecta al mundo de las organizaciones, y que puede tener impacto sobre el trabajo, es el cumplimiento de criterios ESG (environmental, social and governance), es decir, los factores ambientales, sociales y de gobierno corporativo que se toman en cuenta a la hora de invertir en una empresa. Más directamente en el terreno del empleo, GlobalData también identifica como una tendencia postpandemia el abandono en masa de la fuerza laboral, lo que se ha dado en llamar “la gran renuncia” (Great Resignation), que implica que en algunos países queden cada vez más puestos de trabajo sin cubrir. El FMI calcula que, en EE. UU., Reino Unido, Canadá y Australia, había a finales de 2021 entre el 50% y el 80% más plazas vacantes que antes de la crisis sanitaria.

Uno de los grandes temas del ámbito laboral que emerge en la década pasada es la gig economy, una economía basada en plataformas digitales, bajo demanda centrada en trabajos esporádicos y de corta duración, que son desempeñados por personas que reciben una remuneración por cada una de las tareas realizadas. Aunque se planteaba como un gran yacimiento de empleo, en los últimos tiempos las empresas de este sector se han tenido que enfrentara aspectos legales que acaban con el vacío normativo en el que han basado su despegue. Así, los gobiernos de distintos países han intervenido para garantizar los derechos de los trabajadores de estas plataformas, como fue el caso de Países Bajos con la empresa de reparto de comida Deliveroo, o España, con el caso Glovo en 2020, y la denominada Ley Rider, que garantiza los derechos de los repartidores. Desde el ámbito comunitario se está trabajando igualmente en una directiva para mejorar las condiciones de trabajo en plataformas digitales. El tiempo dirá si la cobertura de unas condiciones de trabajo para los empleados no supondrá el fin de la rentabilidad de este tipo de empresas, tradicionalmente basada en el todo vale.

A las tendencias geoeconómicas, sociales y políticas hay que sumar el efecto que está teniendo el desarrollo tecnológico en el mercado de trabajo. De nuevo GlobalData nos ofrece una panorámica en este sentido, cuando plantea un marco para el futuro del trabajo caracterizado por los siguientes cinco componentes: visualización, automatización, interpretación, colaboración y conectividad.

El primer elemento mencionado, la visualización, hace referencia a que el trabajador digital deberá utilizar gráficos e imágenes para presentar o transmitir la información, dado que se verá obligado a manejar, analizar e interpretar grandes volúmenes de datos. De esta forma, cobran cada vez más relevancia tecnologías como la realidad aumentada y virtual, los gemelos digitales y las herramientas de visualización de datos. Se trata de un camino que se espera que acabará por integrar los puestos de trabajo en el metaverso.

Luego se menciona la automatización como una forma de que las máquinas complementen el trabajo humano, y que está relacionada con los robots industriales, los vehículos autónomos, la impresión aditiva o los drones. Por otra parte, la interpretación trata de la toma de decisiones en entornos muy complejos haciendo uso de ingentes cantidades de datos, y aplicando tecnologías de inteligencia artificial, especialmente, el aprendizaje automático. El ámbito de la colaboración utiliza la tecnología para facilitar el trabajo en equipo y las relaciones con los clientes, como las plataformas CRM, y, finalmente, la conectividad implica usar redes para mejorar la comunicación y los procesos, con tecnologías como las que dan soporte al internet industrial, el estándar 5G y el internet de las cosas en general.

GlobalData destaca también el metaverso como tendencia a la que se dirige la evolución del puesto de trabajo, dado que constituirá un entorno virtual de colaboración idóneo para el trabajo en equipo. No obstante, reconoce que, aparte de pioneras como Accenture o Havas que empiezan a generar experiencias al respecto, la gran parte de las empresas está a la expectativa hasta ver cómo va evolucionando esta tecnología y qué posibilidades reales ofrece.

Finalmente plantea como tendencia el trabajo híbrido -combinar teletrabajo con trabajo presencial- como un modelo que ha venido para quedarse tras la pandemia.

 

 

martes, 16 de mayo de 2023

La programación al alcance de todos

 


A aquellos que estudiábamos en la década de los ochenta del siglo pasado se nos repetía con insistencia que el ordenador iba a ser una herramienta básica para cualquier ocupación que fuésemos a desempeñar. Los más inquietos comenzaron a apuntarse a cursos de programación de los lenguajes más en boga entonces -Fortram, Cobol, Basic…-, o, cuando menos, a recibir formación para aprender a manejar el complejo software de oficina que se utilizaba en la época, como los procesadores de textos WordStar y WordPerfect o el gestor de bases de datos dBASE, que requerían el conocimiento de numerosos comandos para su manejo con cierta agilidad. Sin embargo, con el cambio de década la llegada de Windows de Microsoft trajo consigo la revolución de la informática de usuario. Los entornos de trabajo gráficos democratizaron el uso del ordenador, de forma que ya no hacía falta saber nada para escribir un texto o crear una hoja de datos -por lo menos para realizar las tareas más básicas-, pues todo se llevaba a cabo pinchando con el ratón de forma intuitiva iconos y botones virtuales. El farragoso sistema operativo MS-DOS, con su pantalla negra y sus líneas de comandos, quedó oculto tras un agradable y colorista entorno de trabajo que permitía hacer lo mismo -crear, borrar, mover archivos y carpetas- con sólo hacer clic.

Esto viene a cuento porque, salvando las distancias, nos encontramos actualmente en una situación similar a la que tuvo lugar en la primera década de los noventa. También hoy en día recibimos el bombardeo recurrente de mensajes que nos instan a aprender a programar como una condición necesaria para poder ocupar casi cualquier puesto de trabajo. Y, también, en paralelo se está fraguando otra democratización de la informática, otra forma de abrir sus posibilidades a todo el mundo sin la necesidad de tener una formación técnica, que cobra forma a través dos tendencias: el low-code y el no-code.

El primer caso, el low-code, se refiere al desarrollo de software que requiere muy poca programación. Se trata de plataformas donde podemos crear aplicaciones y programas a partir de bloques de código prediseñados, aunque también podemos añadir nuestras propias líneas de código sobre el generado de forma automática. Aparte de simplificar y agilizar el proceso de gestación de un sistema informático, reduce sobremanera el nivel de conocimientos técnicos que hay que tener para hacerlo.

El no-code va un paso más allá y permite crear productos informáticos sin tener que escribir ni una línea de código. Al igual que en el caso anterior, es una opción que se ofrece a través de plataformas digitales en las que el usuario se enfrenta a una interfaz visual en la que puede coger componentes de programación preconfigurados y añadirlos a su objeto de desarrollo.

Un buen ejemplo de esta filosofía reduccionista es el popular CMS (Content Management System) WordPress, una plataforma para la creación tanto de webs como de medios digitales. Su versión más sencilla, basada en plantillas y módulos prefabricados, pone en manos de cualquiera la posibilidad de crearse un sitio en internet. No obstante, es una solución de código abierto que permite a aquellos con conocimientos de programación ver el código fuente y modificarlo según sus necesidades para personalizar la web creada.

Las plataformas low-code y no-code presentan muchas ventajas, empezando porque permiten que cualquiera pueda crear programas y aplicaciones sin necesidad de programar (o con un mínimo de código), y este factor es una palanca relevante de cara a la digitalización de las empresas. Además, permite generar desarrollos informáticos de una forma más ágil y rápida, dado que escribir código es algo lento y farragoso, especialmente para aquellos no muy familiarizados con esta disciplina. Finalmente, el uso de este tipo de plataformas implica un ahorro de costes para las organizaciones, ya que evitan mucha de la inversión que conlleva la programación tradicional.

lunes, 10 de abril de 2023

El futuro prometedor de los medios sintéticos

 


Recientemente hemos podido ver a Lola Flores, fallecida en 1995, protagonizando un anuncio de televisión de la marca de cerveza Cruzcampo. La imagen de la Faraona se dirige a nosotros desde la pantalla con frescura, con la voz y el acento con los que la recordamos. Algo similar ocurre en la película de la saga Star Wars Rogue One, cuando presenta a la princesa Leia tan joven como cuando se rodó la primera entrega de la serie, en 1976, aunque la actriz Carrie Fisher que daba vida al personaje tenía en ese momento -2016- sesenta años (de hecho, murió en diciembre ese mismo año). Otro tanto ha ocurrido con el personaje de Luke Skywalker interpretado por Mark Hamill, que en la serie de Disney The Mandalorian estrenada en 2019, vuelve a aparecer tan joven como en la primera trilogía de la década de los setenta. Se trata de tres ejemplos de lo que se denomina medios sintéticos (synthetic media), la aplicación de las tecnologías digitales para producir contenidos mediáticos artificialmente.

A pesar de que una de las aplicaciones más conocidas y alarmantes de los medios sintéticos es el deep fake con fines delictivos -generalmente la creación de vídeos falsos para desacreditar a personajes públicos-, su futuro se presenta muy prometedor en numerosos campos como el periodismo, el marketing o la educación. No obstante, se trata de un fenómeno que va mucho más allá.

Hablamos de medios sintéticos para referirnos a cualquier formato de contenido digital creado o modificado mediante algoritmos, especialmente a través de algoritmos de inteligencia artificial. En concreto, incluye la síntesis de imagen, de audio y del habla, así como la generación de música y del lenguaje natural. La verdadera innovación consiste en que la creación de contenidos mediáticos pasa de ser física a completamente digital. La tecnología está transformando la forma en que nos comunicamos mediante nuevas formas de crear, consumir y contextualizar el contenido.

Más allá de los usos delictivos y peligrosos, los medios sintéticos abren la puerta a una verdadera era de innovación en la generación de contenidos mediáticos. Si nos centramos en el vídeo, la inteligencia artificial permite crear piezas de forma más rápida y fácil que con la tecnología tradicional, y además por una fracción del coste de producción. 

El vídeo sintético puede, por ejemplo, hacer más asimilable el contenido que en un texto resulta tedioso y complejo, como, por ejemplo, las características de un producto financiero o de un seguro. Se trata de utilizar las herramientas ofrece la inteligencia artificial para personalizar el soporte del mensaje, de forma que un avatar puede llamar al usuario por su nombre, utilizando un rostro o una voz que hagan la comunicación más cercana. Las posibilidades que ofrecen estas tecnologías son inimaginables. Por ejemplo, la compañía Vologram proporciona el convertir cualquier vídeo convencional en una pieza de realidad virtual o realidad aumentada. Otro caso interesante es el de la plataforma Replika, que permite al usuario crearse un compañero virtual a través de la inteligencia artificial. También los algoritmos inteligentes han hecho su entrada en las bellas artes, como es el caso de los sistemas DALL-E 2 y Midjourney, que generan obras gráficas a partir de descripciones de texto.

Empresas vanguardistas como Synthesia, Tavus, Hour One, D-ID o Colossyan se dedican a la creación de vídeos sintéticos bajo demanda -generalmente con fines comerciales-, sin la necesidad de contar con actores y costosos equipos de rodaje, dado que están basados en avatares generados con inteligencia artificial, y voces desarrolladas para la ocasión.

La inteligencia artificial también está llamada a revolucionar la atención al cliente, al utilizar bots conversacionales cada vez más perfectos y realistas. Un ejemplo un tanto pintoresco de esto es el que presenta el Museo Dalí de St. Petersburg, Florida, en los Estados Unidos, basado en una experiencia de realidad virtual, bautizada como Dalí Lives, gracias a la cual el público puede hablar con el genial pintor catalán, que aparece representado como cuando tenía la edad de 50 años.

A lo largo de esta década, los medios sintéticos van a ir extendiéndose por todos los sectores y actividades, adoptando formas y soluciones que hoy no podemos ni concebir. Se van a convertir en la llave que abre un universo de posibilidades sin límites y van a proyectar el uso de la inteligencia artificial mucho más allá que la esfera de la comunicación. Urge que el desarrollo de esta tecnología vaya acompañado de la creación de una normativa que regule los casos de uso, y de las herramientas necesarias para poder identificar y denunciar su aplicación con fines delictivos o dañinos.

martes, 21 de marzo de 2023

El internet de las cosas ahora vigila el comportamiento humano

 


El internet del comportamiento (IoB en sus siglas en inglés) es una aplicación del IoT que persigue monitorizar la conducta de las personas con el fin de establecer patrones de comportamiento. Se trata de una tecnología que puede revolucionar el conocimiento que tienen las empresas de sus clientes y la personalización de los productos y servicios.

El internet de las cosas (IoT) es una de las tecnologías protagonistas de la revolución digital que estamos viviendo. El término, que fue acuñado en el MIT por Kevin Ashton en 1999, define la interconexión de objetos y dispositivos en las redes para que recojan grandes cantidades de información que, una vez procesada y analizada, manifiesta una utilidad concreta. Se trata de terminales como pueden ser sensores, cámaras, termostatos, termómetros, altavoces inteligentes, instrumental para medir la calidad del aire de una ciudad, y, en general, cualquier aparato susceptible de recoger información.

El crecimiento del IoT es imparable: Ericsson vaticina que en 2027 habrá globalmente 30 200 millones de conexiones a internet, una cifra que supone un incremento del 106% sobre la cantidad que había en 2021. Una de las principales aplicaciones del internet de las cosas es la industria, el denominado en inglés industrial internet of things (IIoT), que, en combinación con aspectos como la inteligencia artificial, la robótica o el blockchain, está transformando completamente la fábrica, tal y como la conocíamos. En este sentido, la consultora OMDIA calculó que en el año 2030 habrá mundialmente alrededor de 4 400 millones de dispositivos conectados en las plantas manufactureras, de las cuales más de la mitad estarán localizados en Asia.

Hasta ahora, el internet de las cosas se ha centrado en monitorizar y analizar sistemas, por ejemplo, el tráfico en una ciudad, la seguridad de unas instalaciones o el funcionamiento de una planta de producción, entre las innumerables aplicaciones que tiene esta tecnología. Recientemente, se habla de aplicar esta filosofía a los humanos con el fin de analizar nuestro comportamiento. Se trata de lo que se ha denominado Internet of Behaviour (IoB) o internet del comportamiento.

El IoB utiliza big data para monitorizar la forma en que el ser humano se relaciona con la tecnología, analizándola, para, en su caso, modificarla. Se trata de una disciplina que utiliza el internet de las cosas, pero, en última instancia, la información recopilada está generada por humanos interactuando con tecnología, bien a través de terminales como ordenadores, smartphones, wearables, altavoces inteligentes o automóviles conectados, como por medio de la navegación y de las acciones que llevamos a cabo en las redes. Esos macrodatos son analizados desde la perspectiva de la psicología conductual con la finalidad de establecer patrones de comportamiento. Evidentemente, una de las primeras aplicaciones del internet de comportamiento que nos viene a la cabeza es el marketing: supone una herramienta de primer orden para conocer qué mueve al consumidor y al cliente potencial a tomar las decisiones que lleva a cabo, y puede contribuir a modificar sus hábitos de compra en beneficio de un determinado producto o servicio.

En octubre de 2019, la consultora Gartner predijo que para 2023 el 40% de las personas del mundo estarían monitorizadas a través de IoB, con el fin de mejorar la prestación de los servicios y optimizar el beneficio de las empresas. También reconoce este informe que a largo plazo todo el mundo, en mayor o menor medida, estará expuesto a alguna forma de internet del comportamiento, pues será algo que estará perfectamente contemplado en la legislación vigente y estará integrado en la cultura social del momento.

En principio, el principal riesgo que presenta el IoB es que una brecha de seguridad ponga los datos y la información de las personas en manos criminales. Es por ello, que garantizar la inquebrantabilidad de los servicios, los sistemas y las aplicaciones que se nutren de big data sobre el comportamiento debe constituir una prioridad. Otro tema relevante es exigir transparencia en el tipo de datos que recogen las organizaciones que llevan a cabo IoB, y el uso que hacen de ellos, especialmente, cuando se trata de aplicaciones que no requieren la autorización del usuario. 

Pero, sin duda, el mayor peligro es la posibilidad de que las acciones basadas en el internet del comportamiento resulten excesivamente intrusivas por el usuario. Hace años, la empresa estadounidense Target podía elaborar un “índice de predicción de embarazo” en función de la combinación de productos que adquirían sus clientas. Las estadísticas de ventas de la compañía establecían que las mujeres embarazadas eran más proclives a comprar 25 productos concretos. En concreto, podían establecer con bastante fiabilidad hasta la fase del embarazo en la que se encontraba cada mujer. En base a esta información, la empresa mandaba a estas clientas cupones de descuento en productos en función de su estado. Un día, la sucursal de Target de Minneapolis recibió la visita de un padre enfurecido porque le habían enviado a su hija adolescente cupones de descuento para ropa de bebé y cunas, y este acusaba a la compañía de animar a su hija a quedarse embarazada. El dependiente pidió perdón en nombre de la organización, ignorante de qué iba aquello, y días después llamó por teléfono al airado progenitor para reiterar sus excusas, y, cuál no sería su sorpresa, cuando el padre le dijo que, tras hablar con su hija, esta le había confesado que, efectivamente, estaba en estado. La empresa lo había sabido antes que la propia familia.

 

 

miércoles, 8 de marzo de 2023

Las ciudades espejo construidas con datos

 


“Los antiguos construyeron Valdrada a orillas de un lago con casas todas de galerías una sobre otra y calles altas que asoman al agua parapetos de balaustres. De modo que al llegar el viajero ve dos ciudades: una directa sobre el lago y una de reflejo, invertida. No existe o sucede algo en una Valdrada que la otra Valdrada no repita, porque la ciudad fue construida de manera que cada uno de sus puntos se reflejara en su espejo, y la Valdrada del agua, abajo, contiene no solo todas las canaladuras y relieves de las fachadas que se elevan sobre el lago, sino también el interior de las habitaciones con sus cielos rasos y sus pavimentos, las perspectivas de sus corredores, los espejos de sus armarios.”
Italo Calvino. Las ciudades invisibles

El concepto de gemelo digital ya está muy extendido en el ámbito de la industria. Consiste básicamente en construir una réplica virtual de un sistema – por ejemplo, una máquina, un motor, una línea de producción- y alimentarla con datos en tiempo real, recogidos del elemento físico original. Una posible aplicación podría ser el prototipo de un automóvil, donde el gemelo digital debe reproducir cada parte del vehículo en 3D y replicar el mundo físico en el que circula de una forma tan precisa que un conductor de la réplica virtual reciba las mismas respuestas que si pilotase el modelo real. La utilidad de esta tecnología es innegable en aspectos como el mantenimiento predictivo, pues con el modelo virtual podemos simular de manera fiel las situaciones y condiciones a las que se puede ver sometido un elemento, y estudiar su reacción, sin comprometer la seguridad ni el buen funcionamiento de este.

Sin embargo, los gemelos digitales no se limitan al ámbito de la producción manufacturera y la ingeniería industrial, y han llegado incluso al terreno de la planificación y la gestión urbanas. Hoy en día hablamos de ciudades gemelas digitales para referirnos a modelos que simulan algunos de los procesos que tienen lugar en un núcleo de población, elaborados en base a la información real que este genera. Se trata de una filosofía estrechamente relacionada con la smart city, la inteligencia del dato aplicada a la gestión urbana. Uno de los paradigmas en este campo es el proyecto Virtual Singapore, que persigue la creación de un modelo tridimensional dinámico y colaborativo de dicha ciudad.

El modelo de la ciudad estado asiática es uno de los pioneros en este campo, puesto que comenzó a erigirse en 2014. Está compuesto por más de tres millones de imágenes tomadas de las calles, además de 160 000 más capturadas desde el aire, y miles de millones de puntos de recogida de datos. Todo ello configura un mapa en tres dimensiones que supone más de 100 terabits de información.

El proyecto de Singapur tiene como objetivo promover el desarrollo sostenible de la isla. A modo de ejemplo, un reciente experimento con el modelo buscaba calcular la cantidad de energía solar podría recoger la ciudad en función de la disposición de sus edificios verticales y el estudio del nivel de insolación que recibe cada tejado y cada fachada. Igualmente, dentro de la meta de bajar la temperatura media del núcleo urbano, el modelo sirve para estudiar cómo cada nueva construcción puede afectar a las rachas de viento y las sombras sobre la superficie.

Las ciudades gemelas digitales tienen su origen en el concepto de los modelos espejo formulado por el profesor de la Universidad de Michigan Michael Grieves en 2006: erigir modelos digitales en el espacio virtual, que interactúan con entidades físicas, y que describen el ciclo de vida de estas. En 2017, en el seno de la CAICT, la Academia China de la Tecnología de la Información y las Comunicaciones, esta técnica se concibe aplicada por primera vez para la planificación y construcción de las ciudades inteligentes, mediante el diseño de un modelo holográfico que recree virtualmente la urbe de forma que pueda ser analizada en tiempo real, convirtiéndose así en una herramienta de gestión urbana.

Estos modelos virtuales urbanos parten de una red ubicua de recogida de información -mediante el internet de las cosas-, que suministra datos en tiempo real y de forma continua sobre temas como el tráfico, los parámetros medioambientales o las operaciones urbanas, y los sitúa en un mapa virtual. El ejercicio cartográfico permite analizar los problemas de la ciudad, identificando patrones de funcionamiento gracias a los algoritmos de gestión de big data, y ofrecer conclusiones y recomendaciones de apoyo a la toma de decisiones de las autoridades. La recreación virtual, en suma, presenta una panorámica completa del ciclo de vida de los servicios de la ciudad física, abriendo la puerta a la optimización de su funcionamiento y a promover un desarrollo económico sostenible.

Los gemelos digitales urbanos redundan en la mejora de las condiciones de vida de los ciudadanos, y también en el ahorro de costes de las políticas públicas. El Foro Económico Mundial calcula que en 2030 esta tecnología supondrá ahorros de hasta 280 000 millones de dólares en las inversiones y gastos asociados a la planificación urbana.

martes, 21 de febrero de 2023

El pueblo inteligente como solución a la despoblación

 


Uno de los grandes problemas que enfrenta España es la falta de articulación del territorio. La población se concentra en núcleos urbanos de gran tamaño muy densamente poblados, y, en general, no abundan los enclaves de tamaño mediano que contribuyan a distribuirla a lo largo y ancho del del mapa, como ocurre en otras naciones europeas. A modo de ejemplo, en nuestro país existen treinta ciudades de más de 200 000 habitantes, seis de las cuales superan el medio millón. En cambio, Francia –con un 40% más de población- tan solo cuenta con once ciudades de más de 200 000 habitantes, y solamente Lyon, Marsella y París pasan del medio millón. Por su parte, Italia, con casi un tercio más de población, tiene dieciséis núcleos urbanos de más de 200 000, mientras que Reino Unido, con 67 millones de habitantes, presenta veintidós.

El proceso de despoblación del medio rural viene de muy atrás, aunque se ha acelerado sobremanera en los últimos treinta años, en parte (aunque no solo), por la revolución que han conocido las infraestructuras de comunicaciones del país. Paradójicamente, el haber conectado con vías rápidas los distintos puntos de nuestra geografía, tanto férreas como carreteras, ha contribuido a aislar grandes zonas del interior de la península. Por una parte, los grandes trazados del tren de alta velocidad y la red de autopistas han convertido las rutas en no lugares, siguiendo la terminología del antropólogo francés Marc Augé (Los «no lugares». Espacios del anonimato. Una antropología de la Sobremodernidad, 1992).

Las carreteras de antes atravesaban las localidades y establecían una conexión entre el viajero y el espacio que recorría; ahora, “el paisaje toma sus distancias, y sus detalles arquitectónicos o naturales son la ocasión para un texto, a veces adornado con un dibujo esquemático”. Los ferrocarriles, incluso los de largo recorrido, antiguamente paraban en los pueblos, “las vías férreas penetraban en la intimidad de la vida cotidiana” de los lugares que atravesaban; hoy, los trenes pasan sin parar a tanta velocidad que apenas podemos leer el nombre de las estaciones que dejamos atrás. Las vías de comunicaciones ultrarrápidas han condenado al aislamiento a amplias zonas de nuestra geografía, que se han visto excluidas de las rutas que antaño vertebraban el territorio.

Por otro lado, los avances en las últimas décadas del transporte por carretera han supuesto que los grandes núcleos urbanos y las capitales de provincia han canibalizado una parte importante de la actividad económica del mundo rural. Frente a las carreteras de doble sentido de antes, autovías de varios carriles; frente al concepto del coche familiar como un símbolo de estatus, la posibilidad actual de que todo el mundo adquiera vehículos cada vez más rápidos y potentes. Todo ello ha llevado a que el medio rural esté mejor conectado con las ciudades, lo que, lejos de beneficiarle, ha condenado su actividad comercial. Antiguamente, recorrer distancias de entre 50 y 100 kilómetros para pasar una tarde de compras o de ocio era algo impensable por el tiempo que llevaba el desplazamiento. Hoy en día se trata de algo que hace la gente que vive en los pueblos de forma habitual, con el consiguiente efecto negativo sobre el comercio y la economía locales.

Lo cierto es que el medio rural se muere, con una población cada vez más escasa y envejecida, y sin una economía sostenible más allá de las actividades del sector primario. Las propuestas de revitalización pasan generalmente por fórmulas relacionadas con el turismo rural y con la explotación de productos regionales, pero no siempre resultan alternativas sólidas que generen empleo y oportunidades laborales suficientes que puedan frenar la despoblación. Recientemente, y especialmente después de la pandemia, se ha planteado la digitalización como palanca de crecimiento para estas regiones. De hecho, se ha llegado a acuñar el término smart village (pueblo inteligente) como espejo rural de las smart cities. Sin embargo, cualquier solución en este sentido debe tener en cuenta que la tecnología, por si sola, no resuelve nada, no es un remedio universal, y siempre debe como parte de políticas más amplias de desarrollo.

En 2017, el documento EU Action for Smart Villages incluía una definición de pueblo inteligente: “son zonas y comunidades rurales que aprovechan sus puntos fuertes y sus activos, así como las nuevas oportunidades, para la creación de valor añadido, y donde se refuerzan las redes tradicionales y nuevas por medio de la tecnología de comunicación digital, de las innovaciones y la mejora de la utilización del conocimiento en beneficio de los habitantes”.

En este sentido, el debate que tuvo lugar dentro del grupo de trabajo de la Red Europea de Desarrollo Rural (ENRD) trabajó una mayor definición del término inteligente, como una forma de aportar conocimiento sobre la transformación digital del medio rural. Una de las principales conclusiones al respecto es que las tecnologías son un medio, y no un fin, para dar respuesta a los problemas concreto que presenta cada territorio. En este sentido, deben utilizarse solamente cuando resulten apropiadas y necesarias.

Por otra parte, se destaca la necesidad de que los propios actores locales tomen la iniciativa para solucionar los problemas a los que se enfrenta su territorio, y que construyan alianzas entre sí, es decir, entre las instituciones públicas, el sector privado y el municipio. Asimismo, es necesario ampliar el marco de relaciones más allá del municipio, y establecerlas con otros municipios rurales y con los núcleos urbanos. Por último, hay que tener muy presente que no existe un modelo estándar para todos los territorios, y que la transformación digital debe adoptar una visión local, que aproveche los recursos propios y endógenos.

viernes, 3 de febrero de 2023

Del conocimiento al dataísmo: cuando abdicamos en la inteligencia artificial

 


Inteligencia artificial ha sido el término del año 2022 para la Real Academia de la Lengua. Tras vivir un largo invierno en letargo, esta disciplina tecnológica ha vuelto a coger carrerilla en la década pasada gracias especialmente a los avances en la capacidad para recoger y procesar inmensas cantidades de datos, el denominado big data. De hecho, la rama de la inteligencia artificial que realmente despunta es el aprendizaje automático o machine learning, que consiste precisamente en que los algoritmos aprenden de forma autónoma a base de consumir ingentes volúmenes de datos. Para algunos expertos, como Gary Marcus, profesor de psicología y neurociencia en la Universidad de Nueva York, esta dependencia de los macrodatos es un obstáculo para poder llegar a la inteligencia artificial general, es decir, aquella que funciona de forma similar al cerebro humano. Para otros, como Judea Pearl, el machine learning solamente sabe establecer correlaciones para crear patrones, pero no entiende el principio de causalidad, algo inherente a la inteligencia humana (de hecho, publicó en 2018 un libro entero sobre la relación causa y efecto: The book of whyEl libro del porqué).

El año pasado se puso de moda la aplicación online ChatGPT, un sistema basado en el modelo de lenguaje por inteligencia artificial GPT-3, que, a modo de oráculo moderno, mantiene conversaciones eruditas con todo aquel que se acerca a preguntarle. Sin embargo, aparte de estos ejemplos más o menos pintorescos, la inteligencia artificial ya está entre nosotros, en aplicaciones tan prosaicas como en la función de texto predictivo de nuestros teléfonos móviles o las recomendaciones personalizadas de serie que nos ofrece Netflix.

Todos estos servicios y aplicaciones son inmensos devoradores de datos, hasta el punto de que ya se habla de la economía del dato, y se considera el dato un factor de producción más dentro del proceso de creación de valor. A partir de ahora, todo comienza a regirse por datos, y, para el filósofo coreano Byung-Chul Han, el hombre “abdica como productor del saber y entrega su soberanía a los datos”.

La de Han es una de las voces más críticas que existen en la actualidad con los valores y el funcionamiento de esta sociedad del siglo XXI, que hemos denominado digital. A su juicio, la cultura de autosuperación y autoexigencia que guía al trabajador de esta época ha sido una maniobra brillante de pensamiento neoliberal para conseguir que nos explotemos a nosotros mismos. También critica la hiperconectividad e hiperactividad que sufrimos en esta sociedad, y defiende las bondades del “no hacer nada”, de la mera contemplación, y se muestra reacio a la digitalización, porque considera que ha desmaterializado nuestras vidas alejándonos de la realidad física, de manera que rompe una lanza por volver a poseer objetos físicos y por realizar trabajos manuales, como una forma de volver a conectar con el mundo.

En su libro La desaparición de los rituales (2019) dedica un capítulo al fenómeno que ha bautizado como dataísmo. El uso generalizado de big data ha desbancado al ser humano como productor de saber, de forma que “ahora el saber es producido maquinalmente”. La mente no puede trabajar con esas enormes cantidades de datos, pero los procesadores informáticos sí, porque no intentan comprender, sino que se limitan a calcular. La rapidez del trabajo algorítmico se basa en que las máquinas no piensan, solamente realizan tareas aditivas con los datos. El pensar requiere tiempo porque se basa en una narración y tiene un componente lúdico, que es destruido por la presión para producir más rápido.

Byung-Chul Han concluye que el paso al dataísmo es el paso de la narración a la mera enumeración. Y sentencia que, aunque el pensar se asimila al cálculo, “los pasos del pensar no son fases del cálculo que prosigan con lo igual. Son más bien jugadas o pasos de baile, que generan algo distinto, un orden completamente nuevo de cosas”.

 
Google Analytics Alternative