viernes, 3 de febrero de 2023

Del conocimiento al dataísmo: cuando abdicamos en la inteligencia artificial

 


Inteligencia artificial ha sido el término del año 2022 para la Real Academia de la Lengua. Tras vivir un largo invierno en letargo, esta disciplina tecnológica ha vuelto a coger carrerilla en la década pasada gracias especialmente a los avances en la capacidad para recoger y procesar inmensas cantidades de datos, el denominado big data. De hecho, la rama de la inteligencia artificial que realmente despunta es el aprendizaje automático o machine learning, que consiste precisamente en que los algoritmos aprenden de forma autónoma a base de consumir ingentes volúmenes de datos. Para algunos expertos, como Gary Marcus, profesor de psicología y neurociencia en la Universidad de Nueva York, esta dependencia de los macrodatos es un obstáculo para poder llegar a la inteligencia artificial general, es decir, aquella que funciona de forma similar al cerebro humano. Para otros, como Judea Pearl, el machine learning solamente sabe establecer correlaciones para crear patrones, pero no entiende el principio de causalidad, algo inherente a la inteligencia humana (de hecho, publicó en 2018 un libro entero sobre la relación causa y efecto: The book of whyEl libro del porqué).

El año pasado se puso de moda la aplicación online ChatGPT, un sistema basado en el modelo de lenguaje por inteligencia artificial GPT-3, que, a modo de oráculo moderno, mantiene conversaciones eruditas con todo aquel que se acerca a preguntarle. Sin embargo, aparte de estos ejemplos más o menos pintorescos, la inteligencia artificial ya está entre nosotros, en aplicaciones tan prosaicas como en la función de texto predictivo de nuestros teléfonos móviles o las recomendaciones personalizadas de serie que nos ofrece Netflix.

Todos estos servicios y aplicaciones son inmensos devoradores de datos, hasta el punto de que ya se habla de la economía del dato, y se considera el dato un factor de producción más dentro del proceso de creación de valor. A partir de ahora, todo comienza a regirse por datos, y, para el filósofo coreano Byung-Chul Han, el hombre “abdica como productor del saber y entrega su soberanía a los datos”.

La de Han es una de las voces más críticas que existen en la actualidad con los valores y el funcionamiento de esta sociedad del siglo XXI, que hemos denominado digital. A su juicio, la cultura de autosuperación y autoexigencia que guía al trabajador de esta época ha sido una maniobra brillante de pensamiento neoliberal para conseguir que nos explotemos a nosotros mismos. También critica la hiperconectividad e hiperactividad que sufrimos en esta sociedad, y defiende las bondades del “no hacer nada”, de la mera contemplación, y se muestra reacio a la digitalización, porque considera que ha desmaterializado nuestras vidas alejándonos de la realidad física, de manera que rompe una lanza por volver a poseer objetos físicos y por realizar trabajos manuales, como una forma de volver a conectar con el mundo.

En su libro La desaparición de los rituales (2019) dedica un capítulo al fenómeno que ha bautizado como dataísmo. El uso generalizado de big data ha desbancado al ser humano como productor de saber, de forma que “ahora el saber es producido maquinalmente”. La mente no puede trabajar con esas enormes cantidades de datos, pero los procesadores informáticos sí, porque no intentan comprender, sino que se limitan a calcular. La rapidez del trabajo algorítmico se basa en que las máquinas no piensan, solamente realizan tareas aditivas con los datos. El pensar requiere tiempo porque se basa en una narración y tiene un componente lúdico, que es destruido por la presión para producir más rápido.

Byung-Chul Han concluye que el paso al dataísmo es el paso de la narración a la mera enumeración. Y sentencia que, aunque el pensar se asimila al cálculo, “los pasos del pensar no son fases del cálculo que prosigan con lo igual. Son más bien jugadas o pasos de baile, que generan algo distinto, un orden completamente nuevo de cosas”.

lunes, 23 de enero de 2023

Web3, un internet descentralizado sobre cadenas de bloques

 


La web del futuro próximo ya no funcionará sobre plataformas digitales de servicios, sino sobre la tecnología blockchain, una base que garantizará las relaciones directas sin intermediación entre los usuarios de la red, y traerá condigo la llegada de un internet más democrático, a juicio de los expertos.

Sir Tim Berners-Lee inventó la World Wide Web que hoy todos conocemos y usamos hacia 1989, mientras estaba empleado en el CERN, la Organizacion Europea para la Investigacion Nuclear. Él solamente buscaba una solución operativa a las limitaciones que encontraba el intercambio de información entre las distintas áreas de su organización y, por aquel entonces, no podía ni imaginar que su idea iba a diseñar la forma que ha tenido internet en los últimos treinta años. La filosofía de la web parecía destinada a cumplir la utopía de darle una voz a cada habitante del planeta gracias a su estructura descentralizada y aparentemente democrática.

Un nuevo giro de guion ocurre entre 2008 y 2010, cuando comienza a hablarse de la web social o web 2.0, una evolución de internet basada en los medios sociales, que convertía a los usuarios en prosumers, es decir, consumidores y a la vez productores de información y de contenidos digitales, pues la simplificación de las herramientas -especialmente blogs y redes sociales- permitían que todo el mundo pudiese publicar y crear sin conocimientos avanzados de ningún tipo. Sin embargo, a la hora de la verdad, la experiencia de la web se ha acabado concentrando a través de unas pocas empresas, que en su mayor parte trafican con los datos personales de las personas exprimiéndolos en su beneficio y en el de sus clientes.

En los últimos tiempos hablamos de que la Web3 va a transformar el marco de relaciones de la red, eliminado el papel de las plataformas, los servidores y la centralización de autorizaciones en la gestión de la información que circula por internet y de los flujos de valor que se generan entre los distintos agentes. Y vuelve el viejo anhelo de navegar por un internet más libre y participativo, en el que todas las personas tengan un protagonismo específico y en el que sus manifestaciones digitales no constituyan materia prima para alimentar algoritmos para la manipulación comercial o ideológica.

El padre de la criptomoneda Ether Gavin Wood, acuñó el término Web3 en 2014, y resume su esencia en una frase sintética: “menor confianza, mayor verdad”. Para él, la confianza constituye básicamente fe, la creencia ciega de que el mundo va a funcionar, pero sin una evidencia real o un argumento racional que lo justifiquen. En sus propias palabras: “la confianza implica que estás depositando algún tipo de autoridad en otra persona, o en alguna organización, y ellos pueden hacer uso de esta autoridad de una forma arbitraria”. Y concluye: “queremos más verdad- a lo que realmente me refiero es a una razón de más peso para creer que nuestras expectativas se cumplirán”. Y la tecnología de las cadenas de bloques aporta la verdad que demanda Wood.

El planteamiento de partida de la Web3 es que los usuarios, a diferencia de lo que ocurre en la actualidad, son los dueños de sus datos personales, tanto los que definen su identidad, como de los que generan a través de las interacciones de las redes, y todos ellos quedarán protegidos en wallets o monederos digitales personales y anónimos. De esta forma, tanto nuestra información personal -de la que ahora se benefician empresas como Facebook o Google-, como otros activos digitales de nuestra propiedad, representados por tokens, están registrados y protegidos en bloques de blockchain. Cualquier operación que hagamos con los mismos quedará igualmente registrada y protegida por la cadena de bloques de posibles alteraciones o manipulaciones. Estamos, por tanto, ante el surgimiento de nuevos esquemas de relaciones sociales y de negocios en las redes.

 

 

lunes, 16 de enero de 2023

Los riesgos de utilizar la inteligencia artificial en la sanidad

 


El dato se ha convertido en el combustible de la economía digital. El cuidado de la salud no es una excepción, y la recolección, el análisis y el uso de datos sanitarios -desde los análisis clínicos, hasta los historiales médicos- es la base de la práctica de la medicina y de la investigación en este campo. La progresiva digitalización del sector ha hecho que durante las últimas dos décadas haya aumentado exponencialmente el tipo de datos utilizados por los servicios de salud, incluyendo ahora información personal sobre los individuos procedente de diversas fuentes a veces no directamente relacionadas con la salud, como, por ejemplo, datos sobre el entorno del paciente, sobre su estilo de vida, socioeconómicos o comportamentales.

Qué duda cabe que el potencial de los macrodatos y la inteligencia artificial aplicados al cuidado sanitario es inmenso, tanto en términos de la velocidad y precisión a la hora de realizar diagnósticos, como en la mejora de la calidad del servicio prestado o el apoyo a la toma de decisiones. Sin embargo, este uso de información personal puede acarrear problemas éticos, que es necesario poder identificar y controlar mediante una legislación adecuada, que proteja los derechos de la ciudadanía.

Uno de los principales riesgos que conlleva la utilización de grandes colecciones de datos es la posibilidad de vulnerar el derecho a la privacidad de los individuos. El compartir datos o transferir datos personales cedidos por los pacientes -o generados dentro de un proceso sanitario-, puede llevar a que la información recabada sea utilizada para discriminar o para cometer injusticias, e incluso, si caen en malas manos, pueden utilizarse para cometer actos delictivos. En este sentido, resulta fundamental establecer protocolos y normas estrictas sobre quién puede acceder a los datos personales y bajo qué circunstancias a lo largo de todo el ciclo de vida de la inteligencia artificial.

La Organización Mundial de la Salud (OMS) alerta del peligro adicional de que las instituciones encargadas de prestar los servicios de salud recojan más datos de carácter personal que los que requiere el algoritmo para funcionar, y que ese “superávit de datos”, sea compartido con terceros, por ejemplo, agencias gubernamentales, para llevar a cabo acciones que puedan vulnerar los derechos humanos, como pueden ser la vigilancia y el control de la población, o la aplicación de castigos individuales. La OMS pone de ejemplo de esto la aplicación para rastrear contactos de COVID-19 que puso en marcha el Gobierno de Singapur, cuyos datos podían ser accedidos en el marco de una investigación criminal.

Otro de los grandes problemas que presenta el uso de big data en la inteligencia artificial es la posible aparición de sesgos no deseados en los resultados que ofrecen los algoritmos, algo que puede originarse por la mala calidad de la información utilizada. Un estudio llevado a cabo por Marzyeh Ghassemi en el MIT ha descubierto que los datos utilizados en medicina siempre llevan algún tipo de sesgo de sexo, género o raza, tanto los que proceden de dispositivos clínicos, los asociados a las intervenciones, como los que tienen su origen en las interacciones entre pacientes y personal sanitario. Al alimentar con estos datos el machine learning, las conclusiones a las que llegan los algoritmos reproducen esos sesgos. En la práctica el estudio ha desvelado que los modelos de inteligencia artificial sanitarios analizados funcionan de forma diferente en función del tipo de paciente, y ofrecen resultados sesgados en función del género y la raza.

Resulta primordial que un algoritmo relacionado con el cuidado de la salud resulte lo suficientemente comprensible, transparente y explicable para el personal sanitario que debe trabajar con él, que son aquellos que deben estar al tanto de los datos y variables que ha utilizado el sistema para elaborar su resultado. El problema es que a menudo un sistema de machine learning puede ser difícil de comprender por sus usuarios, y difícil de explicar por los técnicos que lo han creado. En este sentido, según apunta un informe de DigitalES, se ha comprobado que el personal sanitario prefiere sacrificar un poco de precisión con tal de que el sistema sea más entendible.

Por otro lado, la inteligencia artificial debe ser robusta, es decir, tiene que tener una solidez técnica y haber sido desarrollada con un enfoque preventivo de riesgos, de forma que se comporte siempre como se espera que lo haga, minimizando los daños involuntarios e imprevistos.

Y, en última instancia, en la aplicación de algoritmos inteligentes en la prestación sanitaria siempre debe regir la supervisión humana.

 

 

miércoles, 21 de diciembre de 2022

Más que aprender a programar, pensamiento computacional

 


Una sociedad digital demanda competencias digitales en la población. El uso intensivo de tecnología en todos los ámbitos de la vida cotidiana requiere de la ciudadanía la habilidad para establecer un marco de relaciones con las máquinas que permita sacar un rendimiento óptimo de ellas. Es por ello por lo que una de las mayores preocupaciones institucionales actuales en relación con la transformación en la que nos vemos inmersos está relacionada con la capacitación, con el desarrollo de habilidades digitales para poder aprovechar los beneficios de un mundo conectado a las redes.

Este es un aspecto relevante en cualquier ámbito de nuestras vidas, desde realizar una gestión financiera al cumplimiento de las obligaciones fiscales, o solicitar una cita médica, pues cada vez se van convirtiendo más en actividades virtuales que no requieren una presencia física, pero que implican unos mínimos conocimientos de navegación y operativa a través de internet, que, por desgracia, una parte de la población española todavía no posee. No obstante, es en el terreno laboral donde la capacitación digital se convierte en un factor crítico, pues en un futuro a medio plazo el trabajador humano tendrá que convivir con sistemas inteligentes en prácticamente cualquier tipo de actividad.

En los últimos tiempos se ha hecho mucho hincapié en la necesidad de que la programación informática se convierta en una disciplina curricular desde los niveles educativos más básicos, con el fin de preparar a los alumnos para poder vivir, y, sobre todo, para poder trabajar, en un mundo en el que la tecnología está omnipresente. No cabe duda de que aprender lenguajes de programación nos puede aportar un conocimiento sobre la estructura lógica de funcionamiento de un sistema informático, sin embargo, el enseñar a programar sin más puede resultar limitado e incluso insuficiente.

Por una parte, la vertiginosa evolución de la innovación digital tenderá a convertir en obsoletos con relativa rapidez los lenguajes de programación aprendidos durante la infancia, obligando a las personas a asimilar otros nuevos a lo largo de la vida. Por otra parte, las interfaces de las máquinas que nos permiten interactuar con ellas son cada vez más cercanas a la forma de comunicación humana, y el manejo de los programas y de los dispositivos se vuelve progresivamente más intuitivo, lo que implica que para tareas no muy especializadas la programación puede acabar por no resultar necesaria.

Hoy en día podría ocurrir algo similar a lo que sucedió en los albores de la informática de consumo. Durante la década de los ochenta, se hizo mucho énfasis en la necesidad de aprender a programar, porque los ordenadores personales iban a invadir todos los ámbitos laborales, como efectivamente sucedió en la década siguiente. Pero, a la vez que proliferaban los PC, surgieron los entornos de trabajo gráficos, primero en los equipos Apple y poco después a través de la difusión del entorno Windows de Microsoft, de forma que para manejar aplicaciones informáticas estándar ya no hacía falta picar complicadas líneas de comandos, sino únicamente pinchar elementos gráficos virtuales en la pantalla. Hoy en día los interfaces han dado un salto adelante más permitiéndonos manejar los sistemas con el uso del habla.

Es por ello, que, aparte de la enseñanza más específica sobre programación, cobra especial sentido una aproximación mucho más amplia a la relación entre el ser humano y la máquina, algo que se denomina pensamiento computacional.

El término “pensamiento computacional” fue introducido por primera vez en 2006 por Jeannette M. Wing en un breve artículo titulado Computational Thinking. Ella lo concibe como una disciplina que implica “resolver problemas, diseñar sistemas y comprender el comportamiento humano, utilizando los conceptos que son fundamentales para la informática”. En suma, se trata de una filosofía para plantear y resolver problemas utilizando la lógica por la que se rigen las máquinas. La propia Wing amplió su definición en 2011 en este sentido:

“El pensamiento computacional son los procesos mentales implicados en la formulación de problemas y de sus soluciones, de forma que las soluciones son representadas de tal manera que puedan ser llevadas a cabo con efectividad por un agente procesador de información.”

De esta definición emergen dos conceptos: que se trata de una forma de razonamiento que no depende exclusivamente de la tecnología, y que es una metodología para la resolución de problemas por humanos, por máquinas, o a través de la colaboración de ambos. Básicamente, consiste en plantear un problema siguiendo el proceso operativo de un sistema inteligente.

Por otro lado, Jeannette M. Wing también llegó a subrayar en sus escritos qué es lo que no considera que es el pensamiento computacional. En primer lugar, el pensamiento computacional se basa en conceptualizar, no en programar: describe una forma de pensar con diferentes niveles de abstracción, convirtiéndose en un proceso previo a la programación. Se trata además de una habilidad fundamental del ser humano, que no es rutina mecánica y repetitiva. Aunque menciona a los ordenadores, es una forma de razonamiento específicamente humano de resolver problemas, no se trata de una forma de pensar como computadoras, sino de hacerlo con ellas. El pensamiento computacional complementa y se combina con el pensamiento matemático y con el asociado a la ingeniería. Finalmente, se trata de una disciplina que produce ideas y conceptos que usamos para resolver problemas, pero no está creado para producir, artefactos o software.

El pensamiento computacional puede ser considerada una competencia transversal del currículo educativo en la medida en que apoya el desarrollo de la habilidad para trabajar con la incertidumbre en situaciones complejas, y la necesidad de precisión en la resolución de problemas.

 

 

lunes, 28 de noviembre de 2022

Las paradojas del empleo en la transformación digital

 


Frente a una evolución lineal, que supone pasar de un punto A a un punto B, la disrupción implica pasar de un punto A al caos, por lo menos hasta que un punto B acaba por materializarse. Decimos que el mercado de trabajo ha sufrido una disrupción, especialmente a lo largo de la pasada década, porque las reglas que regían antaño ya no valen en la situación actual, y, sin embargo, todavía no podemos vislumbrar más que esbozos y trazos sueltos de la forma que finalmente adquirirá en el futuro.

Hace más o menos diez años se hizo realmente patente -aunque era algo en marcha desde tiempo atrás- que la automatización iba a tener un impacto transversal sobre el empleo de todos los sectores económicos, y no sólo en aquellos tradicionalmente afectados por el maquinismo, como la industria manufacturera. Incluso empezaron a publicarse estudios que cuantificaban el desplazamiento de mano de obra, como el ya mítico The future of employment de Carl Benedikt Frey y Michael A. Osborne, que en 2013 predijo que en veinte años casi la mitad de los empleos de Estados Unidos serían desempeñados por máquinas.

El tiempo se ha encargado de matizar y poner en cuestión los vaticinios más catastrofistas, pero, lo que sí es cierto es que:

1.      La digitalización está llevando a que numerosas tareas no tengan ya que ser desempeñadas por humanos, lo que afecta a empleos que pueden llegar a desaparecer, e incluso a modelos de negocio y sectores que dejan de tener sentido en el nuevo escenario.

2.     Por otro lado, aquellos empleos que en principio no están condenados a desaparecer probablemente demandarán competencias digitales -tanto en los sectores puramente tecnológicos como en los que no los son-, de forma que la fuerza de trabajo tendrá que adquirir y hacer gala de nuevos conocimientos para seguir desempeñando su puesto.

3.     Finalmente, la nueva economía digital está creando una demanda de nuevos perfiles laborales que antes no existían, y que actualmente la oferta de mano de obra no está en condiciones de cubrir.

La única certeza que tenemos en este panorama tan incierto es que los empleados de mañana (quizá los de hoy ya también) deberán tener habilidades técnicas y digitales, complementadas por una flexibilidad de pensamiento, y por habilidades relacionadas con la solución de problemas. La pandemia causada por la COVID-19 ha acelerado y profundizado los cambios en el mercado laboral, poniendo en relieve la relevancia que tiene para el trabajador de este siglo la rápida adaptación al cambio. En gran medida, la incapacidad para asumir los cambios del entorno y para desenvolverse en el medio tecnológico pueden determinar el que alguien se quede atrás en este proceso de transformación, generándose o ampliándose las brechas digitales y sociales.

Este desajuste o disrupción del mercado de trabajo está en la base de la paradoja que se da en el momento actual basada en que altas tasas de desempleo conviven con un exceso de demanda de puestos basados en perfiles tecnológicos, que no encuentran profesionales suficientes que los ocupen, factor que pone en peligro el crecimiento a medio plazo de los sectores de actividad más innovadores y dinámicos.

jueves, 17 de noviembre de 2022

Entramos en la era de la computación cuántica

 


De la mecánica cuántica teórica al prototipo real, la computación cuántica está dando el salto del mundo académico a la solución a problemas reales de la ciencia y la economía. La integración de la computación clásica con la cuántica y con la inteligencia artificial constituirá la mayor revolución informática de los últimos sesenta años. Esta década ha sido bautizada como la Década Cuántica, pues es ahora cuando las empresas comienzan a ver esta tecnología como una solución de negocio.

El inmenso poder de esta forma de computación reposa sobre dos propiedades de la mecánica cuántica: la interferencia y el entrelazamiento. El principio de interferencia permite al ordenador cuántico suprimir soluciones no deseadas y solo presentar las correctas. A medida que procesa simultáneamente todos los valores posibles de los datos de entrada (valores denominados superposiciones, pues, a diferencia de los bits clásicos que deben adoptar 1 o 0, los cúbits pueden adoptar simultáneamente 1 y 0), el número de operaciones disminuye considerablemente. El entrelazamiento, por su parte, implica que el estado combinado de los cúbits (los bits cuánticos) contiene más información de la que contienen los cúbits independientes. Estos dos principios no tienen ninguna analogía en la informática clásica.

No obstante, la computación cuántica no reemplazará a la clásica, sino que la potenciará y complementará. Incluso en el caso de los problemas que un ordenador cuántico puede resolver mejor, harán falta los ordenadores convencionales, porque la entrada y salida de datos continuará haciéndose de la forma tradicional.

La próxima gran revolución de la informática tiene lugar cuando se combinan la computación cuántica con la clásica y con la inteligencia artificial. Las sinergias que emanan de esta tríada guiarán el futuro de la computación.

En el medio plazo, se espera que la computación cuántica sea capaz de resolver tres tipos de problemas:

  • Simulación, modelizar sistemas y procesos que tienen lugar en la naturaleza.
  • Búsqueda y mapeo, implica buscar la solución mejor o la óptima en una situación susceptible de tener numerosas respuestas.
  • Problemas algebraicos, incluyendo aplicaciones para el machine learning o aprendizaje automático.

Poco a poco, la computación cuántica va generando soluciones concretas que irán teniendo un impacto significativo en distintos sectores de actividad. Deloitte identifica tres aplicaciones clave en las que esta tecnología aportará mejoras en términos de eficiencia en las empresas y organizaciones de distintos sectores: la optimización de algoritmos, la ciencia de datos y los modelos matemáticos, y la química cuántica y la ciencia de los materiales.

Los algoritmos de optimización persiguen identificar la mejor solución o el mejor proceso, entre distintas opciones posibles. Un ejemplo de esto es la búsqueda de las mejores rutas para vehículos de mercancías, usando para ello datos en tiempo real, algo que ya está estudiando la empresa ExxonMobil para la gestión de las rutas de su flota mercante de más de 50 000 naves.

Las empresas utilizan los macrodatos para intentar establecer patrones que les permitan predecir el comportamiento futuro de un sistema -por ejemplo, el mercado de un bien concreto o la evolución de valores financieros-, o a solucionar un problema específico. El uso de cada vez mayores volúmenes de datos y de información en tiempo real a corto plazo pondrá en evidencia las limitaciones de la informática convencional, y la necesidad de utilizar ordenadores cuánticos para realizar en poco tiempo tareas y operaciones que escapan a la capacidad de los anteriores. Este tipo de modelos intensivos en datos es utilizado especialmente en sectores como el financiero y el asegurador en temas como el credit scoring (la calificación de una operación de riesgo financiero), valoración de activos o el análisis del riesgo en inversiones, entre muchos otros.

Finalmente, la computación cuántica puede aportar mucho en el terreno de la química y de los materiales, dada la incapacidad de los ordenadores actuales para llevar a cabo eficientemente los cálculos necesarios que requieren el estudio de la estructura molecular y sus propiedades, la predicción del comportamiento de los materiales, o el conocer cómo variará este con la menor alteración molecular. Las computadoras cuánticas podrán construir y manejar los modelos moleculares con absoluta precisión, abriendo la puerta a grandes avances en el terreno del estudio y desarrollo de los materiales, y también en la creación de nuevos medicamentos.

jueves, 10 de noviembre de 2022

La necesidad de innovación en la empresa española

 


La empresa española todavía tiene un margen importante para aumentar los beneficios derivados de la adopción de tecnologías digitales, y para emplearlas en la creación de nuevos modelos de negocio y nuevos productos de gran valor añadido. La digitalización permite además optimizar los procesos de la organización, conocer mejor los mercados y las preferencias del consumidor, y establecer una relación directa con el público objetivo -sin necesidad de intermediación-, personalizando la oferta del producto o servicio.

El Foro Económico Mundial habla de cultura digital para hacer referencia a la capacidad de las empresas para utilizar los datos y las herramientas digitales de cara a favorecer la innovación de negocio y la visión centrada en el cliente. De esta forma, la cultura digital estaría soportada sobre cuatro pilares: la colaboración, tanto dentro de la organización como con los agentes del ecosistema al que pertenece (clientes, proveedores, grupos de interés, Administración), el enfoque basado en los datos para guiar la toma de decisiones, la orientación al cliente, y, finalmente, la innovación continua de procesos y productos. Todo ello refuerza el compromiso social de la empresa, la gobernanza, y su apuesta por la sostenibilidad medioambiental.

La OCDE señala que las empresas españolas tienen una relativa alta tasa de adopción de tecnología -si bien existe una brecha importante en función del tamaño-, pero no están aprovechando al máximo las oportunidades que ofrece la digitalización para innovar procesos y productos o servicios[1].

Los datos de la OCDE ponen en evidencia que el porcentaje de empresas innovadoras en España es comparativamente bajo -en torno al 37%-, y que la proporción de compañías que llevaron a cabo actividades innovadoras -implementación de I+D, equipos o software que ha supuesto innovación de producto o de procesos-, durante el periodo considerado de 2014 a 2016, es la menor cifra de la lista de los países considerados, apenas un 17%. Adicionalmente, se observa, en los dos aspectos considerados, una importante brecha entre las grandes empresas y las pequeñas.

Por último, la falta de vocación innovadora queda igualmente patente al analizar el capital intangible, como son las patentes. El indicador número de patentes por volumen de PIB, calculado en el año 2017, en nuestro país supone un 0,31, cifra extremadamente baja, si la comparamos con la de Italia (0,9), Bélgica (1,19) o la media de las naciones de la OCDE (2,43). El porcentaje de patentes relacionadas con las tecnologías de la información y las comunicaciones es en España 8,6%, estando la lista liderada por Irlanda (51,4%), Suecia (44,1%) y Finlandia (33,8%), mientras que el valor medio OCDE se sitúa en 32,1%.

Esta falta de innovación en nuestro tejido empresarial es en parte la responsable de la baja productividad que presenta, de acuerdo con la OCDE. España enfrenta dos problemas: el prácticamente estancamiento de la productividad en las dos últimas décadas, y la alta dispersión de la productividad en función del tamaño corporativo, que implica que las empresas más pequeñas carecen de los incentivos o de la capacidad para adoptar buenas prácticas en innovación tecnológica que mejoren su rendimiento en términos de productividad.



[1] Jin, Y. (2021) “Enhancing digital diffusion for higher productivity in Spain. OECD Economics department working papers No. 1673”

 
Google Analytics Alternative