lunes, 15 de octubre de 2018

¿Qué trabajadores son más vulnerables ante la revolución digital?

El Observatorio de BBVA Research publicó en marzo el trabajo Cuán vulnerable es el empleo en España a la revolución digital?, que, firmado por Rafael Doménech, Juan Ramón García, Miriam Montañez y Alejandro Neut, pretende identificar qué tipos de trabajadores ven más amenazados sus empleos por el cambio tecnológico en nuestro país.

Dentro del análisis actual en el marco internacional existen dos visiones radicalmente distintas. La más negativa defiende que la revolución digital que experimentamos en la actualidad es mucho más profunda que las revoluciones industriales del pasado y que va a acabar con un volumen importante de puestos de trabajo, sin crear otros nuevos y condenando a las masas de desempleados a la marginación y a la exclusión social. Pero también están los que pregonan que los efectos de la transformación crearán más empleos en nuevos sectores de actividad de los que destruyen, generando crecimiento económico y bienestar.

Evidentemente, nuestro país no se queda al margen del proceso de transformación digital y el informe de BBVA Research ha querido conocer qué tipo de trabajadores españoles se verán más afectados por la irrupción de la tecnología. Aunque la primera tarea consiste en evaluar el volumen de riesgo, es decir, qué porcentaje del empleo se encuentra en la actualidad en riesgo elevado de automatización.

Para determinar la cifra, los autores han utilizado el estudio ya clásico de Carl Benedikt Frey y Michael Osborne The Future of Employment: How susceptible are jobs to computerisation? junto con microdatos de la muestra anual de la Encuesta de Población Activa (EPA) entre 2011 y 2016. El resultado es que más de la tercera parte de los trabajadores actuales presentan una alta probabilidad de ser sustituidos por una máquina, en concreto, el 36%. ¿Esto es mucho o poco? Aunque es una cifra bastante inferior a la de Alemania, en donde casi el 60% de los puestos de trabajo son automatizables, no deja de ser preocupante.

El siguiente paso del estudio consiste en determinar las características de los ocupados más en riesgo. Para ello, se han tenido en cuenta numerosas variables, desde la edad y el sexo hasta el nivel de formación o el sector de actividad. De esta forma surge el siguiente retrato.

Atendiendo a la edad, el riesgo de automatización es comparativamente mayor para jóvenes que para los mayores de 33 años. En cambio, no se aprecian diferencias entre ambos sexos.

El nivel formativo del trabajador es también un condicionante de la vulnerabilidad laboral, estando más expuestos aquellos con menor nivel educativo, dado que cuanto más formados más capacidad tienen los ocupados de realizar tareas que las máquinas no pueden hacer.

Por otra parte, los trabajadores asalariados presentan más riesgo que aquellos que trabajan por cuenta propia. Dentro de los asalariados, los del sector privado son bastante más vulnerables al cambio tecnológico que los del público.

Atendiendo al tipo de ocupación, tienen más posibilidades de ser sustituidos por la tecnología los que desempeñan tareas de instalación y mantenimiento, de administración, del sector primario, y de los servicios, en general. En el extremo opuesto, se muestran difícilmente sustituibles aquellos que trabajan en temas de educación, legislación, arte y servicios audiovisuales, así como los de actividades sanitarias, financieras y científicas y de investigación.

Analizando los sectores de actividad económica, el empleo del sector primario, la hostelería, la industria manufacturera y las actividades del hogar es el más fácil de ser desplazado, mientras que el de la educación, las actividades profesionales, científicas y técnicas y las del sector de las tecnologías de la información y las comunicaciones se percibe como más sólido.

La posición jerárquica en la empresa u organización también presenta distintos niveles de riesgo de automatización, siendo este muy bajo para directores de grandes y medianas empresas y muy elevado para empleados sin trabajadores a cargo.

La capacidad de adaptación a nuevas formas de trabajar parece condicionar la supervivencia del trabajador, pues se ven más amenazados aquellos que no teletrabajan y mucho menos los que lo hacen más de la mitad de los días.

Finalmente, los trabajadores de las comunidades autónomas con más probabilidad de ser reemplazados por tecnología son los de Murcia, Canarias y Baleares, mientras que los de la Comunidad Autónoma de Madrid son los que menos.

Basándonos en estos resultados, podemos enumerar los principales factores que determinan la probabilidad de automatización:
  1. La posición jerárquica en la empresa: a más responsabilidad, menos riesgo.
  2. El nivel formativo: los más forzados son más difíciles de sustituir por tecnología.
  3. El sector de actividad: los más seguros son la sanidad, la educación y los servicios sociales.
  4. La adopción de nuevas formas de trabajo, como el teletrabajo, contribuye a reducir la vulnerabilidad a la automatización.

El resto de las variables contempladas, como la edad o el tiempo de permanencia en la empresa, no tienen tanto peso específico como determinantes.

El estudio finaliza con tres propuestas para atenuar las repercusiones negativas del progreso tecnológico sobre el empleo presente y futuro:
  • Invertir más y mejor en capital humano para que la población adquiera conocimientos –fundamentalmente, en áreas STEM– y habilidades cognitivas y no cognitivas complementarios al progreso tecnológico.
  • Reformar el mercado de trabajo quitando barreras a la inversión empresarial y la contratación e introduciendo medidas que optimicen su funcionamiento.
  • Diseñar mecanismos que compensen a los damnificados por la revolución digital, es decir, aplicar medidas redistributivas que eviten la exclusión social de amplios sectores de población.

martes, 2 de octubre de 2018

Por qué debemos enseñar filosofía a los fontaneros

Todos en mayor o menor medida hemos asumido y aceptado el discurso que rige en la actualidad sobre la necesidad de una formación para la empleabilidad, sobre lo imprescindible de enseñar a manejar tecnología a los más jóvenes, o sobre la importancia de impulsar las vocaciones denominadas STEM, es decir, las relativas a las ciencias, la tecnología, la ingeniería y las matemáticas. Lo último que escuchamos ahora es que, en el futuro, todo el mundo deberá saber programar si quiere acceder a un trabajo y que los niños y las niñas deben aprender a hacerlo en el colegio.

También damos por sentado que en este “sálvese quien pueda” de mundo que nos ha tocado vivir las humanidades son absolutamente prescindibles en la formación y la cultura de un habitante del siglo XXI. Pues bien, hace ya algún tiempo, el profesor de filosofía Scott Samuelson rebatió estos argumentos en un artículo que publicó The Atlantic con el sugerente título de Why I Teach Plato to Plumbers o Por qué enseño Platón a los fontaneros.

La tesis básica que expone el texto es que este discurso de la formación útil y de la educación para la empleabilidad en las empresas tiene un trasfondo marcadamente clasista. Las clases altas siempre han gozado, y lo hacen todavía, de una educación humanística que suele combinar, especialmente en las universidades de Estados Unidos, la especialización profesional con una amplia cultura intelectual, en literatura, historia, filosofía o en las artes plásticas.

Samuelson argumentaba que este barniz intelectual que reciben las clases pudientes de la sociedad tiene su explicación en tres factores: 

  1. Porque pega con el modelo de ocio de los privilegiados el disfrutar de aquellos bienes elevados de la raza humana: leer a Aristóteles, escuchar sinfonías de Beethoven, viajar por Italia visitando obras de arte…
  2. Porque son personas destinadas a liderar en la política y la economía por derecho de nacimiento y necesitan saber pensar por sí mismos (algo que proporciona una cultura elevada), mientras que a las clases inferiores se las educa a enfrentarse a diversas situaciones más o menos previstas.
  3. Por último, porque siempre está el impulso elitista de abrazar la cultura para diferenciarse de las clases inferiores incultas y previsibles.
Mientras que los ricos proporcionan a sus retoños una educación completa intelectualmente impartida en centros escolares y universidades de lujo, que incluyen sin excepción los distintos campos del saber, elaboran un discurso que defiende la educación para las masas para enfrentarse a un mundo global, es decir, la manida cháchara de la empleabilidad, que no busca formar a personas, sino a fuerza de trabajo.

Recortan cuanto pueden los recursos de la educación pública porque, a fin de cuentas, las clases bajas solamente necesitan formación para convertirse en factor de producción. Nos recuerda Samuelson, a través de una cita de Henry David Thoreau, el concepto que tenían los romanos de la educación:

“Parece que hemos olvidado que la expresión `una educación liberal´ significaba originalmente para los romanos aquella que merecían los hombres libres; mientras que el aprender sobre negocios y profesiones, que únicamente sirve para ganarse la vida, era considerado como algo solamente destinado a los esclavos.” 

Nota al margen: se dice que una parte importante de los hijos de los empleados de las grandes empresas tecnológicas de Silicon Valley estudia en colegios sin ordenadores ni dispositivos electrónicos, y en cambio, lo hacen con papel, tiza, lápices y materiales básicos como únicas herramientas. La razón es que sus padres –esos que diseñan en Google, Apple o Facebook la tecnología que nos mantiene enganchados a las pantallas- considera que el uso de ordenadores inhibe el pensamiento creativo, el movimiento, la interacción humana y la capacidad de atención.

¿Estamos creando esclavos para el sistema productivo con la excusa de la revolución digital? ¿Es el aprender a programar hoy en día equivalente a aprender a manejar un telar en el Manchester de 1870?

lunes, 24 de septiembre de 2018

13 tendencias en inteligencia artificial

Parece que el tirón que está experimentando la inteligencia artificial en esta década va en serio y es poco probable que caiga en otro periodo invernal, como el que vivió en 1970, cuando después de haber generado grandes expectativas llegó la decepción y pasó a segundo plano. En el momento actual podemos comprobar de primera mano cómo está saliendo del entorno experimental de los laboratorios y se va introduciendo en nuestras vidas cotidianas, desde las recomendaciones personalizadas de contenidos en las plataformas de televisión, hasta las sugerencias de palabras al escribir textos en los smartphones.

Dejando de lado los debates de gran calado sobre los posibles efectos perniciosos que las máquinas inteligentes puedan tener sobre el empleo y la privacidad, no está de más analizar las tendencias que presenta esta tecnología en el estricto corto plazo. Ya reflejamos en este blog las predicciones que realizó al respecto PwC y ahora traemos un ejercicio parecido llevado a cabo por la consultora de análisis de datos CBInsights.

El informe Top AI Trends To Watch In 2018 pone sobre el tapete 13 tendencias relacionadas con la inteligencia artificial que ya se están manifestando en 2018. Los autores se muestran cautos sobre la capacidad actual de este campo tecnológico, pues si bien ya existen algoritmos que pueden ganar a campeones de póker y robots que hacen saltos mortales hacia atrás, los sistemas todavía están muy lejos de realizar acciones básicas que hacen los humanos, como entender la escena que se desarrolla en una imagen, por ejemplo.

Con todo, CBInsights ha identificado las siguientes 13 tendencias que van trazando el recorrido de la inteligencia artificial.

1. La automatización toma las fábricas, pero requiere de ayuda humana

Es innegable que la automatización de las plantas industriales es un proceso en marcha que avanza a grandes pasos. También es evidente que las cifras de empleo industrial jamás volverán a ser como en el pasado, pero introducir robots en las fábricas no siempre excluye al trabajador humano.

El informe pone como ejemplo la planta que la empresa textil china Tianyuan Garments Company ha creado en Arkansas, Estados Unidos, que, aunque operada por máquinas, ha supuesto la contratación de 400 trabajadores que se ocupan, entre otras cosas, del mantenimiento de los robots.

Otro ejemplo son los almacenes de Amazon, que utilizan hasta 100.000 robots para trasladar y manipular mercancías, pero que necesitan de trabajadores humanos porque las máquinas tienen problemas para identificar y coger objetos en entornos no estructurados.

2. La inteligencia artificial está en todas partes

Las máquinas que aprenden están en todos aquellos sectores de actividad que cuenten con el volumen de datos necesario para alimentar su aprendizaje. Recordemos que el aprendizaje automático consiste en que los algoritmos aprenden a identificar patrones mediante la asimilación de ejemplos que le son suministrados: cuanta más información recibe, más perfecto será su funcionamiento.

3. China parece estar ganando la batalla por el liderazgo en IA

En muchos aspectos China está superando a los EE.UU. en el campo de la inteligencia artificial. El gobierno chino está llevando a cabo un plan estratégico en este terreno que introduce esta tecnología en cualquier actividad, desde la agricultura a la defensa, en muchos casos a través de startups locales.

Aunque las empresas chinas solo acaparan el 9% del volumen de los negocios relacionados con la inteligencia artificial en el mundo, estas startups en 2017 se llevaron el 48% de todos los dólares invertidos en el mundo en inteligencia artificial, superando a las estadounidenses.

4. Los campos de batalla se trasladan a los centros de datos

La defensa del futuro se basará en inteligencia artificial. Durante la Guerra Fría, los países competían en número de misiles y cabezas nucleares; hoy en día la preocupación de los responsables de la defensa nacional se centra en las cibercapacidades.

Los algoritmos de IA tienen un gran campo de actuación en la ciberseguridad, puesto que los ataques evolucionan constantemente y las defensas deben tener la capacidad de anticipar agresiones desconocidas. La inteligencia artificial puede analizar los millones de ciberataques que se producen en el mundo y crear patrones sobre cómo pueden ser las amenazas futuras para poder prevenirlas.

5. La revolución de la voz

Alexa, el asistente de voz de Amazon, revolucionó el sector de la inteligencia artificial. Ahora Echo de Amazon y Google Home se reparten el mercado de los asistentes virtuales que hablan, una de las principales tendencias en 2018.

Sin embargo, la expansión internacional en este campo podría estar limitada por la cuestión del idioma. Los dispositivos que incorporan Alexa solamente pueden hablar en inglés, japonés y alemán; 
Goggle Home, además de los anteriores, también habla francés; Apple Homepod por ahora solo es angloparlante. Un mercado del tamaño del hispanohablante ha sido dejado de lado, aunque probablemente sea el próximo campo de batalla entre las compañías a corto plazo.

6. Se acelera la automatización de puestos de trabajo cualificados

Los trabajadores cualificados corren el riesgo de ser sustituidos por la inteligencia artificial al igual que los poco cualificados. Se trata de puestos como consultor, abogado, periodista, experto en finanzas o comercial, entre otros. Por el contrario, las profesiones relacionadas con la educación y la sanidad son más inmunes a la automatización porque requieren un alto nivel de inteligencia emocional.

7. La inteligencia artificial se hace periférica

Se aprecia una tendencia hacia la descentralización de la inteligencia artificial, en el sentido de que cada vez está más presente en los extremos finales de las redes, es decir, en los terminales y dispositivos. De acuerdo con el informe, la inteligencia en un dispositivo, como puede ser un teléfono o un coche, aporta la posibilidad de procesar la información localmente y responder más rápido ante cualquier situación que si hay que comunicarse con un servidor central o con la nube.

8. Llegan las redes de cápsulas

Hasta ahora el aprendizaje profundo en inteligencia artificial ha estado basado en redes neuronales convolucionales, pero ahora se empieza abogar por otra arquitectura más eficiente: las redes de cápsulas. El concepto aparece en un paper publicado por Google en 2017 que defiende que estas redes, también llamadas CapsNet, serían capaces de aprender a identificar patrones utilizando muchos menos datos que las convolucionales y con un menor margen de error.

9. La escasez de talento disponible dispara los salarios

La demanda creciente de expertos en inteligencia artificial crece a mayor ritmo que la disponibilidad de los mismos, creando una batalla entre las empresas por llevarse el talento y disparando los sueldos en el sector a cifras de seis dígitos.

10. El revuelo en torno al machine learning acabará

Todo el alboroto que ha levantado el machine learning morirá al convertirse este en algo normal y cotidiano. A partir de ahora no bastará con mostrar tecnología puntera y las startups deberán presentar modelos de negocio sólidos para atraer el interés de los inversores.

11. Amazon, Google y Microsoft copan el mercado

Los esfuerzos en inversión e investigación en inteligencia artificial de las grandes tecnológicas les han llevado a monopolizar el mercado dejando obsoleto el modelo anterior basado en la pequeña startup techie. Los gigantes se repartirán el pastel.

12. Los reguladores a favor del diagnóstico médico

Una de las aplicaciones más interesantes de la inteligencia artificial, el uso en medicina en el análisis de imágenes y la realización de diagnósticos, puede recibir el beneplácito de las autoridades reguladoras y convertirse en algo común en los hospitales y centros de salud. La capacidad de estos algoritmos para comparar en poco tiempo grandes cantidades de datos de pacientes e imágenes médicas será un apoyo decisivo al trabajo del personal sanitario.

13. Llega a la inteligencia artificial el “hágalo-usted-mismo”

Pronto no hará falta ser ingeniero o informático para poder construir un sistema casero de inteligencia artificial. Ya existen empresas que están desarrollando kits para que cualquiera pueda construir un sistema inteligente.

El proyecto de Google AIY (Artificial Intelligence Yourself) ha lanzado un kit de Raspberry Pi para que el usuario pueda montar su propio sistema para el reconocimiento de voz. También ha lanzado un software de redes neuronales para que el aficionado pueda diseñar algoritmos que reconozcan perros y gatos o que identifiquen expresiones en el rostro.

martes, 18 de septiembre de 2018

Blockchain en los servicios públicos

A lo largo de las últimas décadas Internet y los medios digitales en general han transformado drásticamente el funcionamiento del sector público. Se puede decir que en gran medida la Administración ha migrado de lo físico a lo virtual. En aspectos relacionados con la gestión interna, la digitalización de registros y documentos públicos sustituye al almacenaje de toneladas de papel, mientras que, en las relaciones con el ciudadano y la prestación de determinados servicios, las redes acaban en muchos casos con las colas y las esperas.

Para muchos expertos, blockchain tendrá un efecto igualmente transformador sobre el funcionamiento de los asuntos públicos, que todavía no podemos casi ni imaginar. Se trata de un tema que ha analizado el informe Blockchain: The next innovation to make our cities smarter realizado por la división india de PwC.

¿Cuándo usar blockchain?

El libro de contabilidad formado por bloques conocido como blockchain es una solución óptima para situaciones que cumplen la primera de las siguientes condiciones y por lo menos tres de las restantes:

  1. Múltiples interlocutores necesitan compartir información y poder acceder simultáneamente a dichos datos.
  2. Múltiples interlocutores actualizan los datos y esas actualizaciones deben quedar registradas.
  3. Los participantes deben poder confiar que las acciones realizadas en el sistema son válidas.
  4. Los intermediarios añaden complejidad y prescindir de ellos reduce costes y complejidad.
  5. Las interacciones se ven afectadas por el tiempo, de forma que reducir los retardos en los procesos tiene beneficios económicos.
  6. Las transacciones realizadas entre distintos participantes interactúan entre ellas.

¿Dónde usar blockchain?

Aparte de la lista anterior de supuestos abstractos que pueden requerir del uso de la tecnología de la cadena de bloques, es posible identificar áreas concretas de actividad donde los beneficios pueden ser inmediatos. A grandes rasgos, serían las siguientes:

1. Sanidad

Aunque la digitalización de los historiales sanitarios supone en sí una mejora respecto del pasado, la centralización de la información en bases de datos complica su gestión. Blockchain permitiría crear un ecosistema para la consulta y alteración de historiales médicos, manteniéndolos constantemente actualizados por los distintos facultativos y centros de salud que intervengan en el cuidado del paciente.

Otras utilidades posibles en este campo podrían ser mantener localizada la existencia y procedencia de medicamentos críticos, reservas de sangre y órganos para la donación y también mantener actualizada la relación de personas habilitadas para la práctica médica y evitar de esta manera el fraude y el intrusismo profesional.

2. Educación

En este campo existe mucha documentación que puede ser requerida por numerosos agentes y cuya legalidad debe ser garantizada: certificados, títulos, historiales académicos… Un sistema blockchain permite que la procedencia y localización de cada documento siempre esté disponible, facilitando los trámites y los procesos de verificación.

3. Seguridad y justicia

La cadena de bloques podría servir de base para dotar de una mayor coordinación a las distintas agencias y departamentos relacionados con la seguridad pública y el ejercicio de la justicia. Por ejemplo, blockchain podría custodiar las evidencias relacionadas con un juicio, garantizando su procedencia y veracidad.

4. Agricultura

La tecnología de bloques puede aportar transparencia a la cadena alimentaria, ofreciendo en todo momento información sobre la trazabilidad de los productos y su procedencia. Asimismo, puede resultar útil como sistema para registrar parcelas agrícolas y también para gestionar más eficientemente los seguros agrarios.

5. Registro Civil

Es quizá uno de los mejores ejemplos de la utilidad de blockchain. La posibilidad de mantener en una base de datos distribuida la información vital de las personas, como el nacimiento, la muerte o el matrimonio, de forma que se pueda consultar y ampliar desde cualquier oficina que esté en la red.

6. Defensa

Utilizar cadenas de bloques para mantener la seguridad de la información relativa a las infraestructuras de defensa de forma que no pueda ser accedida por personal no autorizado, ni mucho menos modificada sin que se sepa.

7. Gobernanza

Los departamentos gubernamentales, aunque interdependientes, a menudo trabajan como aislados, lo que empeora la atención al ciudadano. Blockchain permitiría que compartiesen información, aportando trasparencia y mayor eficiencia y rapidez en el tráfico de información entre ellos.

8. Energía

En el campo de las energías renovables, la aparición de numerosos pequeños productores que gracias a panales solares se autoabastecen genera unos excedentes energéticos que, si se gestionan eficientemente a través de blockchain, pueden contribuir a fomentar un ahorro significativo de energía.

¿Quién usa ya blockchain?

El informe de PwC presenta ya ejemplos de distintos países del mundo donde se están llevando a cabo proyectos con blockchain. En concreto, son los siguientes:

En la República de Georgia, la Agencia Nacional para el Registro de la Propiedad ha puesto en marcha un proyecto piloto para utilizar la cadena de bloques para registrar la propiedad de los terrenos. Los trámites para las transmisiones de tierras se han reducido de entre uno y tres a días laborables a varios segundos.

Estonia es pionera en ofrecer servicios públicos a través de blockchain. Su aplicación keyless signature interface (KSI) se ha convertido en un ejemplo a seguir en por el resto del mundo.

La Delaware Blockchain Initiative en Estados Unidos utiliza la tecnología de la cadena de bloques para identificar con precisión y en cada momento quién es el propietario de los paquetes de acciones de las empresas, en un estado que concentra una intensa actividad empresarial.

Finalmente, Dubai en alianza con IBM va a utilizar blockchain para gestionar todas las transacciones gubernamentales.

martes, 11 de septiembre de 2018

Llegan los cobots, los robots colaborativos


Si acudimos a Wikipedia, descubrimos que un cobot o co-robot (de collaborative robot) es un robot creado para interactuar físicamente con humanos en un entorno colaborativo de trabajo. A diferencia de los robots industriales a los que estamos acostumbrados, el cobot no opera de forma autónoma, sino que utiliza la inteligencia artificial para interactuar con el ser humano.

Estos sistemas inteligentes incorporan sensores, cámaras, rastreadores y controles, que permiten su relación con el entorno y su adecuación a las tareas de la actividad industrial.  La tesis que defienden los entusiastas de estas máquinas es que relevan a los trabajadores humanos de realizar las tareas más monótonas y aburridas, permitiéndoles desempeñar trabajos más creativos y reconfortantes. En teoría suena bien, pero ¿no estaremos asistiendo a una destrucción masiva de empleo?

Uno de los principales retos a la hora de incorporar cobots al medio fabril es el articular de forma óptima las relaciones entre máquinas y humanos. Como apunta Marc Vidal, al trabajador humano le produce cierta desconfianza su compañero cibernético al no conocer su verdadera inteligencia. Algún intento por “humanizar” el aspecto físico del cobot ha tenido efectos contrarios al buscado.

La empresa Rethink Robotics, pionera en este campo, colocó ojos en las pantallas de display de sus autómatas, dotándoles de unas expresiones seudohumanas, que variaban según hubiese problemas con las tareas a realizar. Según Marc Vidal esto aumentó la desconfianza de los humanos al asociar las expresiones con sonrisas falsas.

Rethink tiene dos modelos de cobots llamados Baxter y Sawyer que están entrenados para trabajar en entornos “no estructurados” lo que implica que conocen su posición en relación con otros objetos y actuar en consecuencia cuando las cosas se mueven de sitio, a diferencia de los robots industriales convencionales. Por ejemplo, si queremos que un robot deposite objetos en una cinta transportadora debemos asegurarnos que estos estén debidamente ordenados para que pueda hacerlo; Baxter y Sawyer solamente necesitan saber lo que se espera de ellos y ya se encargan de buscar los objetos para cogerlos y ponerlos sobre la cinta.

Presentan una gran capacidad de interacción con el entorno. En el ejemplo anterior, supongamos que la cinta transportadora se para y que hay un objeto sobre ella. El cobot esperará hasta que vuelva a ponerse en marcha para seguir depositando objetos.

Igualmente, cuando deben ser reprogramados para realizar una tarea distinta el proceso lleva minutos y no horas, como en el caso de robots convencionales. En general, son más fáciles de programar y de configurar y son más flexibles y seguros.

Otro punto importante es que son relativamente baratos y por ello accesibles para empresas de menor tamaño. Una unidad de producción cobot ronda actualmente los 25.000 euros, pero podría bajar de los 15.000 para 2020.

La flexibilidad que permite el cobot se ajusta a la perfección a los métodos de producción “just-in-time”, que someten la fabricación a las necesidades de la demanda en cada momento minimizando el coste de almacenaje de stocks. Estas máquinas están diseñadas para recibir y compartir información en tiempo real con otros sistemas como los sistemas de ejecución de la fabricación MES (Manufacturing Execution System) o los sistemas de gestión de almacenes WMS (Warehouse Management System).

De acuerdo con Jim Lawton de la empresa Rethink Robotics, mencionada anteriormente, los dos principales obstáculos a los que se enfrenta el desarrollo y la evolución de los cobots son:

  • La destreza manual de estas máquinas todavía es insuficiente para realizar determinadas tareas de precisión, como pueden ser desembalar o enhebrar una aguja.
  • La inteligencia artificial que les alimenta está basada en algoritmos que no pueden interpretar contextos muy amplios. Utiliza el siguiente ejemplo: a un cobot se le puede entrenar para que reconozca perros y lo hará bastante bien, pero si le mostramos la foto de una familia jugando con un perro, no sabrá identificar el contexto más allá de la figura del can.
La pregunta que nos viene de nuevo a la cabeza es si todo este proceso de automatización productiva no destruye empleo. Hay quien afirma que no solo no quitan puestos de trabajo sino que impulsan la creación de otros nuevos.

Preston Summers escribe en un artículo publicado por CobotsGuide que entre 2010 y 2016 fueron incorporados 135.000 robots industriales en la industria automovilística norteamericana, pero que durante el mismo periodo el sector creó 230.000 empleos nuevos.

Algunas empresas, como la energética Waison Group que en los siete meses siguientes de introducir cobots en sus procesos productivos para trabajar mano a mano con sus empleados la productividad del trabajo aumentó un 45% y los costes operativos y las tasas de productos defectuosos descendieron respectivamente un 25% y un 50%. Esta compañía está destinando a trabajadores que estaban en la línea de ensamblaje a posiciones de mayor valor añadido.

Algo similar ocurre en la empresa suiza de fabricación de fregaderos de cocina Franke Küchentechnik AG, cuya incorporación a la línea de montaje de cobots modelo Universal Robots UR5 ha aumentado la precisión con la que se realiza el pegado de las piezas que acompañan a las pilas de aluminio. En este caso, también los operarios desplazados por las máquinas han sido destinados a puestos de trabajo basados en tareas menos monótonas y repetitivas.

lunes, 3 de septiembre de 2018

El sector del dron español

Dron, una aeronave no tripulada. En principio, podría parecer que no son más que juguetes caros para realizar impactantes fotos aéreas, pero ya el ejército de los EE.UU. descubrió a principios de este siglo su mortífera utilidad como armas para atentar con precisión contra los líderes de al-Qaeda en Afganistán.

Mas los drones no se quedan con la imagen de bombas teledirigidas; su utilidad se multiplica día a día desde campos tan diversos como el transporte de mercancías y la prospección minera, por poner dos ejemplos. O el suministro de conectividad inalámbrica tras una catástrofe natural, como hizo la aeronave Flying COW en Puerto Rico en septiembre del pasado año tras el paso del huracán María.

Los vientos desatados arrasaron con la infraestructura eléctrica y de comunicaciones de la isla dejando incomunicada a la población. Para restablecer el servicio lo más rápido posible, la operadora AT&T utilizó el dron Flying COW que emitía señales de comunicaciones móviles hasta cuarenta kilómetros en todas las direcciones, de forma que nada más encenderlo, la gente empezó a conectarse recuperando la comunicación. Era como una torre de telefonía móvil volante.

El modelo utilizado en Puerto Rico era un pequeño helicóptero diseñado para ofrecer un servicio rápido de conectividad a un reducido número de personas. Sin embargo, Art Pregler, responsable dentro de AT&T del programa de sistemas voladores no tripulados, ya está experimentando con helicópteros más grandes, con rotores de más de dos metros, para ofrecer conectividad a grupos mayores, por ejemplo, en un festival de música.

Los drones también ayudan a salvar vidas. La empresa norteamericana Zipline ha creado un servicio de transporte aéreo para los hospitales de Ruanda en colaboración con el gobierno de ese país. Sus aeronaves llevan sangre y plaquetas para transfusiones a veintiún hospitales dispersos y alejados, reduciendo el tiempo de entrega de varias horas a unos quince minutos de media, una espera que puede determinar la vida o la muerte del paciente.

En España, en junio de 2018 la Agencia Estatal de Seguridad Aérea tiene registrados a 3.193 operadores habilitados para manejar drones, casi un 50% que hace un año, lo que da una idea del ritmo de crecimiento de este sector, aunque aún está dando sus primeros pasos. La relativa juventud de esta actividad en nuestro país justifica la falta de información que existe sobre el estado del arte. No obstante, contamos con un trabajo pionero en este campo que es el 1er barómetro del sector de los drones en España realizado por ToDrone.

El estudio, fechado en diciembre de 2016, está basado en una encuesta de más de 30 preguntas dirigidas a un total de 400 panelistas profesionales (empresas, operadores, pilotos, etc.) seleccionados. Los resultados ofrecen un esbozo del mercado de los drones español.

El sector del dron está realmente atomizado pues está compuesto en su mayoría por pequeñas empresas y autónomos, que suponen en conjunto el 93% del total. En concreto, el 85% de las empresas tiene entre uno y cinco empleados. Para los autores del informe, el escaso tamaño de las compañías limita seriamente la capacidad de crecimiento del sector y el poder llevar a cabo operaciones de cierta envergadura.

Siguiendo con la caracterización de la empresa española de drones, el 90% de las mismas realiza menos de cincuenta trabajos aéreos al año, es decir, como mucho un servicio por semana. Por otro lado, el 60% se mueve en mercados regionales y locales exclusivamente, lo que limita en gran medida la cobertura de los servicios aéreos ofrecidos.

En lo relativo a las principales áreas de negocio en las que se utilizan drones, destaca con diferencia el ocio y el audiovisual, que concentra el 45% de los trabajos, seguido de lejos por la minería y las infraestructuras (16,9%) y por actividades relacionadas con la agricultura y el medio ambiente (14,5%). La utilización de aeronaves no tripuladas para el transporte de mercancías todavía no tiene una presencia significativa en nuestro país (1,2%).

Por otra parte, la encuesta pone en evidencia que la financiación del sector es abiertamente insuficiente y que en torno al 80% de los negocios no ha recibido fondos externos ni públicos ni privados.

Respecto al volumen de negocio, la quinta parte de los entrevistados cerró el año 2016 sin facturación de ningún tipo y un 40% facturó menos de 25.000 euros. Se trata de una actividad que está dando sus primeros pasos y a la que le falta cierta madurez para demostrar su rentabilidad económica.

En cuanto a las oportunidades de mejora en el futuro que contemplan los profesionales para el sector de los drones, destaca la integración con otras actividades y sectores, los desarrollos de I+D+i que lleguen a medio plazo y la profesionalización de las operaciones, así como de los técnicos y pilotos a través de una formación continuada e integral.

martes, 24 de julio de 2018

Cuando Harry Potter e Internet cambiaron la forma de leer de los jóvenes

¿Cómo leemos en la sociedad digital? Lectores, booktubers y prosumidores es una publicación dirigida por Francisco Cruces, profesor de Antropología en la UNED, que analiza los nuevos hábitos de lectura que ha traído consigo la sociedad tecnológica en red en la que vivimos. En las páginas del libro encontramos fenómenos de actualidad como el lector prosumer, los booktubers o la narrativa transmedia, que dibujan el perfil del lector del siglo XXI.

Una de las coautoras de la obra, la doctora Gemma Lluch Crespo de la Universitat de València, ha centrado su aportación en definir cómo leen los jóvenes en la actualidad. A su juicio, el cambio de siglo trajo consigo un cambio en el paradigma lector de la juventud y los catalizadores del cambio fueron la serie de novelas de Harry Potter e Internet. La saga creada por J. K. Rowling consiguió entre 1997 y 2007 desintermediar la relación entre el autor y el lector: “pasar de los espacios mediados por adultos (la escuela o la biblioteca) a los espacios aparentemente libres (Internet).” Y ello fue posible gracias al canal de comunicación de la era digital, Internet, que permitió que el autor y la editorial se dirigieran directamente al lector joven, ideando campañas y promociones para él.

El ecosistema de lectura actual de los jóvenes ha roto con el heredado del siglo XX trasladando a la red todos los espacios tradicionales asociados a la lectura, como las librerías o las bibliotecas. Este nuevo ecosistema se caracteriza a grandes rasgos por:
  • Sacar la lectura del entorno privado y convertirla en una actividad social.
  • Convertir al lector pasivo en un creador de contenidos o prosumer.
  • Sustituir al mediador tradicional entre el joven y la lectura (docente, bibliotecario, padres) por la figura del influencer.
  • Cambiar la forma en que se consiguen los libros: de las librerías y bibliotecas a las plataformas online como Amazon.
Señala Lluch que las redes ofrecieron a los jóvenes la oportunidad de encontrar las lecturas que deseaban y que no encontraban en los canales tradicionales. Y esto tuvo un efecto colateral: en la búsqueda también se encontraron con muchos otros lectores como ellos, con quien hablar y compartir sus gustos literarios y experiencias. De esta forma, leer deja de ser un acto individual y privado y se socializa, en palabras de la autora, “transformaron la lectura en conversación”.

Algunos de estos jóvenes han llevado su pasión por las letras y su compromiso hasta el punto de convertirlos en una profesión. Son los influencers, personas que cuentan con miles de seguidores y que disfrutan hablando de los libros con los demás. Han sabido ganarse a las editoriales y a los autores y poder tratar directamente con ambos (“Aprendieron a diseñar campañas de marketing que ofrecían gratis a las editoriales o a los autores que admiraban”). Lo que empieza como una afición les ha llevado a convertirse en gestores de inmensas comunidades de lectores.

El participar en los espacios literarios virtuales de Internet transforma al antaño lector pasivo en un prosumer, es decir, en alguien que no se limita a consumir contenidos, sino que también los produce a través de sus recomendaciones de libros al resto de la comunidad y del intercambio de experiencias online con otros lectores: “En los espacios virtuales que han creado, han unido la lectura a la escritura, por lo que el lector se ha transformado en autor; han encontrado formas de compartir la lectura, de recomendar autores, temas o libros; continuamente, inventan juegos y retos, etcétera”.

Otro de los rasgos de este ecosistema de la lectura juvenil que describe Gemma Lluch es la aparición de una nueva literatura joven dirigida a estos nativos digitales. Libros que a lo mejor no se encuentran en los comercios habituales y que se adquieren o descargan de forma pirata en Internet, que están firmados por autores ajenos al sector editorial y a menudo procedentes del mundo audiovisual, como guionistas de series de televisión, productores o booktubers. Libros dirigidos a fans de los videojuegos y de determinadas series de culto.

Hemos mencionado a lo largo de este breve texto el neologismo booktuber. Desde mediados de esta década, el canal favorito de los jóvenes es YouTube y ello ha dado lugar a la aparición en este medio de líderes de opinión sobre libros para jóvenes que son seguidos por miles de fans. En abril de 2016, El Confidencial se hacía eco de este fenómeno con un llamativo titular: «Son los booktubers, tienen veinte años y han llegado para salvar al libro».

Una aportación interesante de la investigación que ha realizado Gemma Lluch sobre los booktubers y los influencers es la clasificación que hacen de los vídeos que cuelgan en sus canales:
  • Book Hauls – Wrap Ups – Los Book Hauls son los nuevos libros que han comprado, que les han regalado las editoriales, la familia o los amigos o que tienen acumulados en un periodo de tiempo. Habitualmente, los presentan con un Wrap Ups o pequeño comentario. Aunque habitualmente, los Wrap Ups se utilizan para comentar de una manera rápida los libros leídos durante un período de tiempo.
  • Book tag – Preguntas, retos, desafíos y juegos relacionados con los libros. Pueden relacionar unos libros con otros, con películas o sentimientos, proponer preguntas sobre personajes, acertijos, etc. Se puede aprovechar para dar a conocer los gustos del booktuber o darle forma de desafío que se lanza a sus seguidores o a algún booktuber concreto.
  • Bookshelf – A la manera de un tour, muestran los libros que tienen en sus librerías y estanterías.
  • Colaboraciones – Colaboraciones con otros booktubers o apariciones en otros canales.
  • Crónicas – Crónica de actos relacionados con la lectura: presentaciones de libros, etc.
  • Tutoriales – Esta sección es muy diversa y puede incluir desde tutoriales para grabar un vídeo, escribir una novela, etc.
  • TopLibros – Listas con los mejores libros leídos, recomendados, frases literarias favoritas…

lunes, 16 de julio de 2018

Por qué son importantes las comunicaciones móviles 5G

Ninguna tecnología está actualmente despertando tanta expectación como el 5G, la siguiente generación de comunicaciones móviles. Y no en vano pues gran parte de las maravillas que veremos en las próximas décadas dependen en gran medida de su implantación: coches autónomos, smart cities, hogar inteligente, Internet de las cosas…

El sector de las comunicaciones móviles se enfrenta en este momento a grandes retos, como son un crecimiento desmedido del tráfico y otro crecimiento contenido e imparable del número de usuarios y dispositivos conectados, lo que plantea exigencias de cobertura sin precedentes y la necesidad de tomar decisiones sobre el espectro disponible.

Básicamente, la promesa que trae consigo la nueva generación de tecnología móvil, el esperado 5G, se puede resumir en las siguientes ventajas:
  • Mucha más velocidad de transmisión de datos.
  • Latencia ultra baja, es decir, el tiempo que transcurre entre que se da una orden y el dispositivo la ejecuta. La latencia mínima de respuesta es fundamental para hacer realidad aplicaciones como la conducción automática de los coches u operaciones quirúrgicas remotas mediante robot y el 5G conseguirá bajarla hasta los 5 milisegundos.
  • Una Arquitectura de Red que permite el “Network Slicing”, el “rebanado de red” que permite a los operadores de redes móviles manejar y operar múltiples redes virtuales sobre una infraestructura de red física común.
  • Capacidad de conexión para miles de millones de dispositivos.
El origen de la telefonía móvil (Evoca, El impacto del 5G) hay que situarlo en 1979, cuando aparecen los primeros terminales analógicos, con una calidad muy baja y sin un estándar único, lo que dificultaba sobremanera la comunicación. En 1990 llega la tecnología digital con el 2G y un estándar común para interconectar todas las redes, el GSM (Global System for Mobile Communications). Las redes 3G abren la era del Internet móvil en 1998, permitiendo el uso de aplicaciones de audio y video en tiempo real, la transmisión de datos y el acceso a Internet desde el móvil. Actualmente y desde 2008, utilizamos la cuarta generación de redes, el 4G, que ha sumado a la capacidad de utilizar Internet desde el móvil prestaciones que demandan altas velocidades de transmisión, como los juegos online, la televisión HD o la videoconferencia. De acuerdo con GSMA (The Mobile Economy 2018), en 2025 en 14% de las conexiones móviles del mundo ya se hará sobre redes 5G.

Gran parte de los servicios y tecnologías que protagonizarán la revolución digital a lo largo de las próximas décadas dependerán en gran medida del despliegue del 5G y del aumento exponencial de la velocidad que traerá consigo. Hablamos de temas como el Internet industrial, la eSalud, los servicios de las smart cities, el coche autónomo, los edificios inteligentes o las aplicaciones de la realidad virtual y aumentada. En suma, todo aquello que repose sobre el tráfico móvil de grandes cantidades de información a altas velocidades de transmisión.

Las principales preocupaciones para el despliegue masivo de 5G estriban en la disponibilidad del espectro radioeléctrico necesario, que siempre ha sido el catalizador del paso a una nueva generación tecnológica. El año 2017 marcó el arranque de la concreción de las bandas a nivel europeo por parte de la Comisión Europea y del Grupo de Política del Espectro Radioeléctrico (RSPG).

La Unión Europea adoptó en abril de 2016 el Plan de Acción de 5G para Europa, con el objetivo de favorecer la coordinación entre los Estados Miembros para mejorar la competitividad europea en el desarrollo de esta tecnología de red.

Como respuesta al reto comunitario, el Gobierno de España ha puesto en marcha el Plan Nacional 5G con el fin de “situar al nuestro entre los países más avanzados en el desarrollo de esta nueva tecnología de manera que cuando la 5G alcance su madurez  tecnológica y comercial, España esté preparada para aprovechar al máximo las oportunidades de este paradigma tecnológico”.

El plan se articula en torno a cuatro ejes de actuación:
  1. Gestión y planificación del espectro radioeléctrico.
  2. Impulso a la tecnología 5G: Pilotos de red y servicios y Actividades I+D+i.
  3. Identificación y desarrollo de instrumentos legales, adicionales a los relativos a la gestión del espectro, que sean necesarios para garantizar un marco jurídico adecuado y flexible.
  4. Coordinación del plan y cooperación internacional.
Como indicaba el informe Sociedad Digital en España 2017,  la evolución a la tecnología 5G no supone un salto abrupto, sino un proceso gradual en el que la infraestructura actual 4G incorpora nuevas capacidades que aportan beneficios a los usuarios:

“La continuación de los despliegues de fibra, la gestión del espectro (refarming hacia tecnologías radio más eficientes), la incorporación de funcionalidades radio (agregación portadoras, nuevas tecnologías de antena), la densificación de la red y, lo que es extremadamente importante, la virtualización y cloudificación de la red (acceso y core), son avances que ya se están incorporando en 4G.”
Los operadores trabajan rápido para establecer posiciones respecto a la nueva tecnología. En el caso de Telefónica, recientemente anunciaba el proyecto Ciudades Tecnológicas 5G con el primer despliegue de capacidades 5G en las ciudades de Segovia y Talavera de la Reina, en colaboración con Nokia y Ericsson. En concreto, estas dos ciudades serán durante tres años un laboratorio en el que se experimentarán las capacidades de la nueva generación de tecnología de redes móviles a través de casos de uso para demostrar la capacidad del 5G a ciudadanos y empresas.

martes, 10 de julio de 2018

Los diez retos del aprendizaje profundo

Como anticipamos en el  post anterior, en un reciente trabajo académico, el profesor Gary Marcus de la Universidad de Nueva York plantea el riesgo de que, después de este periodo de grandes expectativas que han vivido las redes neuronales en los últimos años, la inteligencia artificial entre en otro periodo invernal, como el que vivió en 1970, cuando después de haber generado grandes expectativas se consideró que era una tecnología demasiado frágil, estrecha y superficial para ser utilizada en la práctica fuera del marco experimental de los laboratorios.

Para Marcus no hay que desestimar completamente el aprendizaje profundo. Simplemente, no debe ser considerado como la solución universal y en cambio de ser contemplado como una herramienta estadística más, que debe ser utilizada junto a otras para lograr que el campo de la inteligencia artificial avance realmente.

Es por ello, que Gary Marcus postula diez retos a los que se enfrenta el aprendizaje profundo en la actualidad.

1. El deep learning actual es un devorador de datos
A diferencia del cerebro humano, los algoritmos basados en el aprendizaje profundo carecen de mecanismos para aprender términos abstractos a través de la mera definición verbal y necesitan ser entrenados con millones de ejemplos. Ante situaciones o problemas donde los datos no están disponibles en grandes cantidades, el aprendizaje profundo puede no resultar la mejor solución.

2. El deep learning actual es muy superficial y ofrece pocas oportunidades de transferencia
Para Marcus, los sistemas actuales no comprenden realmente los conceptos y han sido entrenados para actuar en determinados escenarios o situaciones. Cuando se llevan a cabo los denominados tests de transferencia en los que el algoritmo es confrontado con escenarios que difieren, aunque sea ligeramente, de aquellos en los que ha sido entrenado, las soluciones que ofrece resultan superficiales.

3. El deep learning actual no puede tratar de forma natural con una estructura jerárquica
Las correlaciones que establecen este tipo de sistemas entre distintos elementos son llanas y no jerárquicas, como en una lista en la que cada elemento está al mismo nivel que los demás. Cuando se enfrentan con una estructura jerárquica, como por ejemplo una frase subordinada a otra, estos algoritmos pueden aproximarse de forma inadecuada a su análisis.

Gary Marcus utiliza el ejemplo de una frase compleja. Los sistemas de reconocimiento del lenguaje basados en el aprendizaje profundo abordarán la frase como una secuencia de palabras. Sin embargo, en una frase como el adolescente que previamente atravesó el Atlántico estableció un record de vuelo alrededor del mundo, la cláusula principal sería el adolescente que estableció un record de vuelo alrededor del mundo, mientras que previamente atravesó el Atlántico estaría subordinada a la primera. Marcus duda que el sistema pueda reconocer esa jerarquía.

4. El deep learning actual choca con las inferencias abiertas
Los humanos cuando leemos un texto podemos inferir cosas de él que no están directamente referenciadas o solo lo están parcialmente. Por ejemplo, adivinar las intenciones de un personaje determinado a través de un diálogo en el que las muestra de forma indirecta.  El aprendizaje profundo consigue desenvolverse con éxito en situaciones en las que la solución está contenida en un texto, pero empieza a tener problemas cuando esta no es tan explícita, bien porque se combinen muchas frases, bien porque las frases sean explícitas, pero que hagan alusión a un trasfondo que no aparece en el fragmento de texto.

5. El deep learning actual no es lo suficientemente transparente
Generalmente, se habla de la opacidad de las redes neuronales, haciendo referencia a que son sistemas que analizan millones de parámetros para tomar decisiones cuyo funcionamiento concreto queda fuera del conocimiento de sus creadores. Una red neuronal profunda se basa en miles de neuronas simuladas almacenadas en cientos de capas interconectadas. Es algo excesivamente más opaco e inaccesible que cualquier código de programación convencional.

6. El deep learning actual no ha sido debidamente integrado con el conocimiento previo
Marcus afirma que la principal aproximación al aprendizaje profundo es hermenéutica, es decir, autocontenida y aislada de cualquier conocimiento potencialmente útil. El proceso suele consistir en entrenar al sistema con una base de datos que asocia outputs o productos con los respectivos inputs, haciéndole aprender la relación entre ambos para solucionar un problema dado. Un conocimiento previo no suele ser introducido en el algoritmo.

Pone el ejemplo concreto de un sistema destinado a estudiar la física de las torres que se derrumban en el que no se han introducido previamente las leyes de Newton, aunque el algoritmo las acaba deduciendo más o menos a base al análisis de los millones de ejemplos que se le han introducido en su fase de entrenamiento.

7. El deep learning actual no es capaz de distinguir claramente causalidad y correlación
Aunque el aprendizaje profundo aprende a establecer relaciones entre los insumos que recibe de información y el output o producto, no se puede hablar de que entienda la relación de causalidad. Por ejemplo, un sistema podría encontrar la correlación entre la altura de una persona y la riqueza en el uso del lenguaje –cuanto más alto es un niño, mejor habla-, pero no puede entender la relación de causa entre el desarrollo y crecimiento del chaval y su riqueza lingüística.

8. El deep learning actual cree vivir en un mundo estable
El aprendizaje profundo funciona mejor en un mundo estable con reglas precisas, como por ejemplo, un juego de mesa, y no tan bien en entornos menos predecibles, como puede ser la evolución de los sistemas financieros.

9. El deep learning actual funciona bien como una aproximación, pero a veces sus soluciones no son fiables del todo
Por las razones expuestas anteriormente, el aprendizaje profundo funciona bien en determinadas situaciones, pero puede ser fácilmente engañado, por lo que hay que tratar con mucha cautela sus predicciones y dictámenes.

10. El deep learning actual es difícil de aplicar en la ingeniería
El autor apunta los riesgos de trabajar con el aprendizaje automático, pues considera que son sistemas que pueden funcionar en determinadas circunstancias, pero para los cuales es difícil garantizar que funcionarán en circunstancias alternativas con datos nuevos que pueden no parecerse a los que han sido utilizados en su entrenamiento. Esto impide que se pueda utilizar para desarrollar ingeniería robusta.

martes, 3 de julio de 2018

La inteligencia artificial y las limitaciones del aprendizaje profundo

Durante los últimos seis años el aprendizaje profundo se ha convertido en titular de periódicos y objeto de innumerables artículos en medios tecnológicos y generalistas, convirtiéndose en la técnica de moda de la inteligencia artificial. The New York Times llegó a afirmar en 2016 que el aprendizaje profundo estaba preparado para reinventar la ciencia computacional (The Great A.I. Awakening).

La popularidad del término deep learning o aprendizaje profundo despega en 2012 gracias a trabajos como el de los profesores de la Universidad de Toronto Alex Krizhevsky, lya Sutskever y Geoffrey E. Hinton ImageNet Classification with Deep Convolutional Neural Networks, que ponen en evidencia la capacidad de las redes neuronales para clasificar objetos. En este caso, los autores consiguieron que su sistema clasificara 1,2 millones de imágenes de alta resolución en 1.000 categorías distintas, dentro del concurso de algoritmos ImageNet Large Scale Visual Recognition Competition (ILSVRC).

Sin embargo, hay científicos como Gary Marcus que rebajan las expectativas del deep learning, no negando su utilidad y valor, pero señalando sus limitaciones y la necesidad de combinarlo con otras técnicas de inteligencia artificial para que esta realmente pueda alcanzar todo su potencial. Marcus es experto en psicología cognitiva y profesor en la Universidad de Nueva York. Ha plasmado su visión sobre las limitaciones del aprendizaje profundo en el paper Deep Learning: A Critical Appraisal, que ha generado un encendido debate entre los expertos en inteligencia artificial desde que fue publicado en enero.

Su tesis es que el aprendizaje profundo ha cosechado grandes logros en campos como el reconocimiento del lenguaje natural, el reconocimiento de imágenes, la traducción y también juega un papel importante en el funcionamiento de numerosas aplicaciones de la inteligencia artificial que están desarrollándose en la actualidad, pero, a su juicio, la evolución del deep learning se está acercando a un muro.

Estableciendo un paralelismo con la neurología, las redes neuronales de la inteligencia artificial permiten generar sistemas que imitan el funcionamiento del cerebro en la forma en que este clasifica la información recibida, por ejemplo, identificando objetos en función de los rasgos que contienen. Se trata de programas que realizan sus diagnósticos o predicciones basándose en la probabilidad. Su forma de aprendizaje contempla la retroalimentación; en sucesivas vueltas reciben el grado de acierto de sus dictámenes y realizan las correcciones oportunas. Un sistema de prueba y error similar al que empleamos los humanos al realizar una tarea nueva. El concepto de aprendizaje profundo o deep learning hace referencia a que las redes neuronales tienen una estructura basada en numerosas capas, en general más de 10, aunque actualmente están en pruebas algunas con más de 100.

Gary Marcus afirma que el aprendizaje profundo es utilizado especialmente como un sistema de clasificación, de forma que la red neuronal debe decidir a qué categoría o grupo de categorías pertenece un determinado elemento. Por ejemplo, en el reconocimiento del lenguaje natural, la red debe asociar grupos de sonidos del habla humana con categorías como pueden ser palabras o fonemas. En el caso del reconocimiento de objetos, el sistema aprende a relacionar una serie de imágenes con sus etiquetas o categorías, por ejemplo, la imagen de un coche con la etiqueta “automóvil”.

Pero Marcus piensa que el alcance del deep learning es limitado, precisamente porque se alimenta de cantidades inmensas de información y esta es un bien escaso. En la medida en que un sistema se enfrente a un input del que no ha tenido un ejemplo previo, por ejemplo, una foto o una palabra, y se ve obligado a extrapolar en base a datos genéricos, los resultados que ofrezca pueden resultar más imprecisos. Puede ser, por ejemplo, una determinada pronunciación que un sistema de reconocimiento del lenguaje no tiene registrada y que le haga confundir una palabra o expresión por otra.

lunes, 25 de junio de 2018

Cuando la inteligencia artificial discrimina a las personas

La gran apuesta tecnológica de este siglo es la inteligencia artificial. Utilizar programas para identificar patrones en inmensas cantidades de datos de cara a poder realizar predicciones es algo que abre un mundo de posibilidades para la ciencia, la economía y también para nuestra vida diaria, pues estos algoritmos cada vez están más presentes en los servicios que consumimos. No obstante, existe el peligro de que estos sistemas inteligentes desarrollen sesgos discriminatorios hacia determinadas personas o colectivos. La prevención de comportamientos que pueden atentar contra los derechos de las personas es básica para mantener la confianza de la sociedad en la tecnología.

A pesar de que es un sector joven que está dando sus primeros pasos fuera de los laboratorios (es un campo de estudio con una tradición de décadas, pero es ahora cuando realmente está dando frutos comerciales), la inteligencia artificial ya ha protagonizado situaciones indeseadas o no previstas que han hecho saltar las alarmas.

Uno de los ejemplos más conocidos es el del chatbot Tay de Microsoft que estaba programada para conversar con los usuarios en las redes, podía contar chistes o comentar las fotografías que recibía, pero también podía personalizar sus interacciones con los humanos, respondiendo a sus preguntas. Tay aprendía de las conversaciones que mantenía con los humanos y comenzó a emitir juicios y opiniones políticamente incorrectos de carácter racista. Microsoft la apagó a las dieciséis horas de su lanzamiento.

También en 2016 saltó la noticia de que un programa informático utilizado por la justicia de Estados Unidos para evaluar la probabilidad de reincidir de los presos juzgaba a las personas de color más proclives a ello. Se trataba del sistema Compas (Correctional Offender Management Profiling for Alternative Sanctions), de la empresa Northpointe, que asesoraba a jueces y fiscales a la hora de tomar decisiones y que establecía erróneamente la tasa de volver a delinquir de los ciudadanos negros en el doble que la de los blancos. Paradójicamente, Compas pretendía eliminar el posible sesgo racista que podían manifestar los jueces humanos.

Y más. El primer concurso de belleza cuyo jurado era una máquina, Beauty.AI, también arrojó una discriminación relacionada con el color de la piel. Participaron en torno a 6.000 candidatas de más de 100 países que enviaron sus fotos para ser juzgadas por un algoritmo programado para evaluar la belleza humana. El sorprendente resultado fue que, de las 44 ganadoras, la mayoría eran blancas, unas pocas asiáticas y solamente una tenía la piel oscura.

Este tipo de efectos no previstos ni deseados del funcionamiento de la inteligencia artificial es lo que  Roman V. Yampolskiyi (La inteligencia artificial en las empresas falla y fallará, sepa cómo evitar sus peores consecuencias) denomina “malos hábitos”, que a su juicio pueden ser de dos tipos: errores cometidos durante la fase de aprendizaje y errores cometidos durante la fase de funcionamiento.

Con el objeto de entender los riesgos potenciales del aprendizaje automático (machine learning) para poder prevenirlos, el Foro Económico Mundial ha publicado el libro blanco How to Prevent Discriminatory Outcomes in Machine Learning. A juicio de los autores no se trata de frenar el uso de la inteligencia artificial o de minar las expectativas que presenta, sino de mantener la confianza en ella y proteger el contrato social basado en la idea de que la tecnología está al servicio de los intereses de las personas. 

De acuerdo con este trabajo, la inteligencia artificial actual plantea cuatro grandes desafíos:
  • Es compleja: a diferencia del software tradicional, crea modelos que no siguen un proceso lógico que pueda ser entendido por los humanos.
  • Es opaca: dada su complejidad y la naturaleza de sus algoritmos es como una caja negra, por lo que es muy difícil averiguar por qué ha tomado una decisión determinada.
  • Es ubicua: poco a poco está presente en muchos aspectos de la sociedad.
  • Es exclusiva: a día de hoy, los sistemas basados en aprendizaje automático necesitan de grandes cantidades de datos y de expertos técnicos para programarlo. Sin embargo, la información, por ejemplo, las bases de datos, es cara y no está al alcance de todo el mundo. Además, los técnicos programadores requieren tener unos conocimientos que pocos tienen. En conclusión, pocos pueden acceder al desarrollo de estos sistemas o disponer de las ingentes cantidades de datos que necesitan para funcionar.

Para el Foro Económico Mundial estos cuatro factores condicionan en gran medida la forma en que los algoritmos son diseñados, desarrollados y aplicados.

Algunos peligros relacionados con la discriminación están relacionados con la información introducida en la fase de aprendizaje de los algoritmos. Pueden ser colectivos que no están bien representados en esos datos, bien porque no generan demasiada información (por ejemplo, la población rural de los países en desarrollo) o porque han elegido no hacer públicos sus datos. En cualquier caso, esto ya genera un sesgo.

Pero incluso si los datos que utiliza el machine learning no tienen sesgos y son correctos, existen otras amenazas que puede producir discriminación, pues esta puede ir en el modo en que se ha diseñado o aplicado el algoritmo, por ejemplo, porque se ha aplicado un modelo equivocado o un modelo que encierra discriminación sin que lo sepamos, porque el funcionamiento de la máquina no ha contado con la debida supervisión humana, porque a menudo el aprendizaje automático lleva a que los sistemas tomen decisiones cuyo origen no entendemos y, por supuesto, porque siempre está abierta la posibilidad de introducir factores discriminatorios en una programación de forma intencionada.

El informe plantea cuatro grandes principios, que deberían ser observados a la hora de crear sistemas de inteligencia artificial, para garantizar que no existan sesgos en el funcionamiento de los algoritmos.

Inclusión activa. El desarrollo y diseño de aplicaciones basadas en el aprendizaje automático deben asegurar la diversidad de los datos que recibe el sistema (input), teniendo en cuenta las normas y valores de colectivos específicos que puedan verse afectados por los resultados arrojados por estos algoritmos.

Igualmente, los individuos deben dar su consentimiento específico para que un sistema pueda hacer uso de información sensible, como puede ser la raza, el género o el credo, a la hora de tomar decisiones.

Justicia. Los principios de justicia y de la dignidad de las personas afectadas deben estar en la base de la arquitectura del sistema de aprendizaje automático. Por ejemplo, analizar qué colectivos afectados por las decisiones de un algoritmo pueden verse en desventaja al ser implementado y entender por qué.

Derecho a entender. Cuando los sistemas basados en machine learning estén implicados en la toma de decisiones que afecten a los derechos individuales, este hecho se debe desvelar. Además, se debe garantizar el poder explicar cómo toman las máquinas sus decisiones de forma que sea entendible por el usuario final y por una autoridad competente humana que revise el diagnóstico del algoritmo.

Vías para la corrección. Los diseñadores y desarrolladores de algoritmos son los responsables del uso correcto y de las acciones de los mismos. Deben establecer vías para que se pueda deshacer y corregir a tiempo un resultado con efectos discriminatorios para personas o colectivos.

lunes, 18 de junio de 2018

La revolución digital y el trabajo en España

50 estrategias para 2050. El trabajo y la revolución digital en España es una nueva publicación de Fundación Telefónica realizada en colaboración con Prospektiker en el marco del Proyecto Millennium. El objetivo de esta iniciativa es analizar los efectos que pueden tener los cambios tecnológicos asociados a la revolución digital en España, prestando especial atención a los que afectan al mercado laboral. El estudio está centrado en cinco campos: Educación y aprendizaje, Ciencia y tecnología, Empresas y trabajo, Sociedad y cultura y Gobierno y políticas públicas.

La educación se convierte en el ámbito prioritario de actuación en España para tender al escenario más positivo en el horizonte de 2050. La educación en España afronta el desafío de reinventarse y cambiar adaptarse a los valores cambiantes de la sociedad, al uso de tecnologías en el aprendizaje, a la formación para profesiones hoy todavía desconocidas, los nuevos paradigmas educativos, y en general, a un mundo más complejo y global. Los centros escolares incrementarán su función como redes donde el alumnado pueda interactuar con el profesorado de forma que se produzca un aprendizaje colaborativo. Las tendencias señalan que las competencias específicas serán cada vez más necesarias en las diversas disciplinas académicas

El informe propone una serie de estrategias relacionadas con la educación, entre las que destacan temas como:

  • Generalizar la educación digital e integrar las TIC en la docencia.
  • Incorporar sistemas de inteligencia del mercado de trabajo a las políticas educativas y de empleo.
  • Asegurar la flexibilidad del sistema educativo.
  • Reorientación del sistema de educación de un enfoque colectivo a uno individual.
  • Dinamizar el sistema universitario para promover la modernización de sus estructuras y el reciclaje de su profesorado.

En el ámbito de la Ciencia y tecnología, la mejora de la eficiencia en los procesos, en las decisiones y estrategias se está convirtiendo en un elemento central de la ventaja competitiva, en la medida en que el big data, impulsará nuestra economía en las próximas décadas. Las ciudades se convertirán en espacios en los que la tecnología digital embebida, centrada en aplicaciones basadas en Internet y móviles con múltiples funciones, generará un volumen ingente de datos, y el análisis en tiempo real de los diferentes sistemas facilitará la toma de decisiones.

El Internet de las cosas (IoT) permitirá una gestión más sostenible y un abaratamiento de los costes, que tendrán un impacto beneficioso en la movilidad, el transporte autónomo, o en ámbitos como el de la vivienda, la salud, el trabajo, la energía y la producción de alimentos. El mundo asistirá a un incremento de la robótica, la fabricación avanzada y la impresión 3D, que transformarán las cadenas de suministro de todas las industrias.

Muchos de los trabajos que se desarrollan actualmente en Europa están relativamente poco cualificados y son de carácter repetitivo, por lo que el mayor avance tecnológico implica el riesgo no solo de que se pierdan estos puestos de trabajo, sino de que también se deteriore la calidad del empleo en la economía digital. El uso de tecnologías online para crear mercados de trabajo puede provocar una carrera descendente en salarios y condiciones laborales, transfiriendo el riesgo y la responsabilidad de los empleadores a los trabajadores.

El informe plantea una batería de estrategias en este ámbito de las que podemos extraer las siguientes:

  • Desarrollar una estrategia de implantación nacional en ciencia y tecnología.
  • Promover las redes de realidad extendida y potenciar una cultura de red y de interconexión para la inteligencia artificial.
  • Apuesta por la ciberseguridad.
  • Potenciar la red Internet of beings (Internet del ser humano).
  • Puesta en marcha de fondos de capital riesgo que apoyen la inversión en I+D+i.

En el apartado de Empresas y trabajo, se destaca que el envejecimiento poblacional constituye el principal cambio sociodemográfico en los países desarrollados, en los que se estima que en 2050 vivirá el 80% de la población mayor de 60 años, y Europa será la región más envejecida. Para el año 2060, se prevé que en la UE solo habrá 2 trabajadores por cada persona de 65 años o más. Junto con estos cambios sociodemográficos, otros hechos disruptivos podrían modificar de forma inesperada el funcionamiento del mercado laboral: las transformaciones en los entornos laborales, los valores cambiantes de las personas empleado o la convergencia de tecnologías. Muchos de los trabajos y habilidades buscadas hoy no existían hace una década. Del mismo modo, nuevos puestos de trabajo y habilidades surgirán en el futuro.

La digitalización está reduciendo la demanda de tareas rutinarias y manuales, al tiempo que aumenta la de tareas de baja y alta cualificación y de habilidades interpersonales y para resolver problemas.
De las estrategias propuestas por el estudio destacamos:

  • Extender los sistemas de apoyo al autoempleo y el emprendimiento, y fomentar los ecosistemas conectados.
  • Replantear los modelos de protección social en esquemas de “flexi-seguridad”.
  • Impulsar la gestión del conocimiento a través de la innovación abierta en las empresas.
  • Repensar la responsabilidad social y el impacto que las empresas generan en la sociedad y en sus empleados.
  • Impulso a programas integrales de reinserción laboral.

El campo de la Sociedad y la cultura viene caracterizado por la pérdida de protagonismo de la familia clásica madre-padre-hijo a favor de otras estructuras familiares menos tradicionales (familias monoparentales, homoparentales, multiculturales, etc.). Las sociedades serán principalmente urbanas. Las ciudades podrán llegar a concentrar cerca del 70% de la población mundial en 2050. Estas ciudades serían a su vez fiel reflejo de la creciente desigualdad y del incremento de la brecha entre ricos y pobres, que podría agravarse en las próximas décadas. Entre los riesgos probables, encontramos una expansión no igualitaria, que podría dividir al mundo entre quienes tienen acceso a la tecnología digital y quienes no, y que agrandaría la brecha con las generaciones que no cuentan con habilidades o soltura suficientes para adoptar la economía colaborativa en un ecosistema online.

De las estrategias propuestas en este terreno destacan:

  • Redefinir los valores éticos de las organizaciones y las personas.
  • Gestión de una sociedad más multicultural.
  • Desarrollar competencias digitales a nivel general y competencias analíticas clave.
  • Protagonismo del smart citizen.
  • Potenciar las industrias creativas en el marco de la cultura digital.

El último epígrafe tratado por el informe es Gobierno y políticas públicas. Se perfila un mundo más global y más local, donde se plantean cuestiones como la sostenibilidad de los actuales sistemas de bienestar, la reducción de la fuerza laboral, la necesidad de reformas estructurales para asignación de inversiones y ahorros, y la vulnerabilidad de la economía europea dentro del mercado global.

La gobernanza nacional cada vez es más dependiente de las decisiones que se toman en el exterior. Un mundo global interdependiente con diversos actores que tienen intereses transnacionales e intersectoriales, así como el surgimiento de una conciencia global y un nuevo contrato social para la ciudadanía, están cambiando el proceso de toma de decisiones y aumentando la necesidad de una cultura anticipadora de elaboración de políticas.

Entre las estrategias sugeridas en este apartado se pueden destacar:
  • Convertir la estrategia nacional sobre tecnología en una política de Estado, al margen del debate partidista.
  •  Potenciar el rol público para el impulso del avance tecnológico.
  • Nuevos mecanismos de participación ciudadana que impulsen la implicación progresiva en los procesos de toma de decisiones, más allá del voto.
  • Gobernanza basada en el gobierno abierto, la transparencia y la rendición de cuentas.
 
Google Analytics Alternative