martes, 24 de julio de 2018

Cuando Harry Potter e Internet cambiaron la forma de leer de los jóvenes

¿Cómo leemos en la sociedad digital? Lectores, booktubers y prosumidores es una publicación dirigida por Francisco Cruces, profesor de Antropología en la UNED, que analiza los nuevos hábitos de lectura que ha traído consigo la sociedad tecnológica en red en la que vivimos. En las páginas del libro encontramos fenómenos de actualidad como el lector prosumer, los booktubers o la narrativa transmedia, que dibujan el perfil del lector del siglo XXI.

Una de las coautoras de la obra, la doctora Gemma Lluch Crespo de la Universitat de València, ha centrado su aportación en definir cómo leen los jóvenes en la actualidad. A su juicio, el cambio de siglo trajo consigo un cambio en el paradigma lector de la juventud y los catalizadores del cambio fueron la serie de novelas de Harry Potter e Internet. La saga creada por J. K. Rowling consiguió entre 1997 y 2007 desintermediar la relación entre el autor y el lector: “pasar de los espacios mediados por adultos (la escuela o la biblioteca) a los espacios aparentemente libres (Internet).” Y ello fue posible gracias al canal de comunicación de la era digital, Internet, que permitió que el autor y la editorial se dirigieran directamente al lector joven, ideando campañas y promociones para él.

El ecosistema de lectura actual de los jóvenes ha roto con el heredado del siglo XX trasladando a la red todos los espacios tradicionales asociados a la lectura, como las librerías o las bibliotecas. Este nuevo ecosistema se caracteriza a grandes rasgos por:
  • Sacar la lectura del entorno privado y convertirla en una actividad social.
  • Convertir al lector pasivo en un creador de contenidos o prosumer.
  • Sustituir al mediador tradicional entre el joven y la lectura (docente, bibliotecario, padres) por la figura del influencer.
  • Cambiar la forma en que se consiguen los libros: de las librerías y bibliotecas a las plataformas online como Amazon.
Señala Lluch que las redes ofrecieron a los jóvenes la oportunidad de encontrar las lecturas que deseaban y que no encontraban en los canales tradicionales. Y esto tuvo un efecto colateral: en la búsqueda también se encontraron con muchos otros lectores como ellos, con quien hablar y compartir sus gustos literarios y experiencias. De esta forma, leer deja de ser un acto individual y privado y se socializa, en palabras de la autora, “transformaron la lectura en conversación”.

Algunos de estos jóvenes han llevado su pasión por las letras y su compromiso hasta el punto de convertirlos en una profesión. Son los influencers, personas que cuentan con miles de seguidores y que disfrutan hablando de los libros con los demás. Han sabido ganarse a las editoriales y a los autores y poder tratar directamente con ambos (“Aprendieron a diseñar campañas de marketing que ofrecían gratis a las editoriales o a los autores que admiraban”). Lo que empieza como una afición les ha llevado a convertirse en gestores de inmensas comunidades de lectores.

El participar en los espacios literarios virtuales de Internet transforma al antaño lector pasivo en un prosumer, es decir, en alguien que no se limita a consumir contenidos, sino que también los produce a través de sus recomendaciones de libros al resto de la comunidad y del intercambio de experiencias online con otros lectores: “En los espacios virtuales que han creado, han unido la lectura a la escritura, por lo que el lector se ha transformado en autor; han encontrado formas de compartir la lectura, de recomendar autores, temas o libros; continuamente, inventan juegos y retos, etcétera”.

Otro de los rasgos de este ecosistema de la lectura juvenil que describe Gemma Lluch es la aparición de una nueva literatura joven dirigida a estos nativos digitales. Libros que a lo mejor no se encuentran en los comercios habituales y que se adquieren o descargan de forma pirata en Internet, que están firmados por autores ajenos al sector editorial y a menudo procedentes del mundo audiovisual, como guionistas de series de televisión, productores o booktubers. Libros dirigidos a fans de los videojuegos y de determinadas series de culto.

Hemos mencionado a lo largo de este breve texto el neologismo booktuber. Desde mediados de esta década, el canal favorito de los jóvenes es YouTube y ello ha dado lugar a la aparición en este medio de líderes de opinión sobre libros para jóvenes que son seguidos por miles de fans. En abril de 2016, El Confidencial se hacía eco de este fenómeno con un llamativo titular: «Son los booktubers, tienen veinte años y han llegado para salvar al libro».

Una aportación interesante de la investigación que ha realizado Gemma Lluch sobre los booktubers y los influencers es la clasificación que hacen de los vídeos que cuelgan en sus canales:
  • Book Hauls – Wrap Ups – Los Book Hauls son los nuevos libros que han comprado, que les han regalado las editoriales, la familia o los amigos o que tienen acumulados en un periodo de tiempo. Habitualmente, los presentan con un Wrap Ups o pequeño comentario. Aunque habitualmente, los Wrap Ups se utilizan para comentar de una manera rápida los libros leídos durante un período de tiempo.
  • Book tag – Preguntas, retos, desafíos y juegos relacionados con los libros. Pueden relacionar unos libros con otros, con películas o sentimientos, proponer preguntas sobre personajes, acertijos, etc. Se puede aprovechar para dar a conocer los gustos del booktuber o darle forma de desafío que se lanza a sus seguidores o a algún booktuber concreto.
  • Bookshelf – A la manera de un tour, muestran los libros que tienen en sus librerías y estanterías.
  • Colaboraciones – Colaboraciones con otros booktubers o apariciones en otros canales.
  • Crónicas – Crónica de actos relacionados con la lectura: presentaciones de libros, etc.
  • Tutoriales – Esta sección es muy diversa y puede incluir desde tutoriales para grabar un vídeo, escribir una novela, etc.
  • TopLibros – Listas con los mejores libros leídos, recomendados, frases literarias favoritas…

lunes, 16 de julio de 2018

Por qué son importantes las comunicaciones móviles 5G

Ninguna tecnología está actualmente despertando tanta expectación como el 5G, la siguiente generación de comunicaciones móviles. Y no en vano pues gran parte de las maravillas que veremos en las próximas décadas dependen en gran medida de su implantación: coches autónomos, smart cities, hogar inteligente, Internet de las cosas…

El sector de las comunicaciones móviles se enfrenta en este momento a grandes retos, como son un crecimiento desmedido del tráfico y otro crecimiento contenido e imparable del número de usuarios y dispositivos conectados, lo que plantea exigencias de cobertura sin precedentes y la necesidad de tomar decisiones sobre el espectro disponible.

Básicamente, la promesa que trae consigo la nueva generación de tecnología móvil, el esperado 5G, se puede resumir en las siguientes ventajas:
  • Mucha más velocidad de transmisión de datos.
  • Latencia ultra baja, es decir, el tiempo que transcurre entre que se da una orden y el dispositivo la ejecuta. La latencia mínima de respuesta es fundamental para hacer realidad aplicaciones como la conducción automática de los coches u operaciones quirúrgicas remotas mediante robot y el 5G conseguirá bajarla hasta los 5 milisegundos.
  • Una Arquitectura de Red que permite el “Network Slicing”, el “rebanado de red” que permite a los operadores de redes móviles manejar y operar múltiples redes virtuales sobre una infraestructura de red física común.
  • Capacidad de conexión para miles de millones de dispositivos.
El origen de la telefonía móvil (Evoca, El impacto del 5G) hay que situarlo en 1979, cuando aparecen los primeros terminales analógicos, con una calidad muy baja y sin un estándar único, lo que dificultaba sobremanera la comunicación. En 1990 llega la tecnología digital con el 2G y un estándar común para interconectar todas las redes, el GSM (Global System for Mobile Communications). Las redes 3G abren la era del Internet móvil en 1998, permitiendo el uso de aplicaciones de audio y video en tiempo real, la transmisión de datos y el acceso a Internet desde el móvil. Actualmente y desde 2008, utilizamos la cuarta generación de redes, el 4G, que ha sumado a la capacidad de utilizar Internet desde el móvil prestaciones que demandan altas velocidades de transmisión, como los juegos online, la televisión HD o la videoconferencia. De acuerdo con GSMA (The Mobile Economy 2018), en 2025 en 14% de las conexiones móviles del mundo ya se hará sobre redes 5G.

Gran parte de los servicios y tecnologías que protagonizarán la revolución digital a lo largo de las próximas décadas dependerán en gran medida del despliegue del 5G y del aumento exponencial de la velocidad que traerá consigo. Hablamos de temas como el Internet industrial, la eSalud, los servicios de las smart cities, el coche autónomo, los edificios inteligentes o las aplicaciones de la realidad virtual y aumentada. En suma, todo aquello que repose sobre el tráfico móvil de grandes cantidades de información a altas velocidades de transmisión.

Las principales preocupaciones para el despliegue masivo de 5G estriban en la disponibilidad del espectro radioeléctrico necesario, que siempre ha sido el catalizador del paso a una nueva generación tecnológica. El año 2017 marcó el arranque de la concreción de las bandas a nivel europeo por parte de la Comisión Europea y del Grupo de Política del Espectro Radioeléctrico (RSPG).

La Unión Europea adoptó en abril de 2016 el Plan de Acción de 5G para Europa, con el objetivo de favorecer la coordinación entre los Estados Miembros para mejorar la competitividad europea en el desarrollo de esta tecnología de red.

Como respuesta al reto comunitario, el Gobierno de España ha puesto en marcha el Plan Nacional 5G con el fin de “situar al nuestro entre los países más avanzados en el desarrollo de esta nueva tecnología de manera que cuando la 5G alcance su madurez  tecnológica y comercial, España esté preparada para aprovechar al máximo las oportunidades de este paradigma tecnológico”.

El plan se articula en torno a cuatro ejes de actuación:
  1. Gestión y planificación del espectro radioeléctrico.
  2. Impulso a la tecnología 5G: Pilotos de red y servicios y Actividades I+D+i.
  3. Identificación y desarrollo de instrumentos legales, adicionales a los relativos a la gestión del espectro, que sean necesarios para garantizar un marco jurídico adecuado y flexible.
  4. Coordinación del plan y cooperación internacional.
Como indicaba el informe Sociedad Digital en España 2017,  la evolución a la tecnología 5G no supone un salto abrupto, sino un proceso gradual en el que la infraestructura actual 4G incorpora nuevas capacidades que aportan beneficios a los usuarios:

“La continuación de los despliegues de fibra, la gestión del espectro (refarming hacia tecnologías radio más eficientes), la incorporación de funcionalidades radio (agregación portadoras, nuevas tecnologías de antena), la densificación de la red y, lo que es extremadamente importante, la virtualización y cloudificación de la red (acceso y core), son avances que ya se están incorporando en 4G.”
Los operadores trabajan rápido para establecer posiciones respecto a la nueva tecnología. En el caso de Telefónica, recientemente anunciaba el proyecto Ciudades Tecnológicas 5G con el primer despliegue de capacidades 5G en las ciudades de Segovia y Talavera de la Reina, en colaboración con Nokia y Ericsson. En concreto, estas dos ciudades serán durante tres años un laboratorio en el que se experimentarán las capacidades de la nueva generación de tecnología de redes móviles a través de casos de uso para demostrar la capacidad del 5G a ciudadanos y empresas.

martes, 10 de julio de 2018

Los diez retos del aprendizaje profundo

Como anticipamos en el  post anterior, en un reciente trabajo académico, el profesor Gary Marcus de la Universidad de Nueva York plantea el riesgo de que, después de este periodo de grandes expectativas que han vivido las redes neuronales en los últimos años, la inteligencia artificial entre en otro periodo invernal, como el que vivió en 1970, cuando después de haber generado grandes expectativas se consideró que era una tecnología demasiado frágil, estrecha y superficial para ser utilizada en la práctica fuera del marco experimental de los laboratorios.

Para Marcus no hay que desestimar completamente el aprendizaje profundo. Simplemente, no debe ser considerado como la solución universal y en cambio de ser contemplado como una herramienta estadística más, que debe ser utilizada junto a otras para lograr que el campo de la inteligencia artificial avance realmente.

Es por ello, que Gary Marcus postula diez retos a los que se enfrenta el aprendizaje profundo en la actualidad.

1. El deep learning actual es un devorador de datos
A diferencia del cerebro humano, los algoritmos basados en el aprendizaje profundo carecen de mecanismos para aprender términos abstractos a través de la mera definición verbal y necesitan ser entrenados con millones de ejemplos. Ante situaciones o problemas donde los datos no están disponibles en grandes cantidades, el aprendizaje profundo puede no resultar la mejor solución.

2. El deep learning actual es muy superficial y ofrece pocas oportunidades de transferencia
Para Marcus, los sistemas actuales no comprenden realmente los conceptos y han sido entrenados para actuar en determinados escenarios o situaciones. Cuando se llevan a cabo los denominados tests de transferencia en los que el algoritmo es confrontado con escenarios que difieren, aunque sea ligeramente, de aquellos en los que ha sido entrenado, las soluciones que ofrece resultan superficiales.

3. El deep learning actual no puede tratar de forma natural con una estructura jerárquica
Las correlaciones que establecen este tipo de sistemas entre distintos elementos son llanas y no jerárquicas, como en una lista en la que cada elemento está al mismo nivel que los demás. Cuando se enfrentan con una estructura jerárquica, como por ejemplo una frase subordinada a otra, estos algoritmos pueden aproximarse de forma inadecuada a su análisis.

Gary Marcus utiliza el ejemplo de una frase compleja. Los sistemas de reconocimiento del lenguaje basados en el aprendizaje profundo abordarán la frase como una secuencia de palabras. Sin embargo, en una frase como el adolescente que previamente atravesó el Atlántico estableció un record de vuelo alrededor del mundo, la cláusula principal sería el adolescente que estableció un record de vuelo alrededor del mundo, mientras que previamente atravesó el Atlántico estaría subordinada a la primera. Marcus duda que el sistema pueda reconocer esa jerarquía.

4. El deep learning actual choca con las inferencias abiertas
Los humanos cuando leemos un texto podemos inferir cosas de él que no están directamente referenciadas o solo lo están parcialmente. Por ejemplo, adivinar las intenciones de un personaje determinado a través de un diálogo en el que las muestra de forma indirecta.  El aprendizaje profundo consigue desenvolverse con éxito en situaciones en las que la solución está contenida en un texto, pero empieza a tener problemas cuando esta no es tan explícita, bien porque se combinen muchas frases, bien porque las frases sean explícitas, pero que hagan alusión a un trasfondo que no aparece en el fragmento de texto.

5. El deep learning actual no es lo suficientemente transparente
Generalmente, se habla de la opacidad de las redes neuronales, haciendo referencia a que son sistemas que analizan millones de parámetros para tomar decisiones cuyo funcionamiento concreto queda fuera del conocimiento de sus creadores. Una red neuronal profunda se basa en miles de neuronas simuladas almacenadas en cientos de capas interconectadas. Es algo excesivamente más opaco e inaccesible que cualquier código de programación convencional.

6. El deep learning actual no ha sido debidamente integrado con el conocimiento previo
Marcus afirma que la principal aproximación al aprendizaje profundo es hermenéutica, es decir, autocontenida y aislada de cualquier conocimiento potencialmente útil. El proceso suele consistir en entrenar al sistema con una base de datos que asocia outputs o productos con los respectivos inputs, haciéndole aprender la relación entre ambos para solucionar un problema dado. Un conocimiento previo no suele ser introducido en el algoritmo.

Pone el ejemplo concreto de un sistema destinado a estudiar la física de las torres que se derrumban en el que no se han introducido previamente las leyes de Newton, aunque el algoritmo las acaba deduciendo más o menos a base al análisis de los millones de ejemplos que se le han introducido en su fase de entrenamiento.

7. El deep learning actual no es capaz de distinguir claramente causalidad y correlación
Aunque el aprendizaje profundo aprende a establecer relaciones entre los insumos que recibe de información y el output o producto, no se puede hablar de que entienda la relación de causalidad. Por ejemplo, un sistema podría encontrar la correlación entre la altura de una persona y la riqueza en el uso del lenguaje –cuanto más alto es un niño, mejor habla-, pero no puede entender la relación de causa entre el desarrollo y crecimiento del chaval y su riqueza lingüística.

8. El deep learning actual cree vivir en un mundo estable
El aprendizaje profundo funciona mejor en un mundo estable con reglas precisas, como por ejemplo, un juego de mesa, y no tan bien en entornos menos predecibles, como puede ser la evolución de los sistemas financieros.

9. El deep learning actual funciona bien como una aproximación, pero a veces sus soluciones no son fiables del todo
Por las razones expuestas anteriormente, el aprendizaje profundo funciona bien en determinadas situaciones, pero puede ser fácilmente engañado, por lo que hay que tratar con mucha cautela sus predicciones y dictámenes.

10. El deep learning actual es difícil de aplicar en la ingeniería
El autor apunta los riesgos de trabajar con el aprendizaje automático, pues considera que son sistemas que pueden funcionar en determinadas circunstancias, pero para los cuales es difícil garantizar que funcionarán en circunstancias alternativas con datos nuevos que pueden no parecerse a los que han sido utilizados en su entrenamiento. Esto impide que se pueda utilizar para desarrollar ingeniería robusta.

martes, 3 de julio de 2018

La inteligencia artificial y las limitaciones del aprendizaje profundo

Durante los últimos seis años el aprendizaje profundo se ha convertido en titular de periódicos y objeto de innumerables artículos en medios tecnológicos y generalistas, convirtiéndose en la técnica de moda de la inteligencia artificial. The New York Times llegó a afirmar en 2016 que el aprendizaje profundo estaba preparado para reinventar la ciencia computacional (The Great A.I. Awakening).

La popularidad del término deep learning o aprendizaje profundo despega en 2012 gracias a trabajos como el de los profesores de la Universidad de Toronto Alex Krizhevsky, lya Sutskever y Geoffrey E. Hinton ImageNet Classification with Deep Convolutional Neural Networks, que ponen en evidencia la capacidad de las redes neuronales para clasificar objetos. En este caso, los autores consiguieron que su sistema clasificara 1,2 millones de imágenes de alta resolución en 1.000 categorías distintas, dentro del concurso de algoritmos ImageNet Large Scale Visual Recognition Competition (ILSVRC).

Sin embargo, hay científicos como Gary Marcus que rebajan las expectativas del deep learning, no negando su utilidad y valor, pero señalando sus limitaciones y la necesidad de combinarlo con otras técnicas de inteligencia artificial para que esta realmente pueda alcanzar todo su potencial. Marcus es experto en psicología cognitiva y profesor en la Universidad de Nueva York. Ha plasmado su visión sobre las limitaciones del aprendizaje profundo en el paper Deep Learning: A Critical Appraisal, que ha generado un encendido debate entre los expertos en inteligencia artificial desde que fue publicado en enero.

Su tesis es que el aprendizaje profundo ha cosechado grandes logros en campos como el reconocimiento del lenguaje natural, el reconocimiento de imágenes, la traducción y también juega un papel importante en el funcionamiento de numerosas aplicaciones de la inteligencia artificial que están desarrollándose en la actualidad, pero, a su juicio, la evolución del deep learning se está acercando a un muro.

Estableciendo un paralelismo con la neurología, las redes neuronales de la inteligencia artificial permiten generar sistemas que imitan el funcionamiento del cerebro en la forma en que este clasifica la información recibida, por ejemplo, identificando objetos en función de los rasgos que contienen. Se trata de programas que realizan sus diagnósticos o predicciones basándose en la probabilidad. Su forma de aprendizaje contempla la retroalimentación; en sucesivas vueltas reciben el grado de acierto de sus dictámenes y realizan las correcciones oportunas. Un sistema de prueba y error similar al que empleamos los humanos al realizar una tarea nueva. El concepto de aprendizaje profundo o deep learning hace referencia a que las redes neuronales tienen una estructura basada en numerosas capas, en general más de 10, aunque actualmente están en pruebas algunas con más de 100.

Gary Marcus afirma que el aprendizaje profundo es utilizado especialmente como un sistema de clasificación, de forma que la red neuronal debe decidir a qué categoría o grupo de categorías pertenece un determinado elemento. Por ejemplo, en el reconocimiento del lenguaje natural, la red debe asociar grupos de sonidos del habla humana con categorías como pueden ser palabras o fonemas. En el caso del reconocimiento de objetos, el sistema aprende a relacionar una serie de imágenes con sus etiquetas o categorías, por ejemplo, la imagen de un coche con la etiqueta “automóvil”.

Pero Marcus piensa que el alcance del deep learning es limitado, precisamente porque se alimenta de cantidades inmensas de información y esta es un bien escaso. En la medida en que un sistema se enfrente a un input del que no ha tenido un ejemplo previo, por ejemplo, una foto o una palabra, y se ve obligado a extrapolar en base a datos genéricos, los resultados que ofrezca pueden resultar más imprecisos. Puede ser, por ejemplo, una determinada pronunciación que un sistema de reconocimiento del lenguaje no tiene registrada y que le haga confundir una palabra o expresión por otra.

lunes, 25 de junio de 2018

Cuando la inteligencia artificial discrimina a las personas

La gran apuesta tecnológica de este siglo es la inteligencia artificial. Utilizar programas para identificar patrones en inmensas cantidades de datos de cara a poder realizar predicciones es algo que abre un mundo de posibilidades para la ciencia, la economía y también para nuestra vida diaria, pues estos algoritmos cada vez están más presentes en los servicios que consumimos. No obstante, existe el peligro de que estos sistemas inteligentes desarrollen sesgos discriminatorios hacia determinadas personas o colectivos. La prevención de comportamientos que pueden atentar contra los derechos de las personas es básica para mantener la confianza de la sociedad en la tecnología.

A pesar de que es un sector joven que está dando sus primeros pasos fuera de los laboratorios (es un campo de estudio con una tradición de décadas, pero es ahora cuando realmente está dando frutos comerciales), la inteligencia artificial ya ha protagonizado situaciones indeseadas o no previstas que han hecho saltar las alarmas.

Uno de los ejemplos más conocidos es el del chatbot Tay de Microsoft que estaba programada para conversar con los usuarios en las redes, podía contar chistes o comentar las fotografías que recibía, pero también podía personalizar sus interacciones con los humanos, respondiendo a sus preguntas. Tay aprendía de las conversaciones que mantenía con los humanos y comenzó a emitir juicios y opiniones políticamente incorrectos de carácter racista. Microsoft la apagó a las dieciséis horas de su lanzamiento.

También en 2016 saltó la noticia de que un programa informático utilizado por la justicia de Estados Unidos para evaluar la probabilidad de reincidir de los presos juzgaba a las personas de color más proclives a ello. Se trataba del sistema Compas (Correctional Offender Management Profiling for Alternative Sanctions), de la empresa Northpointe, que asesoraba a jueces y fiscales a la hora de tomar decisiones y que establecía erróneamente la tasa de volver a delinquir de los ciudadanos negros en el doble que la de los blancos. Paradójicamente, Compas pretendía eliminar el posible sesgo racista que podían manifestar los jueces humanos.

Y más. El primer concurso de belleza cuyo jurado era una máquina, Beauty.AI, también arrojó una discriminación relacionada con el color de la piel. Participaron en torno a 6.000 candidatas de más de 100 países que enviaron sus fotos para ser juzgadas por un algoritmo programado para evaluar la belleza humana. El sorprendente resultado fue que, de las 44 ganadoras, la mayoría eran blancas, unas pocas asiáticas y solamente una tenía la piel oscura.

Este tipo de efectos no previstos ni deseados del funcionamiento de la inteligencia artificial es lo que  Roman V. Yampolskiyi (La inteligencia artificial en las empresas falla y fallará, sepa cómo evitar sus peores consecuencias) denomina “malos hábitos”, que a su juicio pueden ser de dos tipos: errores cometidos durante la fase de aprendizaje y errores cometidos durante la fase de funcionamiento.

Con el objeto de entender los riesgos potenciales del aprendizaje automático (machine learning) para poder prevenirlos, el Foro Económico Mundial ha publicado el libro blanco How to Prevent Discriminatory Outcomes in Machine Learning. A juicio de los autores no se trata de frenar el uso de la inteligencia artificial o de minar las expectativas que presenta, sino de mantener la confianza en ella y proteger el contrato social basado en la idea de que la tecnología está al servicio de los intereses de las personas. 

De acuerdo con este trabajo, la inteligencia artificial actual plantea cuatro grandes desafíos:
  • Es compleja: a diferencia del software tradicional, crea modelos que no siguen un proceso lógico que pueda ser entendido por los humanos.
  • Es opaca: dada su complejidad y la naturaleza de sus algoritmos es como una caja negra, por lo que es muy difícil averiguar por qué ha tomado una decisión determinada.
  • Es ubicua: poco a poco está presente en muchos aspectos de la sociedad.
  • Es exclusiva: a día de hoy, los sistemas basados en aprendizaje automático necesitan de grandes cantidades de datos y de expertos técnicos para programarlo. Sin embargo, la información, por ejemplo, las bases de datos, es cara y no está al alcance de todo el mundo. Además, los técnicos programadores requieren tener unos conocimientos que pocos tienen. En conclusión, pocos pueden acceder al desarrollo de estos sistemas o disponer de las ingentes cantidades de datos que necesitan para funcionar.

Para el Foro Económico Mundial estos cuatro factores condicionan en gran medida la forma en que los algoritmos son diseñados, desarrollados y aplicados.

Algunos peligros relacionados con la discriminación están relacionados con la información introducida en la fase de aprendizaje de los algoritmos. Pueden ser colectivos que no están bien representados en esos datos, bien porque no generan demasiada información (por ejemplo, la población rural de los países en desarrollo) o porque han elegido no hacer públicos sus datos. En cualquier caso, esto ya genera un sesgo.

Pero incluso si los datos que utiliza el machine learning no tienen sesgos y son correctos, existen otras amenazas que puede producir discriminación, pues esta puede ir en el modo en que se ha diseñado o aplicado el algoritmo, por ejemplo, porque se ha aplicado un modelo equivocado o un modelo que encierra discriminación sin que lo sepamos, porque el funcionamiento de la máquina no ha contado con la debida supervisión humana, porque a menudo el aprendizaje automático lleva a que los sistemas tomen decisiones cuyo origen no entendemos y, por supuesto, porque siempre está abierta la posibilidad de introducir factores discriminatorios en una programación de forma intencionada.

El informe plantea cuatro grandes principios, que deberían ser observados a la hora de crear sistemas de inteligencia artificial, para garantizar que no existan sesgos en el funcionamiento de los algoritmos.

Inclusión activa. El desarrollo y diseño de aplicaciones basadas en el aprendizaje automático deben asegurar la diversidad de los datos que recibe el sistema (input), teniendo en cuenta las normas y valores de colectivos específicos que puedan verse afectados por los resultados arrojados por estos algoritmos.

Igualmente, los individuos deben dar su consentimiento específico para que un sistema pueda hacer uso de información sensible, como puede ser la raza, el género o el credo, a la hora de tomar decisiones.

Justicia. Los principios de justicia y de la dignidad de las personas afectadas deben estar en la base de la arquitectura del sistema de aprendizaje automático. Por ejemplo, analizar qué colectivos afectados por las decisiones de un algoritmo pueden verse en desventaja al ser implementado y entender por qué.

Derecho a entender. Cuando los sistemas basados en machine learning estén implicados en la toma de decisiones que afecten a los derechos individuales, este hecho se debe desvelar. Además, se debe garantizar el poder explicar cómo toman las máquinas sus decisiones de forma que sea entendible por el usuario final y por una autoridad competente humana que revise el diagnóstico del algoritmo.

Vías para la corrección. Los diseñadores y desarrolladores de algoritmos son los responsables del uso correcto y de las acciones de los mismos. Deben establecer vías para que se pueda deshacer y corregir a tiempo un resultado con efectos discriminatorios para personas o colectivos.

lunes, 18 de junio de 2018

La revolución digital y el trabajo en España

50 estrategias para 2050. El trabajo y la revolución digital en España es una nueva publicación de Fundación Telefónica realizada en colaboración con Prospektiker en el marco del Proyecto Millennium. El objetivo de esta iniciativa es analizar los efectos que pueden tener los cambios tecnológicos asociados a la revolución digital en España, prestando especial atención a los que afectan al mercado laboral. El estudio está centrado en cinco campos: Educación y aprendizaje, Ciencia y tecnología, Empresas y trabajo, Sociedad y cultura y Gobierno y políticas públicas.

La educación se convierte en el ámbito prioritario de actuación en España para tender al escenario más positivo en el horizonte de 2050. La educación en España afronta el desafío de reinventarse y cambiar adaptarse a los valores cambiantes de la sociedad, al uso de tecnologías en el aprendizaje, a la formación para profesiones hoy todavía desconocidas, los nuevos paradigmas educativos, y en general, a un mundo más complejo y global. Los centros escolares incrementarán su función como redes donde el alumnado pueda interactuar con el profesorado de forma que se produzca un aprendizaje colaborativo. Las tendencias señalan que las competencias específicas serán cada vez más necesarias en las diversas disciplinas académicas

El informe propone una serie de estrategias relacionadas con la educación, entre las que destacan temas como:

  • Generalizar la educación digital e integrar las TIC en la docencia.
  • Incorporar sistemas de inteligencia del mercado de trabajo a las políticas educativas y de empleo.
  • Asegurar la flexibilidad del sistema educativo.
  • Reorientación del sistema de educación de un enfoque colectivo a uno individual.
  • Dinamizar el sistema universitario para promover la modernización de sus estructuras y el reciclaje de su profesorado.

En el ámbito de la Ciencia y tecnología, la mejora de la eficiencia en los procesos, en las decisiones y estrategias se está convirtiendo en un elemento central de la ventaja competitiva, en la medida en que el big data, impulsará nuestra economía en las próximas décadas. Las ciudades se convertirán en espacios en los que la tecnología digital embebida, centrada en aplicaciones basadas en Internet y móviles con múltiples funciones, generará un volumen ingente de datos, y el análisis en tiempo real de los diferentes sistemas facilitará la toma de decisiones.

El Internet de las cosas (IoT) permitirá una gestión más sostenible y un abaratamiento de los costes, que tendrán un impacto beneficioso en la movilidad, el transporte autónomo, o en ámbitos como el de la vivienda, la salud, el trabajo, la energía y la producción de alimentos. El mundo asistirá a un incremento de la robótica, la fabricación avanzada y la impresión 3D, que transformarán las cadenas de suministro de todas las industrias.

Muchos de los trabajos que se desarrollan actualmente en Europa están relativamente poco cualificados y son de carácter repetitivo, por lo que el mayor avance tecnológico implica el riesgo no solo de que se pierdan estos puestos de trabajo, sino de que también se deteriore la calidad del empleo en la economía digital. El uso de tecnologías online para crear mercados de trabajo puede provocar una carrera descendente en salarios y condiciones laborales, transfiriendo el riesgo y la responsabilidad de los empleadores a los trabajadores.

El informe plantea una batería de estrategias en este ámbito de las que podemos extraer las siguientes:

  • Desarrollar una estrategia de implantación nacional en ciencia y tecnología.
  • Promover las redes de realidad extendida y potenciar una cultura de red y de interconexión para la inteligencia artificial.
  • Apuesta por la ciberseguridad.
  • Potenciar la red Internet of beings (Internet del ser humano).
  • Puesta en marcha de fondos de capital riesgo que apoyen la inversión en I+D+i.

En el apartado de Empresas y trabajo, se destaca que el envejecimiento poblacional constituye el principal cambio sociodemográfico en los países desarrollados, en los que se estima que en 2050 vivirá el 80% de la población mayor de 60 años, y Europa será la región más envejecida. Para el año 2060, se prevé que en la UE solo habrá 2 trabajadores por cada persona de 65 años o más. Junto con estos cambios sociodemográficos, otros hechos disruptivos podrían modificar de forma inesperada el funcionamiento del mercado laboral: las transformaciones en los entornos laborales, los valores cambiantes de las personas empleado o la convergencia de tecnologías. Muchos de los trabajos y habilidades buscadas hoy no existían hace una década. Del mismo modo, nuevos puestos de trabajo y habilidades surgirán en el futuro.

La digitalización está reduciendo la demanda de tareas rutinarias y manuales, al tiempo que aumenta la de tareas de baja y alta cualificación y de habilidades interpersonales y para resolver problemas.
De las estrategias propuestas por el estudio destacamos:

  • Extender los sistemas de apoyo al autoempleo y el emprendimiento, y fomentar los ecosistemas conectados.
  • Replantear los modelos de protección social en esquemas de “flexi-seguridad”.
  • Impulsar la gestión del conocimiento a través de la innovación abierta en las empresas.
  • Repensar la responsabilidad social y el impacto que las empresas generan en la sociedad y en sus empleados.
  • Impulso a programas integrales de reinserción laboral.

El campo de la Sociedad y la cultura viene caracterizado por la pérdida de protagonismo de la familia clásica madre-padre-hijo a favor de otras estructuras familiares menos tradicionales (familias monoparentales, homoparentales, multiculturales, etc.). Las sociedades serán principalmente urbanas. Las ciudades podrán llegar a concentrar cerca del 70% de la población mundial en 2050. Estas ciudades serían a su vez fiel reflejo de la creciente desigualdad y del incremento de la brecha entre ricos y pobres, que podría agravarse en las próximas décadas. Entre los riesgos probables, encontramos una expansión no igualitaria, que podría dividir al mundo entre quienes tienen acceso a la tecnología digital y quienes no, y que agrandaría la brecha con las generaciones que no cuentan con habilidades o soltura suficientes para adoptar la economía colaborativa en un ecosistema online.

De las estrategias propuestas en este terreno destacan:

  • Redefinir los valores éticos de las organizaciones y las personas.
  • Gestión de una sociedad más multicultural.
  • Desarrollar competencias digitales a nivel general y competencias analíticas clave.
  • Protagonismo del smart citizen.
  • Potenciar las industrias creativas en el marco de la cultura digital.

El último epígrafe tratado por el informe es Gobierno y políticas públicas. Se perfila un mundo más global y más local, donde se plantean cuestiones como la sostenibilidad de los actuales sistemas de bienestar, la reducción de la fuerza laboral, la necesidad de reformas estructurales para asignación de inversiones y ahorros, y la vulnerabilidad de la economía europea dentro del mercado global.

La gobernanza nacional cada vez es más dependiente de las decisiones que se toman en el exterior. Un mundo global interdependiente con diversos actores que tienen intereses transnacionales e intersectoriales, así como el surgimiento de una conciencia global y un nuevo contrato social para la ciudadanía, están cambiando el proceso de toma de decisiones y aumentando la necesidad de una cultura anticipadora de elaboración de políticas.

Entre las estrategias sugeridas en este apartado se pueden destacar:
  • Convertir la estrategia nacional sobre tecnología en una política de Estado, al margen del debate partidista.
  •  Potenciar el rol público para el impulso del avance tecnológico.
  • Nuevos mecanismos de participación ciudadana que impulsen la implicación progresiva en los procesos de toma de decisiones, más allá del voto.
  • Gobernanza basada en el gobierno abierto, la transparencia y la rendición de cuentas.

lunes, 11 de junio de 2018

Construyendo la economía móvil

El informe la Sociedad Digital en España 2017 daba cuenta de la noticia de que el número de líneas móviles superó por primera vez al total de la población mundial en 2016, una tendencia al alza que posteriormente se consolidó en 2017. La penetración de telefonía móvil el año pasado las 103,5 líneas por cada cien habitantes, lo que representa 7.740 millones de suscripciones. Ahora GSMA ha relatado en un reciente informe las principales predicciones sobre la denominada economía móvil y sus perspectivas de crecimiento.

Ericsson (Ericsson Mobility Report 2017) calcula que para el año 2022 el 90% de las suscripciones móviles serán de banda ancha y que se superarán los dos mil millones de clientes de 4G (LTE), mientras que se alcanzarán los quinientos millones de clientes de 5G con una cobertura de población a escala mundial del 15%.

Por su parte, el informe de GSMA The Mobile Economy 2018  analiza las perspectivas de evolución del sector de las comunicaciones móviles desde el plano tecnológico, socioeconómico y financiero, intentando matizar y ampliar sus enormes expectativas de crecimiento.

Entre los principales datos que ofrece GSMA, predice que el número de suscriptores únicos móviles crecerá un 2,1% entre 2017 y 2025, de 5.000 a 5.900 millones, mientras que las suscripciones totales pasarán de los casi 7.800 millones a 9.000 en ese periodo. La diferencia entre ambos conceptos, tal y como la explica GSMA, es que el número de suscriptores únicos mide la cantidad de personas que se han abonado a un servicio móvil, independientemente del número de conexiones (por ejemplo, tarjetas SIM) que posean, mientras que el número de suscriptores hace alusión al número de tarjetas SIM que tiene una determinada red móvil.

Este crecimiento mundial esperado de la telefonía móvil será liderado por los países emergentes, especialmente India, China, Pakistán, Indonesia y Bangladesh, aunque también naciones del África subsahariana y de Latinoamérica. Este fenómeno se debe a que los mercados de los países más desarrollados están alcanzando niveles de saturación, mientras que en esas zonas del mundo todavía queda mucho espacio para el crecimiento de la telefonía móvil en general y de banda ancha en particular. GSMA predice que la tasa de penetración del Internet móvil llegará a convertirse en un indicador clave para medir el grado de desarrollo de los países y en concreto del desarrollo de la economía digital en ellos.

La siguiente predicción que realiza el informe es que la tecnología 4G será la que lidere el crecimiento de la economía móvil en el mundo por número de conexiones, que establece en más de 3.000 millones para 2019 (más optimista aún que la de Ericsson con la que abríamos este texto), mientras que se seguirá trabajando en el siguiente estándar, el 5G, que conocerá lanzamientos comerciales en los próximos tres años en Norteamérica, Asia y Europa.

Por su parte, el Internet de las cosas (IoT), tanto a través de redes móviles como fijas, triplicará su número de conexiones entre 2017 y 2015, alcanzando los 25.000 millones. El grueso de este crecimiento se centrará en el segmento de IoT industrial que, a juicio de GSMA, está todavía en su infancia. Centrándonos solo en las comunicaciones móviles, las conexiones IoT alcanzarán la cifra de 3.100 millones en todo el mundo para 2025, representando un 12% del total.

También se prevé que aumente la participación de las comunicaciones móviles en el crecimiento económico. En 2017 han sido responsables del 4,5% del PIB mundial y para 2025 se espera que alcance el 5%, al impulsar estas tecnologías la mejora de la productividad y de la eficiencia en las economías nacionales. Por otro lado, el pasado año la economía móvil dio empleo, de forma directa o indirecta, a 29 millones de personas en todo el mundo.

Durante los últimos años la financiación de actividades de innovación en empresas emergentes y start-ups ha alcanzado cifras record. El ecosistema digital se mueve muy rápido y son numerosos los proyectos que surgen en campos como la inteligencia artificial, la realidad extendida, los vehículos autónomos o el IoT.

Los operadores de telecomunicaciones están centrando su atención en la inteligencia artificial, un campo por ahora dominado por las tecnológicas americanas (Google, Amazon, Apple, Facebook, Microsoft e IBM) y por los gigantes chinos (Baidu, Alibaba y Tencent). El interés de las telcos va más allá de los robots conversacionales (chatbots) y los asistentes virtuales y se centra en la capacidad de la IA para promover la transformación digital de las propias empresas, el surgimiento de redes de telecomunicaciones inteligentes, la aparición de nuevos nichos de negocio y la mejora de la experiencia del cliente.

Finalmente, el informe de GSMA establece la necesidad de establecer un marco institucional adecuado que apoye el desarrollo del ecosistema digital. La legislación debe centrarse en regular los servicios que reciben los consumidores y no tanto en la empresa que los proporciona. La economía móvil que se interna en las nuevas tecnologías 5G necesitará unas políticas públicas que fomenten la innovación y la inversión. Los esfuerzos regulatorios deberán centrarse en tres ámbitos: espectro, infraestructura y economía.
 
Google Analytics Alternative