martes, 24 de julio de 2018

Cuando Harry Potter e Internet cambiaron la forma de leer de los jóvenes

¿Cómo leemos en la sociedad digital? Lectores, booktubers y prosumidores es una publicación dirigida por Francisco Cruces, profesor de Antropología en la UNED, que analiza los nuevos hábitos de lectura que ha traído consigo la sociedad tecnológica en red en la que vivimos. En las páginas del libro encontramos fenómenos de actualidad como el lector prosumer, los booktubers o la narrativa transmedia, que dibujan el perfil del lector del siglo XXI.

Una de las coautoras de la obra, la doctora Gemma Lluch Crespo de la Universitat de València, ha centrado su aportación en definir cómo leen los jóvenes en la actualidad. A su juicio, el cambio de siglo trajo consigo un cambio en el paradigma lector de la juventud y los catalizadores del cambio fueron la serie de novelas de Harry Potter e Internet. La saga creada por J. K. Rowling consiguió entre 1997 y 2007 desintermediar la relación entre el autor y el lector: “pasar de los espacios mediados por adultos (la escuela o la biblioteca) a los espacios aparentemente libres (Internet).” Y ello fue posible gracias al canal de comunicación de la era digital, Internet, que permitió que el autor y la editorial se dirigieran directamente al lector joven, ideando campañas y promociones para él.

El ecosistema de lectura actual de los jóvenes ha roto con el heredado del siglo XX trasladando a la red todos los espacios tradicionales asociados a la lectura, como las librerías o las bibliotecas. Este nuevo ecosistema se caracteriza a grandes rasgos por:
  • Sacar la lectura del entorno privado y convertirla en una actividad social.
  • Convertir al lector pasivo en un creador de contenidos o prosumer.
  • Sustituir al mediador tradicional entre el joven y la lectura (docente, bibliotecario, padres) por la figura del influencer.
  • Cambiar la forma en que se consiguen los libros: de las librerías y bibliotecas a las plataformas online como Amazon.
Señala Lluch que las redes ofrecieron a los jóvenes la oportunidad de encontrar las lecturas que deseaban y que no encontraban en los canales tradicionales. Y esto tuvo un efecto colateral: en la búsqueda también se encontraron con muchos otros lectores como ellos, con quien hablar y compartir sus gustos literarios y experiencias. De esta forma, leer deja de ser un acto individual y privado y se socializa, en palabras de la autora, “transformaron la lectura en conversación”.

Algunos de estos jóvenes han llevado su pasión por las letras y su compromiso hasta el punto de convertirlos en una profesión. Son los influencers, personas que cuentan con miles de seguidores y que disfrutan hablando de los libros con los demás. Han sabido ganarse a las editoriales y a los autores y poder tratar directamente con ambos (“Aprendieron a diseñar campañas de marketing que ofrecían gratis a las editoriales o a los autores que admiraban”). Lo que empieza como una afición les ha llevado a convertirse en gestores de inmensas comunidades de lectores.

El participar en los espacios literarios virtuales de Internet transforma al antaño lector pasivo en un prosumer, es decir, en alguien que no se limita a consumir contenidos, sino que también los produce a través de sus recomendaciones de libros al resto de la comunidad y del intercambio de experiencias online con otros lectores: “En los espacios virtuales que han creado, han unido la lectura a la escritura, por lo que el lector se ha transformado en autor; han encontrado formas de compartir la lectura, de recomendar autores, temas o libros; continuamente, inventan juegos y retos, etcétera”.

Otro de los rasgos de este ecosistema de la lectura juvenil que describe Gemma Lluch es la aparición de una nueva literatura joven dirigida a estos nativos digitales. Libros que a lo mejor no se encuentran en los comercios habituales y que se adquieren o descargan de forma pirata en Internet, que están firmados por autores ajenos al sector editorial y a menudo procedentes del mundo audiovisual, como guionistas de series de televisión, productores o booktubers. Libros dirigidos a fans de los videojuegos y de determinadas series de culto.

Hemos mencionado a lo largo de este breve texto el neologismo booktuber. Desde mediados de esta década, el canal favorito de los jóvenes es YouTube y ello ha dado lugar a la aparición en este medio de líderes de opinión sobre libros para jóvenes que son seguidos por miles de fans. En abril de 2016, El Confidencial se hacía eco de este fenómeno con un llamativo titular: «Son los booktubers, tienen veinte años y han llegado para salvar al libro».

Una aportación interesante de la investigación que ha realizado Gemma Lluch sobre los booktubers y los influencers es la clasificación que hacen de los vídeos que cuelgan en sus canales:
  • Book Hauls – Wrap Ups – Los Book Hauls son los nuevos libros que han comprado, que les han regalado las editoriales, la familia o los amigos o que tienen acumulados en un periodo de tiempo. Habitualmente, los presentan con un Wrap Ups o pequeño comentario. Aunque habitualmente, los Wrap Ups se utilizan para comentar de una manera rápida los libros leídos durante un período de tiempo.
  • Book tag – Preguntas, retos, desafíos y juegos relacionados con los libros. Pueden relacionar unos libros con otros, con películas o sentimientos, proponer preguntas sobre personajes, acertijos, etc. Se puede aprovechar para dar a conocer los gustos del booktuber o darle forma de desafío que se lanza a sus seguidores o a algún booktuber concreto.
  • Bookshelf – A la manera de un tour, muestran los libros que tienen en sus librerías y estanterías.
  • Colaboraciones – Colaboraciones con otros booktubers o apariciones en otros canales.
  • Crónicas – Crónica de actos relacionados con la lectura: presentaciones de libros, etc.
  • Tutoriales – Esta sección es muy diversa y puede incluir desde tutoriales para grabar un vídeo, escribir una novela, etc.
  • TopLibros – Listas con los mejores libros leídos, recomendados, frases literarias favoritas…

lunes, 16 de julio de 2018

Por qué son importantes las comunicaciones móviles 5G

Ninguna tecnología está actualmente despertando tanta expectación como el 5G, la siguiente generación de comunicaciones móviles. Y no en vano pues gran parte de las maravillas que veremos en las próximas décadas dependen en gran medida de su implantación: coches autónomos, smart cities, hogar inteligente, Internet de las cosas…

El sector de las comunicaciones móviles se enfrenta en este momento a grandes retos, como son un crecimiento desmedido del tráfico y otro crecimiento contenido e imparable del número de usuarios y dispositivos conectados, lo que plantea exigencias de cobertura sin precedentes y la necesidad de tomar decisiones sobre el espectro disponible.

Básicamente, la promesa que trae consigo la nueva generación de tecnología móvil, el esperado 5G, se puede resumir en las siguientes ventajas:
  • Mucha más velocidad de transmisión de datos.
  • Latencia ultra baja, es decir, el tiempo que transcurre entre que se da una orden y el dispositivo la ejecuta. La latencia mínima de respuesta es fundamental para hacer realidad aplicaciones como la conducción automática de los coches u operaciones quirúrgicas remotas mediante robot y el 5G conseguirá bajarla hasta los 5 milisegundos.
  • Una Arquitectura de Red que permite el “Network Slicing”, el “rebanado de red” que permite a los operadores de redes móviles manejar y operar múltiples redes virtuales sobre una infraestructura de red física común.
  • Capacidad de conexión para miles de millones de dispositivos.
El origen de la telefonía móvil (Evoca, El impacto del 5G) hay que situarlo en 1979, cuando aparecen los primeros terminales analógicos, con una calidad muy baja y sin un estándar único, lo que dificultaba sobremanera la comunicación. En 1990 llega la tecnología digital con el 2G y un estándar común para interconectar todas las redes, el GSM (Global System for Mobile Communications). Las redes 3G abren la era del Internet móvil en 1998, permitiendo el uso de aplicaciones de audio y video en tiempo real, la transmisión de datos y el acceso a Internet desde el móvil. Actualmente y desde 2008, utilizamos la cuarta generación de redes, el 4G, que ha sumado a la capacidad de utilizar Internet desde el móvil prestaciones que demandan altas velocidades de transmisión, como los juegos online, la televisión HD o la videoconferencia. De acuerdo con GSMA (The Mobile Economy 2018), en 2025 en 14% de las conexiones móviles del mundo ya se hará sobre redes 5G.

Gran parte de los servicios y tecnologías que protagonizarán la revolución digital a lo largo de las próximas décadas dependerán en gran medida del despliegue del 5G y del aumento exponencial de la velocidad que traerá consigo. Hablamos de temas como el Internet industrial, la eSalud, los servicios de las smart cities, el coche autónomo, los edificios inteligentes o las aplicaciones de la realidad virtual y aumentada. En suma, todo aquello que repose sobre el tráfico móvil de grandes cantidades de información a altas velocidades de transmisión.

Las principales preocupaciones para el despliegue masivo de 5G estriban en la disponibilidad del espectro radioeléctrico necesario, que siempre ha sido el catalizador del paso a una nueva generación tecnológica. El año 2017 marcó el arranque de la concreción de las bandas a nivel europeo por parte de la Comisión Europea y del Grupo de Política del Espectro Radioeléctrico (RSPG).

La Unión Europea adoptó en abril de 2016 el Plan de Acción de 5G para Europa, con el objetivo de favorecer la coordinación entre los Estados Miembros para mejorar la competitividad europea en el desarrollo de esta tecnología de red.

Como respuesta al reto comunitario, el Gobierno de España ha puesto en marcha el Plan Nacional 5G con el fin de “situar al nuestro entre los países más avanzados en el desarrollo de esta nueva tecnología de manera que cuando la 5G alcance su madurez  tecnológica y comercial, España esté preparada para aprovechar al máximo las oportunidades de este paradigma tecnológico”.

El plan se articula en torno a cuatro ejes de actuación:
  1. Gestión y planificación del espectro radioeléctrico.
  2. Impulso a la tecnología 5G: Pilotos de red y servicios y Actividades I+D+i.
  3. Identificación y desarrollo de instrumentos legales, adicionales a los relativos a la gestión del espectro, que sean necesarios para garantizar un marco jurídico adecuado y flexible.
  4. Coordinación del plan y cooperación internacional.
Como indicaba el informe Sociedad Digital en España 2017,  la evolución a la tecnología 5G no supone un salto abrupto, sino un proceso gradual en el que la infraestructura actual 4G incorpora nuevas capacidades que aportan beneficios a los usuarios:

“La continuación de los despliegues de fibra, la gestión del espectro (refarming hacia tecnologías radio más eficientes), la incorporación de funcionalidades radio (agregación portadoras, nuevas tecnologías de antena), la densificación de la red y, lo que es extremadamente importante, la virtualización y cloudificación de la red (acceso y core), son avances que ya se están incorporando en 4G.”
Los operadores trabajan rápido para establecer posiciones respecto a la nueva tecnología. En el caso de Telefónica, recientemente anunciaba el proyecto Ciudades Tecnológicas 5G con el primer despliegue de capacidades 5G en las ciudades de Segovia y Talavera de la Reina, en colaboración con Nokia y Ericsson. En concreto, estas dos ciudades serán durante tres años un laboratorio en el que se experimentarán las capacidades de la nueva generación de tecnología de redes móviles a través de casos de uso para demostrar la capacidad del 5G a ciudadanos y empresas.

martes, 10 de julio de 2018

Los diez retos del aprendizaje profundo

Como anticipamos en el  post anterior, en un reciente trabajo académico, el profesor Gary Marcus de la Universidad de Nueva York plantea el riesgo de que, después de este periodo de grandes expectativas que han vivido las redes neuronales en los últimos años, la inteligencia artificial entre en otro periodo invernal, como el que vivió en 1970, cuando después de haber generado grandes expectativas se consideró que era una tecnología demasiado frágil, estrecha y superficial para ser utilizada en la práctica fuera del marco experimental de los laboratorios.

Para Marcus no hay que desestimar completamente el aprendizaje profundo. Simplemente, no debe ser considerado como la solución universal y en cambio de ser contemplado como una herramienta estadística más, que debe ser utilizada junto a otras para lograr que el campo de la inteligencia artificial avance realmente.

Es por ello, que Gary Marcus postula diez retos a los que se enfrenta el aprendizaje profundo en la actualidad.

1. El deep learning actual es un devorador de datos
A diferencia del cerebro humano, los algoritmos basados en el aprendizaje profundo carecen de mecanismos para aprender términos abstractos a través de la mera definición verbal y necesitan ser entrenados con millones de ejemplos. Ante situaciones o problemas donde los datos no están disponibles en grandes cantidades, el aprendizaje profundo puede no resultar la mejor solución.

2. El deep learning actual es muy superficial y ofrece pocas oportunidades de transferencia
Para Marcus, los sistemas actuales no comprenden realmente los conceptos y han sido entrenados para actuar en determinados escenarios o situaciones. Cuando se llevan a cabo los denominados tests de transferencia en los que el algoritmo es confrontado con escenarios que difieren, aunque sea ligeramente, de aquellos en los que ha sido entrenado, las soluciones que ofrece resultan superficiales.

3. El deep learning actual no puede tratar de forma natural con una estructura jerárquica
Las correlaciones que establecen este tipo de sistemas entre distintos elementos son llanas y no jerárquicas, como en una lista en la que cada elemento está al mismo nivel que los demás. Cuando se enfrentan con una estructura jerárquica, como por ejemplo una frase subordinada a otra, estos algoritmos pueden aproximarse de forma inadecuada a su análisis.

Gary Marcus utiliza el ejemplo de una frase compleja. Los sistemas de reconocimiento del lenguaje basados en el aprendizaje profundo abordarán la frase como una secuencia de palabras. Sin embargo, en una frase como el adolescente que previamente atravesó el Atlántico estableció un record de vuelo alrededor del mundo, la cláusula principal sería el adolescente que estableció un record de vuelo alrededor del mundo, mientras que previamente atravesó el Atlántico estaría subordinada a la primera. Marcus duda que el sistema pueda reconocer esa jerarquía.

4. El deep learning actual choca con las inferencias abiertas
Los humanos cuando leemos un texto podemos inferir cosas de él que no están directamente referenciadas o solo lo están parcialmente. Por ejemplo, adivinar las intenciones de un personaje determinado a través de un diálogo en el que las muestra de forma indirecta.  El aprendizaje profundo consigue desenvolverse con éxito en situaciones en las que la solución está contenida en un texto, pero empieza a tener problemas cuando esta no es tan explícita, bien porque se combinen muchas frases, bien porque las frases sean explícitas, pero que hagan alusión a un trasfondo que no aparece en el fragmento de texto.

5. El deep learning actual no es lo suficientemente transparente
Generalmente, se habla de la opacidad de las redes neuronales, haciendo referencia a que son sistemas que analizan millones de parámetros para tomar decisiones cuyo funcionamiento concreto queda fuera del conocimiento de sus creadores. Una red neuronal profunda se basa en miles de neuronas simuladas almacenadas en cientos de capas interconectadas. Es algo excesivamente más opaco e inaccesible que cualquier código de programación convencional.

6. El deep learning actual no ha sido debidamente integrado con el conocimiento previo
Marcus afirma que la principal aproximación al aprendizaje profundo es hermenéutica, es decir, autocontenida y aislada de cualquier conocimiento potencialmente útil. El proceso suele consistir en entrenar al sistema con una base de datos que asocia outputs o productos con los respectivos inputs, haciéndole aprender la relación entre ambos para solucionar un problema dado. Un conocimiento previo no suele ser introducido en el algoritmo.

Pone el ejemplo concreto de un sistema destinado a estudiar la física de las torres que se derrumban en el que no se han introducido previamente las leyes de Newton, aunque el algoritmo las acaba deduciendo más o menos a base al análisis de los millones de ejemplos que se le han introducido en su fase de entrenamiento.

7. El deep learning actual no es capaz de distinguir claramente causalidad y correlación
Aunque el aprendizaje profundo aprende a establecer relaciones entre los insumos que recibe de información y el output o producto, no se puede hablar de que entienda la relación de causalidad. Por ejemplo, un sistema podría encontrar la correlación entre la altura de una persona y la riqueza en el uso del lenguaje –cuanto más alto es un niño, mejor habla-, pero no puede entender la relación de causa entre el desarrollo y crecimiento del chaval y su riqueza lingüística.

8. El deep learning actual cree vivir en un mundo estable
El aprendizaje profundo funciona mejor en un mundo estable con reglas precisas, como por ejemplo, un juego de mesa, y no tan bien en entornos menos predecibles, como puede ser la evolución de los sistemas financieros.

9. El deep learning actual funciona bien como una aproximación, pero a veces sus soluciones no son fiables del todo
Por las razones expuestas anteriormente, el aprendizaje profundo funciona bien en determinadas situaciones, pero puede ser fácilmente engañado, por lo que hay que tratar con mucha cautela sus predicciones y dictámenes.

10. El deep learning actual es difícil de aplicar en la ingeniería
El autor apunta los riesgos de trabajar con el aprendizaje automático, pues considera que son sistemas que pueden funcionar en determinadas circunstancias, pero para los cuales es difícil garantizar que funcionarán en circunstancias alternativas con datos nuevos que pueden no parecerse a los que han sido utilizados en su entrenamiento. Esto impide que se pueda utilizar para desarrollar ingeniería robusta.

martes, 3 de julio de 2018

La inteligencia artificial y las limitaciones del aprendizaje profundo

Durante los últimos seis años el aprendizaje profundo se ha convertido en titular de periódicos y objeto de innumerables artículos en medios tecnológicos y generalistas, convirtiéndose en la técnica de moda de la inteligencia artificial. The New York Times llegó a afirmar en 2016 que el aprendizaje profundo estaba preparado para reinventar la ciencia computacional (The Great A.I. Awakening).

La popularidad del término deep learning o aprendizaje profundo despega en 2012 gracias a trabajos como el de los profesores de la Universidad de Toronto Alex Krizhevsky, lya Sutskever y Geoffrey E. Hinton ImageNet Classification with Deep Convolutional Neural Networks, que ponen en evidencia la capacidad de las redes neuronales para clasificar objetos. En este caso, los autores consiguieron que su sistema clasificara 1,2 millones de imágenes de alta resolución en 1.000 categorías distintas, dentro del concurso de algoritmos ImageNet Large Scale Visual Recognition Competition (ILSVRC).

Sin embargo, hay científicos como Gary Marcus que rebajan las expectativas del deep learning, no negando su utilidad y valor, pero señalando sus limitaciones y la necesidad de combinarlo con otras técnicas de inteligencia artificial para que esta realmente pueda alcanzar todo su potencial. Marcus es experto en psicología cognitiva y profesor en la Universidad de Nueva York. Ha plasmado su visión sobre las limitaciones del aprendizaje profundo en el paper Deep Learning: A Critical Appraisal, que ha generado un encendido debate entre los expertos en inteligencia artificial desde que fue publicado en enero.

Su tesis es que el aprendizaje profundo ha cosechado grandes logros en campos como el reconocimiento del lenguaje natural, el reconocimiento de imágenes, la traducción y también juega un papel importante en el funcionamiento de numerosas aplicaciones de la inteligencia artificial que están desarrollándose en la actualidad, pero, a su juicio, la evolución del deep learning se está acercando a un muro.

Estableciendo un paralelismo con la neurología, las redes neuronales de la inteligencia artificial permiten generar sistemas que imitan el funcionamiento del cerebro en la forma en que este clasifica la información recibida, por ejemplo, identificando objetos en función de los rasgos que contienen. Se trata de programas que realizan sus diagnósticos o predicciones basándose en la probabilidad. Su forma de aprendizaje contempla la retroalimentación; en sucesivas vueltas reciben el grado de acierto de sus dictámenes y realizan las correcciones oportunas. Un sistema de prueba y error similar al que empleamos los humanos al realizar una tarea nueva. El concepto de aprendizaje profundo o deep learning hace referencia a que las redes neuronales tienen una estructura basada en numerosas capas, en general más de 10, aunque actualmente están en pruebas algunas con más de 100.

Gary Marcus afirma que el aprendizaje profundo es utilizado especialmente como un sistema de clasificación, de forma que la red neuronal debe decidir a qué categoría o grupo de categorías pertenece un determinado elemento. Por ejemplo, en el reconocimiento del lenguaje natural, la red debe asociar grupos de sonidos del habla humana con categorías como pueden ser palabras o fonemas. En el caso del reconocimiento de objetos, el sistema aprende a relacionar una serie de imágenes con sus etiquetas o categorías, por ejemplo, la imagen de un coche con la etiqueta “automóvil”.

Pero Marcus piensa que el alcance del deep learning es limitado, precisamente porque se alimenta de cantidades inmensas de información y esta es un bien escaso. En la medida en que un sistema se enfrente a un input del que no ha tenido un ejemplo previo, por ejemplo, una foto o una palabra, y se ve obligado a extrapolar en base a datos genéricos, los resultados que ofrezca pueden resultar más imprecisos. Puede ser, por ejemplo, una determinada pronunciación que un sistema de reconocimiento del lenguaje no tiene registrada y que le haga confundir una palabra o expresión por otra.

lunes, 25 de junio de 2018

Cuando la inteligencia artificial discrimina a las personas

La gran apuesta tecnológica de este siglo es la inteligencia artificial. Utilizar programas para identificar patrones en inmensas cantidades de datos de cara a poder realizar predicciones es algo que abre un mundo de posibilidades para la ciencia, la economía y también para nuestra vida diaria, pues estos algoritmos cada vez están más presentes en los servicios que consumimos. No obstante, existe el peligro de que estos sistemas inteligentes desarrollen sesgos discriminatorios hacia determinadas personas o colectivos. La prevención de comportamientos que pueden atentar contra los derechos de las personas es básica para mantener la confianza de la sociedad en la tecnología.

A pesar de que es un sector joven que está dando sus primeros pasos fuera de los laboratorios (es un campo de estudio con una tradición de décadas, pero es ahora cuando realmente está dando frutos comerciales), la inteligencia artificial ya ha protagonizado situaciones indeseadas o no previstas que han hecho saltar las alarmas.

Uno de los ejemplos más conocidos es el del chatbot Tay de Microsoft que estaba programada para conversar con los usuarios en las redes, podía contar chistes o comentar las fotografías que recibía, pero también podía personalizar sus interacciones con los humanos, respondiendo a sus preguntas. Tay aprendía de las conversaciones que mantenía con los humanos y comenzó a emitir juicios y opiniones políticamente incorrectos de carácter racista. Microsoft la apagó a las dieciséis horas de su lanzamiento.

También en 2016 saltó la noticia de que un programa informático utilizado por la justicia de Estados Unidos para evaluar la probabilidad de reincidir de los presos juzgaba a las personas de color más proclives a ello. Se trataba del sistema Compas (Correctional Offender Management Profiling for Alternative Sanctions), de la empresa Northpointe, que asesoraba a jueces y fiscales a la hora de tomar decisiones y que establecía erróneamente la tasa de volver a delinquir de los ciudadanos negros en el doble que la de los blancos. Paradójicamente, Compas pretendía eliminar el posible sesgo racista que podían manifestar los jueces humanos.

Y más. El primer concurso de belleza cuyo jurado era una máquina, Beauty.AI, también arrojó una discriminación relacionada con el color de la piel. Participaron en torno a 6.000 candidatas de más de 100 países que enviaron sus fotos para ser juzgadas por un algoritmo programado para evaluar la belleza humana. El sorprendente resultado fue que, de las 44 ganadoras, la mayoría eran blancas, unas pocas asiáticas y solamente una tenía la piel oscura.

Este tipo de efectos no previstos ni deseados del funcionamiento de la inteligencia artificial es lo que  Roman V. Yampolskiyi (La inteligencia artificial en las empresas falla y fallará, sepa cómo evitar sus peores consecuencias) denomina “malos hábitos”, que a su juicio pueden ser de dos tipos: errores cometidos durante la fase de aprendizaje y errores cometidos durante la fase de funcionamiento.

Con el objeto de entender los riesgos potenciales del aprendizaje automático (machine learning) para poder prevenirlos, el Foro Económico Mundial ha publicado el libro blanco How to Prevent Discriminatory Outcomes in Machine Learning. A juicio de los autores no se trata de frenar el uso de la inteligencia artificial o de minar las expectativas que presenta, sino de mantener la confianza en ella y proteger el contrato social basado en la idea de que la tecnología está al servicio de los intereses de las personas. 

De acuerdo con este trabajo, la inteligencia artificial actual plantea cuatro grandes desafíos:
  • Es compleja: a diferencia del software tradicional, crea modelos que no siguen un proceso lógico que pueda ser entendido por los humanos.
  • Es opaca: dada su complejidad y la naturaleza de sus algoritmos es como una caja negra, por lo que es muy difícil averiguar por qué ha tomado una decisión determinada.
  • Es ubicua: poco a poco está presente en muchos aspectos de la sociedad.
  • Es exclusiva: a día de hoy, los sistemas basados en aprendizaje automático necesitan de grandes cantidades de datos y de expertos técnicos para programarlo. Sin embargo, la información, por ejemplo, las bases de datos, es cara y no está al alcance de todo el mundo. Además, los técnicos programadores requieren tener unos conocimientos que pocos tienen. En conclusión, pocos pueden acceder al desarrollo de estos sistemas o disponer de las ingentes cantidades de datos que necesitan para funcionar.

Para el Foro Económico Mundial estos cuatro factores condicionan en gran medida la forma en que los algoritmos son diseñados, desarrollados y aplicados.

Algunos peligros relacionados con la discriminación están relacionados con la información introducida en la fase de aprendizaje de los algoritmos. Pueden ser colectivos que no están bien representados en esos datos, bien porque no generan demasiada información (por ejemplo, la población rural de los países en desarrollo) o porque han elegido no hacer públicos sus datos. En cualquier caso, esto ya genera un sesgo.

Pero incluso si los datos que utiliza el machine learning no tienen sesgos y son correctos, existen otras amenazas que puede producir discriminación, pues esta puede ir en el modo en que se ha diseñado o aplicado el algoritmo, por ejemplo, porque se ha aplicado un modelo equivocado o un modelo que encierra discriminación sin que lo sepamos, porque el funcionamiento de la máquina no ha contado con la debida supervisión humana, porque a menudo el aprendizaje automático lleva a que los sistemas tomen decisiones cuyo origen no entendemos y, por supuesto, porque siempre está abierta la posibilidad de introducir factores discriminatorios en una programación de forma intencionada.

El informe plantea cuatro grandes principios, que deberían ser observados a la hora de crear sistemas de inteligencia artificial, para garantizar que no existan sesgos en el funcionamiento de los algoritmos.

Inclusión activa. El desarrollo y diseño de aplicaciones basadas en el aprendizaje automático deben asegurar la diversidad de los datos que recibe el sistema (input), teniendo en cuenta las normas y valores de colectivos específicos que puedan verse afectados por los resultados arrojados por estos algoritmos.

Igualmente, los individuos deben dar su consentimiento específico para que un sistema pueda hacer uso de información sensible, como puede ser la raza, el género o el credo, a la hora de tomar decisiones.

Justicia. Los principios de justicia y de la dignidad de las personas afectadas deben estar en la base de la arquitectura del sistema de aprendizaje automático. Por ejemplo, analizar qué colectivos afectados por las decisiones de un algoritmo pueden verse en desventaja al ser implementado y entender por qué.

Derecho a entender. Cuando los sistemas basados en machine learning estén implicados en la toma de decisiones que afecten a los derechos individuales, este hecho se debe desvelar. Además, se debe garantizar el poder explicar cómo toman las máquinas sus decisiones de forma que sea entendible por el usuario final y por una autoridad competente humana que revise el diagnóstico del algoritmo.

Vías para la corrección. Los diseñadores y desarrolladores de algoritmos son los responsables del uso correcto y de las acciones de los mismos. Deben establecer vías para que se pueda deshacer y corregir a tiempo un resultado con efectos discriminatorios para personas o colectivos.

lunes, 18 de junio de 2018

La revolución digital y el trabajo en España

50 estrategias para 2050. El trabajo y la revolución digital en España es una nueva publicación de Fundación Telefónica realizada en colaboración con Prospektiker en el marco del Proyecto Millennium. El objetivo de esta iniciativa es analizar los efectos que pueden tener los cambios tecnológicos asociados a la revolución digital en España, prestando especial atención a los que afectan al mercado laboral. El estudio está centrado en cinco campos: Educación y aprendizaje, Ciencia y tecnología, Empresas y trabajo, Sociedad y cultura y Gobierno y políticas públicas.

La educación se convierte en el ámbito prioritario de actuación en España para tender al escenario más positivo en el horizonte de 2050. La educación en España afronta el desafío de reinventarse y cambiar adaptarse a los valores cambiantes de la sociedad, al uso de tecnologías en el aprendizaje, a la formación para profesiones hoy todavía desconocidas, los nuevos paradigmas educativos, y en general, a un mundo más complejo y global. Los centros escolares incrementarán su función como redes donde el alumnado pueda interactuar con el profesorado de forma que se produzca un aprendizaje colaborativo. Las tendencias señalan que las competencias específicas serán cada vez más necesarias en las diversas disciplinas académicas

El informe propone una serie de estrategias relacionadas con la educación, entre las que destacan temas como:

  • Generalizar la educación digital e integrar las TIC en la docencia.
  • Incorporar sistemas de inteligencia del mercado de trabajo a las políticas educativas y de empleo.
  • Asegurar la flexibilidad del sistema educativo.
  • Reorientación del sistema de educación de un enfoque colectivo a uno individual.
  • Dinamizar el sistema universitario para promover la modernización de sus estructuras y el reciclaje de su profesorado.

En el ámbito de la Ciencia y tecnología, la mejora de la eficiencia en los procesos, en las decisiones y estrategias se está convirtiendo en un elemento central de la ventaja competitiva, en la medida en que el big data, impulsará nuestra economía en las próximas décadas. Las ciudades se convertirán en espacios en los que la tecnología digital embebida, centrada en aplicaciones basadas en Internet y móviles con múltiples funciones, generará un volumen ingente de datos, y el análisis en tiempo real de los diferentes sistemas facilitará la toma de decisiones.

El Internet de las cosas (IoT) permitirá una gestión más sostenible y un abaratamiento de los costes, que tendrán un impacto beneficioso en la movilidad, el transporte autónomo, o en ámbitos como el de la vivienda, la salud, el trabajo, la energía y la producción de alimentos. El mundo asistirá a un incremento de la robótica, la fabricación avanzada y la impresión 3D, que transformarán las cadenas de suministro de todas las industrias.

Muchos de los trabajos que se desarrollan actualmente en Europa están relativamente poco cualificados y son de carácter repetitivo, por lo que el mayor avance tecnológico implica el riesgo no solo de que se pierdan estos puestos de trabajo, sino de que también se deteriore la calidad del empleo en la economía digital. El uso de tecnologías online para crear mercados de trabajo puede provocar una carrera descendente en salarios y condiciones laborales, transfiriendo el riesgo y la responsabilidad de los empleadores a los trabajadores.

El informe plantea una batería de estrategias en este ámbito de las que podemos extraer las siguientes:

  • Desarrollar una estrategia de implantación nacional en ciencia y tecnología.
  • Promover las redes de realidad extendida y potenciar una cultura de red y de interconexión para la inteligencia artificial.
  • Apuesta por la ciberseguridad.
  • Potenciar la red Internet of beings (Internet del ser humano).
  • Puesta en marcha de fondos de capital riesgo que apoyen la inversión en I+D+i.

En el apartado de Empresas y trabajo, se destaca que el envejecimiento poblacional constituye el principal cambio sociodemográfico en los países desarrollados, en los que se estima que en 2050 vivirá el 80% de la población mayor de 60 años, y Europa será la región más envejecida. Para el año 2060, se prevé que en la UE solo habrá 2 trabajadores por cada persona de 65 años o más. Junto con estos cambios sociodemográficos, otros hechos disruptivos podrían modificar de forma inesperada el funcionamiento del mercado laboral: las transformaciones en los entornos laborales, los valores cambiantes de las personas empleado o la convergencia de tecnologías. Muchos de los trabajos y habilidades buscadas hoy no existían hace una década. Del mismo modo, nuevos puestos de trabajo y habilidades surgirán en el futuro.

La digitalización está reduciendo la demanda de tareas rutinarias y manuales, al tiempo que aumenta la de tareas de baja y alta cualificación y de habilidades interpersonales y para resolver problemas.
De las estrategias propuestas por el estudio destacamos:

  • Extender los sistemas de apoyo al autoempleo y el emprendimiento, y fomentar los ecosistemas conectados.
  • Replantear los modelos de protección social en esquemas de “flexi-seguridad”.
  • Impulsar la gestión del conocimiento a través de la innovación abierta en las empresas.
  • Repensar la responsabilidad social y el impacto que las empresas generan en la sociedad y en sus empleados.
  • Impulso a programas integrales de reinserción laboral.

El campo de la Sociedad y la cultura viene caracterizado por la pérdida de protagonismo de la familia clásica madre-padre-hijo a favor de otras estructuras familiares menos tradicionales (familias monoparentales, homoparentales, multiculturales, etc.). Las sociedades serán principalmente urbanas. Las ciudades podrán llegar a concentrar cerca del 70% de la población mundial en 2050. Estas ciudades serían a su vez fiel reflejo de la creciente desigualdad y del incremento de la brecha entre ricos y pobres, que podría agravarse en las próximas décadas. Entre los riesgos probables, encontramos una expansión no igualitaria, que podría dividir al mundo entre quienes tienen acceso a la tecnología digital y quienes no, y que agrandaría la brecha con las generaciones que no cuentan con habilidades o soltura suficientes para adoptar la economía colaborativa en un ecosistema online.

De las estrategias propuestas en este terreno destacan:

  • Redefinir los valores éticos de las organizaciones y las personas.
  • Gestión de una sociedad más multicultural.
  • Desarrollar competencias digitales a nivel general y competencias analíticas clave.
  • Protagonismo del smart citizen.
  • Potenciar las industrias creativas en el marco de la cultura digital.

El último epígrafe tratado por el informe es Gobierno y políticas públicas. Se perfila un mundo más global y más local, donde se plantean cuestiones como la sostenibilidad de los actuales sistemas de bienestar, la reducción de la fuerza laboral, la necesidad de reformas estructurales para asignación de inversiones y ahorros, y la vulnerabilidad de la economía europea dentro del mercado global.

La gobernanza nacional cada vez es más dependiente de las decisiones que se toman en el exterior. Un mundo global interdependiente con diversos actores que tienen intereses transnacionales e intersectoriales, así como el surgimiento de una conciencia global y un nuevo contrato social para la ciudadanía, están cambiando el proceso de toma de decisiones y aumentando la necesidad de una cultura anticipadora de elaboración de políticas.

Entre las estrategias sugeridas en este apartado se pueden destacar:
  • Convertir la estrategia nacional sobre tecnología en una política de Estado, al margen del debate partidista.
  •  Potenciar el rol público para el impulso del avance tecnológico.
  • Nuevos mecanismos de participación ciudadana que impulsen la implicación progresiva en los procesos de toma de decisiones, más allá del voto.
  • Gobernanza basada en el gobierno abierto, la transparencia y la rendición de cuentas.

lunes, 11 de junio de 2018

Construyendo la economía móvil

El informe la Sociedad Digital en España 2017 daba cuenta de la noticia de que el número de líneas móviles superó por primera vez al total de la población mundial en 2016, una tendencia al alza que posteriormente se consolidó en 2017. La penetración de telefonía móvil el año pasado las 103,5 líneas por cada cien habitantes, lo que representa 7.740 millones de suscripciones. Ahora GSMA ha relatado en un reciente informe las principales predicciones sobre la denominada economía móvil y sus perspectivas de crecimiento.

Ericsson (Ericsson Mobility Report 2017) calcula que para el año 2022 el 90% de las suscripciones móviles serán de banda ancha y que se superarán los dos mil millones de clientes de 4G (LTE), mientras que se alcanzarán los quinientos millones de clientes de 5G con una cobertura de población a escala mundial del 15%.

Por su parte, el informe de GSMA The Mobile Economy 2018  analiza las perspectivas de evolución del sector de las comunicaciones móviles desde el plano tecnológico, socioeconómico y financiero, intentando matizar y ampliar sus enormes expectativas de crecimiento.

Entre los principales datos que ofrece GSMA, predice que el número de suscriptores únicos móviles crecerá un 2,1% entre 2017 y 2025, de 5.000 a 5.900 millones, mientras que las suscripciones totales pasarán de los casi 7.800 millones a 9.000 en ese periodo. La diferencia entre ambos conceptos, tal y como la explica GSMA, es que el número de suscriptores únicos mide la cantidad de personas que se han abonado a un servicio móvil, independientemente del número de conexiones (por ejemplo, tarjetas SIM) que posean, mientras que el número de suscriptores hace alusión al número de tarjetas SIM que tiene una determinada red móvil.

Este crecimiento mundial esperado de la telefonía móvil será liderado por los países emergentes, especialmente India, China, Pakistán, Indonesia y Bangladesh, aunque también naciones del África subsahariana y de Latinoamérica. Este fenómeno se debe a que los mercados de los países más desarrollados están alcanzando niveles de saturación, mientras que en esas zonas del mundo todavía queda mucho espacio para el crecimiento de la telefonía móvil en general y de banda ancha en particular. GSMA predice que la tasa de penetración del Internet móvil llegará a convertirse en un indicador clave para medir el grado de desarrollo de los países y en concreto del desarrollo de la economía digital en ellos.

La siguiente predicción que realiza el informe es que la tecnología 4G será la que lidere el crecimiento de la economía móvil en el mundo por número de conexiones, que establece en más de 3.000 millones para 2019 (más optimista aún que la de Ericsson con la que abríamos este texto), mientras que se seguirá trabajando en el siguiente estándar, el 5G, que conocerá lanzamientos comerciales en los próximos tres años en Norteamérica, Asia y Europa.

Por su parte, el Internet de las cosas (IoT), tanto a través de redes móviles como fijas, triplicará su número de conexiones entre 2017 y 2015, alcanzando los 25.000 millones. El grueso de este crecimiento se centrará en el segmento de IoT industrial que, a juicio de GSMA, está todavía en su infancia. Centrándonos solo en las comunicaciones móviles, las conexiones IoT alcanzarán la cifra de 3.100 millones en todo el mundo para 2025, representando un 12% del total.

También se prevé que aumente la participación de las comunicaciones móviles en el crecimiento económico. En 2017 han sido responsables del 4,5% del PIB mundial y para 2025 se espera que alcance el 5%, al impulsar estas tecnologías la mejora de la productividad y de la eficiencia en las economías nacionales. Por otro lado, el pasado año la economía móvil dio empleo, de forma directa o indirecta, a 29 millones de personas en todo el mundo.

Durante los últimos años la financiación de actividades de innovación en empresas emergentes y start-ups ha alcanzado cifras record. El ecosistema digital se mueve muy rápido y son numerosos los proyectos que surgen en campos como la inteligencia artificial, la realidad extendida, los vehículos autónomos o el IoT.

Los operadores de telecomunicaciones están centrando su atención en la inteligencia artificial, un campo por ahora dominado por las tecnológicas americanas (Google, Amazon, Apple, Facebook, Microsoft e IBM) y por los gigantes chinos (Baidu, Alibaba y Tencent). El interés de las telcos va más allá de los robots conversacionales (chatbots) y los asistentes virtuales y se centra en la capacidad de la IA para promover la transformación digital de las propias empresas, el surgimiento de redes de telecomunicaciones inteligentes, la aparición de nuevos nichos de negocio y la mejora de la experiencia del cliente.

Finalmente, el informe de GSMA establece la necesidad de establecer un marco institucional adecuado que apoye el desarrollo del ecosistema digital. La legislación debe centrarse en regular los servicios que reciben los consumidores y no tanto en la empresa que los proporciona. La economía móvil que se interna en las nuevas tecnologías 5G necesitará unas políticas públicas que fomenten la innovación y la inversión. Los esfuerzos regulatorios deberán centrarse en tres ámbitos: espectro, infraestructura y economía.

martes, 5 de junio de 2018

El estado de la innovación en España

La sexta edición del informe de KPMG The Changing Landscape of Disruptive Technologies analiza, a través de entrevistas a directivos y emprendedores del sector tecnológico, el estado de la innovación alrededor del mundo. En una primera parte, establece clasificaciones generales que destacan los países, regiones, ciudades y empresas más avanzadas en este campo, mientas que en la segunda presenta una visión más pormenorizada país por país.

De esta forma, los expertos encuestados consideran que los países que presentan mayor probabilidad de albergar el nacimiento de tecnologías disruptivas de impacto global son, en primer lugar, Estados Unidos, seguido de China, India, Japón y Reino Unido.

Por otro lado, el 45% de la muestra cree posible que el epicentro de la innovación mundial abandone Silicon Valley en los próximos años y se traslade a otras regiones del mundo. Un tercio apunta que China será a medio plazo el gran nodo tecnológico del mundo.

Al ser preguntados sobre qué ciudades pueden emerger como centros de innovación en el futuro cercano, el nombre que más se repite es Shanghái en China, seguido de Tokio, Londres, Nueva York y Pekín.  Los puestos siguientes los ocupan, respectivamente, Singapur, Seúl, Bangalore, Tel Aviv y la europea Berlín.

Las empresas que lideran la innovación en el mundo son principalmente americanas: Google, Apple, Microsoft, Tesla y Amazon. Por detrás aparece mencionada la china Alibaba. En el apartado de los mayores visionarios tecnológicos surgen los nombres de Elon Musk (Tesla), Sundar Pichai (Google), Mark Zuckerberg (Facebook), Jack Ma (Alibaba), Bill Gates y Satya Nadella (Microsoft).

Al abordar el caso concreto del estado de la innovación en España, los autores del trabajo se muestran francamente optimistas: nuestro país es de los más innovadores del mundo dado que ocupa el puesto 28 de 127 países considerados dentro del Global Innovation Index 2017.

La solidez del sistema de innovación español se sostiene sobre cuatro pilares:

  1. Un buen ecosistema de I+D basado en infraestructuras, centros de investigación y servicios de apoyo.
  2. Liderazgo en tecnologías avanzadas en sectores como las telecomunicaciones, la energía, los electrodomésticos, la banca, la defensa y el control aéreo.
  3. El elevado nivel de las universidades y otros centros de investigación que es reconocido mundialmente.
  4. El asentamiento en España de las plantas de producción y los centros de excelencia de numerosas multinacionales, gracias a la elevada calidad de vida y al fácil acceso a recursos de calidad a bajo coste.
Los modelos de negocio digitales más desarrollados en España son los de comercio minorista (Business-to-Consumer) y los basados en redes sociales. El 70% de los navegantes españoles compra en Amazon y el 40% lo hace una vez al mes. El ocio y los viajes son dos de los principales sectores en los que se centra el comercio electrónico. El informe también destaca que casi 20 millones de españoles hacen uso de las redes sociales, especialmente de Facebook, YouTube, Twitter, Spotify y WhatsApp.

Por otro lado, la alta penetración de teléfonos inteligentes y de la banda ancha móvil entre la población (más de un 94% de cobertura de 4G en los hogares de acuerdo con La Sociedad Digital en España 2017) sienta las bases para el crecimiento de modelos de negocio digitales disruptivos, como el fintech, el proptech o la eSalud.

KPMG dibuja el colectivo de la start-up española con los siguientes rasgos:

  • El 77% de las mismas están en fase de seed stage, es decir, en la fase inicial de concepción de la idea de negocio, y el 55% tiene menos de tres años.
  • Los campos principales en los que trabajan las start-ups españolas son el fintech, la realidad aumentada, el diseño, el Internet de las cosas y el geoposicionamiento.
  • El desarrollo de producto está basado sobre todo en el desarrollo de software, los modelos de negocio de servicios, el software como servicio y la fabricación de dispositivos IoT.
  • Los modelos de negocio se basan sobre todo en el B2B (Business-to-Business), en el B2C (Business-to-Consumer) y en el B2B2C (Business-to-Business-to-Consumer).
 Como obstáculo a la innovación en España, el informe destaca el bajo espíritu emprendedor de la población (solamente el 5,7% de la fuerza de trabajo está interesada en emprender), que los autores achacan a factores como la excesiva burocracia, los elevados impuestos que tiene que pagar la empresa, la falta de flexibilidad del mercado de trabajo o la dificultad para acceder al capital riesgo y a los créditos bancarios.

lunes, 28 de mayo de 2018

¿Estamos preparados para el coche autónomo?

Los coches autónomos no son solo tecnología. Existen muchos otros elementos que condicionan el que algún día más o menos cercano recorran en gran número nuestras autovías. Un estudio de KPMG, Autonomous Vehicles Readiness Index, ha llevado a cabo el análisis de las condiciones que requieren este tipo de automóviles para ser viables y aporta un índice que clasifica el grado de preparación de una serie de países para acoger este fenómeno.

Este índice de preparación para la llegada de los vehículos autónomos consta de cuatro pilares:

  1. Política y legislación. Considera los siguientes aspectos: la calidad de la regulación de la nación en cuestión sobre vehículos autónomos, el haber creado un organismo específico sobre el tema dentro del área de la administración del Estado responsable del tráfico, la inversión gubernamental en infraestructura para la conducción autónoma y la puesta en marcha de proyectos piloto públicos.
  2. Tecnología e innovación. Este indicador se calcula en base a nueve variables, como, por ejemplo, las alianzas empresariales dentro del sector de la automoción, la existencia en el país de nodos de investigación y desarrollo en conducción autónoma o la inversión total en este concepto.
  3. Infraestructuras. Un agregado que parte de seis variables derivadas de investigaciones precedentes, como, por ejemplo, la cantidad de estaciones de recarga para coches eléctricos que existen, la calidad de las carreteras o el grado de disponibilidad de comunicaciones 4G.
  4. Aceptación por el consumidor. Se basa en indicadores como la cantidad de población que vive en áreas susceptibles de acoger pruebas de conducción autónoma o en otros, como las encuestas directas a la población.
Las conclusiones que extrae el informe de los veinte países analizados es que Holanda es el país mejor preparado para la llegada del coche autónomo, pues obtiene puntuaciones entre los cuatro primeros puestos en tres pilares y el número uno en el relativo a las infraestructuras.

Los Países Bajos son seguidos de cerca por otros cuatro “favoritos”:

  • Singapur, que alcanza los primeros puestos en política y legislación y en aceptación del consumidor.
  • Estados Unidos, el mejor situado en tecnología e innovación gracias a las potentes alianzas que existen entre sus empresas de automoción con otras del extranjero y/o del sector tecnológico.
  • Suecia, ostentando el segundo puesto en tecnología e innovación, con una elevada proporción de casas matrices de empresas de vehículos autónomos por habitante.
  • Reino Unido, entre los cinco primeros puestos de tres de los cuatro pilares y destacando en política y legislación y en aceptación del consumidor.
En el extremo opuesto, el estudio señala a la India, México, Rusia y Brasil, como los peores preparados para la llegada del coche autónomo.

A través de las experiencias analizadas, se pueden extraer cinco condiciones que pueden condicionar el éxito en este campo:

  1. El apoyo del gobierno y la voluntad de desarrollar un acervo legislativo en torno a la conducción autónoma.
  2. Una infraestructura viaria excelente.
  3. Un elevado grado de inversión e innovación del sector privado.
  4. Posibilidad de realizar pruebas a gran escala fruto de la existencia de una fuerte industria de automoción.
  5. Un gobierno proactivo que promueva acuerdos entre fabricantes.
 España aparece en el nada destacado puesto 15 del ranking, por debajo de Australia y por encima de China. Como hito destacado, se subraya la existencia de un plan sobre vehículos autónomos anunciado en noviembre de 2017. Por lo demás, los indicadores considerados sitúan a nuestro país entre los puestos 14 y 17 en los cuatro pilares. Entre los puntos débiles, comentar que no existen aquí empresas de tecnología de coches autónomos y que hay pocas patentes relevantes. A pesar de la buena calidad de las carreteras, baja la puntuación el no disponer prácticamente de estaciones de carga eléctrica y –según los autores del informe-, un nivel medio de cobertura 4G.

martes, 22 de mayo de 2018

El ecosistema Fintech español

El sector financiero ha sido tradicionalmente uno de los primeros en asumir la innovación tecnológica, primero, con la informatización, más tarde, ofreciendo servicios a través de Internet, y ahora, adaptándose a las necesidades de la sociedad digital. La revolución viene de la mano de empresas tecnológicas, las denominadas Fintech, cuyas soluciones financieras han hecho reaccionar a la banca tradicional, que se ha puesto a generar innovación al servicio del cliente.

El denominado ecosistema Fintech español es el objeto de estudio del informe Fintech, innovación al servicio del cliente elaborado por el Observatorio de la Digitalización Financiera Funcas-KPMG. La meta, según sus autores, es ofrecer a la sociedad una visión de las transformaciones que se están produciendo en el sector financiero de nuestro país desde la perspectiva de la oferta y de la demanda.

Un primer paso de este trabajo es definir claramente qué es una empresa Fintech, que es aquella que ofrece servicios financieros con las tecnologías más modernas. Este tipo de compañías presenta seis rasgos distintivos:

  1. Su oferta de productos financieros es totalmente online
  2. Utilizan tecnologías disruptivas, tienen estructuras flexibles y metodologías de trabajo ágiles.
  3. Se basan en una filosofía centrada en el cliente
  4. Suelen basarse en un modelo monoproducto
  5. Favorecen la inclusión financiera y la transparencia
  6. Reducen los costes de los servicios actuales
Existen unas 15.000 empresas Fintech en todo el mundo y en nuestro país hay más de 300, que emplean a más de 3.500 trabajadores y que facturan más de 100 millones de euros. España es el 6º país del mundo en número de Fintechs y el 5º en cuanto al uso que hacen las personas de este tipo de servicios.

Las empresas tecnológicas centradas en aplicaciones financieras han actuado como catalizador de la digitalización de las entidades financieras y de la sociedad, favoreciendo la inclusión financiera y la democratización de los servicios, mediante unas políticas de innovación centrada en el cliente.

Aunque en un principio se produce una fuerte competencia entre las start-ups tecnológicas y la banca tradicional, actualmente ambas partes consideran más positivo y más rentable el aliarse y colaborar.
Curiosamente, tras producirse el tándem de cooperación entre la banca y las tecnológicas, aparecen en el horizonte del sector financiero nuevos agentes externos que pueden convertirse en competencia a medio plazo: las GAFA (Google, Amazon, Facebook y Apple) y las BAT (Baiudu, Alibaba, Tencent).

Para comprender la estructura del sector, la Asociación Española de Fintech e Insurtech clasifica las empresas en doce verticales:

  • Asesoramiento y gestión patrimonial.
  • Finanzas personales. Comparar productos financieros y optimización de finanzas personales.
  • Financiación alternativa. Préstamos sin garantía, Crowdlending y Crowdfunding.
  • Crowdfunding/lending sobre activos o bienes tangibles.
  • Servicios transaccionales/divisas. Se trata evitar los costes de la intermediación bancaria.
  • Medios de pago. Entidades que prestan medios de pago electrónicos.
  • Infraestructura financiera. Entidades dedicadas a la mejora de la tecnología existente para la prestación de servicios financieros.
  • Criptocurrencies y blockchain.
  • InsurTech. Tecnología aplicada al sector seguros.
  • Identificación online de clientes.
  • Big data. Generar servicios aprovechando los datos.
  • Neobanks y Challenger Banks. Bancos 100% digitales que utilizan el smartphone o las redes sociales para relacionarse con sus clientes.

Las empresas fintech españolas de acuerdo con el informe basan principalmente su modelo de negocio en los servicios de pago (76% del total) y en menor medida en servicios gratuitos (21%), teniendo poco peso por ahora los servicios freemium (3%).

Los ingresos vienen principalmente de las comisiones por la prestación de servicios financieros (45%), por el pago por uso (25%) y por las comisiones de transacciones (25%).

Finalmente, de todas las empresas Fintech encuestadas para este estudio, el 75% contempla a los bancos tradicionales como colaboradores y solamente una cuarta parte los concibe como competidores.

miércoles, 16 de mayo de 2018

Economía de los Datos: la riqueza de la era digital

Los datos se han convertido en un factor de producción de cualquier proceso económico actual. Aunque en estado bruto, el dato carece a priori de valor, a través de su tratamiento, procesamiento y análisis científico se puede convertir en conocimiento útil y original. Nunca antes se pudieron interpretar los datos como podemos hacerlo hoy gracias a las innovaciones en big data y en Ciencia de los Datos.

Economía de los Datos. Riqueza 4.0 es una nueva publicación de Fundación Telefónica dirigida por Emilio Ontiveros y coordinada por Verónica López Sabater (Analistas Financieros Internacionales) que persigue exponer la capacidad de innovación que se le presenta a las personas, las empresas y las Administraciones públicas, a partir de la explotación inteligente del dato.

La Economía de los Datos puede definirse como el conjunto de iniciativas, actividades y/o proyectos cuyo modelo de negocio se basa en la exploración y explotación de las estructuras de bases de datos existentes (tradicionales y procedentes de nuevas fuen-tes) para identificar oportunidades de generación de productos y servicios.

En términos de generación de valor, el big data puede desarrollar un mayor conocimiento sobre el perfil del cliente, una reducción en los costes mediante la detección y la resolución de ineficiencias y la creación de nuevos productos y servicios de informa¬ción o la implantación de nuevos negocios.

La data science, que engloba métodos computacionales, matemáticos y estadísticos, nos permite responder a preguntas dentro del marco empresarial aplicando el método científico, pasando de la teoría a la práctica, describiendo, anticipando y prediciendo sucesos y prescribiendo acciones.

Según la Comisión Europea, se estima que la Economía de los Datos en la Unión Europea ascendía a un valor de 272.000 millones de euros en 2015. McKinsey estima que el PIB de la economía europea podría incrementarse en 2,5 billones en 2025 si alcanzara un mayor potencial, especialmente en las empresas más retrasadas en términos de digitalización. En el caso de Estados Unidos, McKinsey estima que el Internet de las Cosas, la analítica de datos y las plataformas de talento online podrían añadir 2,2 billones de dólares al PIB de la economía americana en 2025.

El 70% de las empresas financieras del mundo declara que ya han hecho proyectos big data, enfocados, principalmente, en el conocimiento profundo de los clientes, la mejora de sus modelos de propensión a la adopción de sus productos, el análisis de riesgos o la detección de fraude de diferentes tipos, como en transacciones con tarjetas de pago o peticiones de préstamos.

En el caso del sector telecomunicaciones, aproximadamente el 60% de las organizaciones está realizando proyectos big data para analizar la movilidad de sus usuarios, entender cómo están conectados, mejorar sus campañas de marketing o realizar comunicaciones personalizadas gracias a la información geográfica que tienen.

En los medios de comunicación el principal uso del big data está relacionado con la recomendación personalizada de contenidos y la creación de nuevos productos basados en datos, y un 73% de estas empresas declara estar inmerso en este tipo de proyectos.

En España, el 84,8% de las compañías está realizando proyectos big data o tiene planes inminentes para hacerlo.

En América Latina, los países donde más se está apostando por el desarrollo de esta tecnología son Brasil, México y Argentina, donde más de un 75% de las empresas declara que es estratégico para ellas, está realizando proyectos o tiene planes para llevarlos a cabo en los dos próximos años.

Finalmente, es importante destacar que la Economía de los Datos puede convertirse en una fuente de creación de empleo, especialmente a través de la demanda que realiza de nuevos perfiles profesionales.

lunes, 7 de mayo de 2018

Los ecos de 2001 (y V): nuestros hermanos mayores del cosmos

Para celebrar los 50 años de la película de Stanley Kubrick 2001: una odisea del espacio me gustaría analizar a través de una serie de artículos algunos conceptos y elementos del film y su vigencia o relación con este mundo de la primera mitad del siglo XXI. En concreto, temas como las visiones de entonces del futuro tecnológico, el desarrollo de la inteligencia artificial y su relación con el ser humano, el transhumanismo o la búsqueda de vida extraterrestre.

A pesar de sus aires filosóficos, 2001 es una película de extraterrestres. El eje central de la acción describe la intervención en la evolución humana de inteligencias superiores, desde la prehistoria hasta el salto evolutivo que protagoniza el astronauta Bowman en la última secuencia del film.

No obstante, se trata de una película de extraterrestres atípica, pues es una película de extraterrestres sin extraterrestres. En efecto, no aparece ningún ser de otro mundo en todo el metraje y solamente hacen patente su presencia las inteligencias superiores a través del monolito negro, que es el verdadero protagonista del guion.

El director Stanley Kubrick le explicó al escritor Joseph Gelmis en una entrevista realizada en 1969 el porqué de esta ausencia de iconografía alienígena. El equipo de rodaje debatió largo y tendido sobre cómo presentar a los extraterrestres de una forma absolutamente rompedora y alucinante, pero al final se llegó a la conclusión de que «no se puede imaginar lo inimaginable». Deciden por tanto representar la inteligencia de otros mundos desde un punto de vista simbólico y artístico, un monolito negro, que en palabras de Kubrick «tiene en sí mismo algo de arquetipo jungiano y a la vez es un ejemplo muy fiel de ‘arte minimalista’».

De alguna forma, los entes superiores extraterrestres son un equivalente a dioses. El mismo Kubrick dijo en 1968: «Diría que el concepto de Dios está en el corazón de 2001, pero no cualquier imagen tradicional antropomórfica de Dios». No es extraño que una civilización tecnológica “actualice” el culto religioso tradicional tiñéndolo de tecnología. No son pocas las personas que sustituyen la fe en los dogmas de las religiones por la creencia en seres galácticos que nos visitan con asiduidad y que interfieren en nuestras vidas.

Pero dejando de lado las seudoreligiones basadas en extraterrestres, lo cierto es que la ciencia lleva desde el siglo pasado realizando esfuerzos serios por encontrar y comunicarse con seres de otros mundos. El proyecto SETI (Search for ExtraTerrestrial Intelligence) comenzó en la década de los setenta analizando señales de radio procedentes del cosmos buscando inteligencia y enviando a su vez mensajes que puedan ser descifrados e interpretados por civilizaciones avanzadas (que por lo menos hayan llegado a dominar la radioastronomía).

Por otro lado, tanto las sondas Pioneer 10 y 11 como las Voyager 1 y 2 albergan mensajes sobre la Tierra por si algún día son encontradas por seres extraterrestres inteligentes. Las dos primeras llevan una placa con grabados sobre el aspecto del hombre y de la mujer y la posición del planeta Tierra en el Sistema Solar, mientras que las Voyager contienen un disco con música y sonidos de nuestro planeta.

Uno de los campos más activos en la actualidad en la búsqueda de vida fuera de la Tierra es identificar y analizar exoplanetas, es decir, planetas que giran en torno a otras estrellas. En concreto, se trata de estudiar grandes cantidades de estrellas para desentrañar si cerca de ellas orbitan planetas con características parecidas a las de la Tierra. En este sentido, recientemente se ha puesto en órbita el satélite TESS (Transiting Exoplanet Survey Satellite) cuya misión consiste en analizar más de 500.000 estrellas durante los próximos dos años con el objeto de identificar posibles cambios de la luz procedente de estos astros, que puedan implicar que un planeta ha cruzado entre la estrella y la Tierra.

¿Llegaremos algún día a conocer a nuestros hermanos mayores del cosmos?

jueves, 3 de mayo de 2018

Los ecos de 2001 (IV): el ser humano es algo que debe ser superado

Para celebrar los 50 años de la película de Stanley Kubrick 2001: una odisea del espacio me gustaría analizar a través de una serie de artículos algunos conceptos y elementos del film y su vigencia o relación con este mundo de la primera mitad del siglo XXI. En concreto, temas como las visiones de entonces del futuro tecnológico, el desarrollo de la inteligencia artificial y su relación con el ser humano, el transhumanismo o la búsqueda de vida extraterrestre.

2001: A Space Odyssey es quizá la más ambiciosa narración cinematográfica que jamás que haya filmado, pues cubre en sus algo más de dos horas de metraje los millones de años que recorre la humanidad desde sus orígenes simiescos hasta una era de viajes espaciales que todavía en nuestra época no ha llegado. El guion relata el viaje metafísico en el tiempo que transporta al espectador desde los homínidos que dieron origen a la especie humana, hasta una supuesta transformación del ser humano en una suerte de semidiós galáctico por obra de una inteligencia extraterrestre superior.

En la enigmática secuencia final, el astronauta Dave Bowman, que se encuentra más allá de Júpiter, aterriza con su nave en una estancia de corte clásico (decoración estilo Luis XVI) y allí comienza a verse a sí mismo dar saltos de décadas de su vida en minutos, hasta verse decrépito en el lecho de muerte. En ese momento, surge el negro monolito al pie de la cama y Bowman es iluminado por una intensa luz blanca que le transforma en un feto: se ha producido un salto evolutivo del ser humano hacia una nueva raza mucho más avanzada. La imagen final muestra al niño de las estrellas navegando por el espacio en dirección a la Tierra.

Probablemente Stanley Kubrick, al igual que Nietzsche, ya pensaba entonces, cuando rodó la película, que el hombre es algo que debe ser superado y hoy en día igualmente nos encontramos con numerosas voces que predicen la evolución de nuestra especie gracias a la tecnología.

El transhumanismo, término acuñado hacia mediados del siglo pasado, hace alusión a un movimiento cultural e intelectual internacional que tiene como objetivo final transformar la condición humana mediante el desarrollo y la fabricación de tecnología que mejore las capacidades humanas, tanto a nivel físico como psicológico o intelectual.

Ya en nuestro siglo nos encontramos con los denominados biohackers, personas que gestionan su propia biología utilizando una serie de técnicas médicas, nutricionales y electrónicas, con el objetivo de ampliar sus capacidades físicas y mentales. La meta es conseguir desarrollar el hombre aumentado, es decir, un ser fruto de aumentar la capacidad del cuerpo humano haciendo uso de las tecnologías, prótesis o implantes tecnológicos.

Se habla también de los cíborgs, seres formados por materia viva y dispositivos electrónicos, entre los que destaca el británico Neil Harbisson, un artista contemporáneo y activista cíborg, que es conocido mundialmente por la antena que lleva implantada en la cabeza para poder ver los colores. Se trata del primer cíborg oficialmente reconocido por un gobierno. En 2010 fundó, junto con la coreógrafa catalana Moon Ribas, la Cyborg Foundation, una institución destinada a promover el ciborgismo como movimiento social y artístico, así como a defender los derechos de los cíborgs y ayudar a los humanos que lo deseen a convertirse en cíborgs.

La medicina ya está dando grandes pasos en la aplicación de tecnología para ayudar a las personas a superar limitaciones relacionadas con la discapacidad, desde implantes cocleares, que permiten a las personas con limitaciones auditivas escuchar, hasta exoesqueletos destinados a ayudar a moverse a aquellos que tienen limitaciones motoras.

Sin embargo, una de las grandes fronteras en este campo son los interfaces cerebro-ordenador (BCI en sus siglas en inglés), una tecnología que recoge las ondas cerebrales para que puedan ser procesadas por una máquina o un ordenador. De alguna forma, establecen una relación directa entre la mente humana y el entorno. En el ámbito de la discapacidad, pueden hacer que personas con poca o nula capacidad motora muevan con el pensamiento dispositivos mecánicos, como un brazo articulado o una silla de ruedas, o que interactúen con su entorno, por ejemplo, encender y apagar la luz sin tocar un interruptor.

Finalmente, la edición del genoma humano, algo en lo que todavía estamos dando los primeros pasos, puede ser la llave para cambiar y mejorar al ser humano desde su misma esencia. La tecnología CRISPR, definida gráficamente como unas tijeras moleculares, abre la posibilidad de alterar la carga genética de cualquier célula y puede que algún día seamos capaces de esta manera de prevenir y neutralizar enfermedades genéticas y de reforzar y aumentar las capacidades del cuerpo humano.

Quién sabe si a lo largo de este siglo llegaremos a ver al ser humano aumentado.

lunes, 23 de abril de 2018

Los ecos de 2001 (III): el muñeco de madera que creía ser un niño o los límites de la inteligencia artificial

Para celebrar los 50 años de la película de Stanley Kubrick 2001: una odisea del espacio me gustaría analizar a través de una serie de artículos algunos conceptos y elementos del film y su vigencia o relación con este mundo de la primera mitad del siglo XXI. En concreto, temas como las visiones de entonces del futuro tecnológico, el desarrollo de la inteligencia artificial y su relación con el ser humano, el transhumanismo o la búsqueda de vida extraterrestre.

En 1968 Stanley Kubrick y Arthur C. Clarke imaginaron cómo podría llegar a ser la inteligencia artificial en el siglo XXI. Su vaticinio adquiere la forma del ordenador HAL 9000 en la película 2001, una máquina que dirige la misión Discovery en su viaje hacia Júpiter y que muestra rasgos excesivamente humanos, como comentábamos en la entrega anterior de esta serie de artículos.

La novela que resultó del guion ya muestra el entonces revolucionario concepto de máquinas que aprenden, lo que hoy conocemos como aprendizaje automático o machine learning. También se intuye otro elemento de rabiosa actualidad tecnológica en nuestra época, como son las redes neuronales artificiales, pues la inteligencia de HAL está dispuesta en distintas capas superpuestas de circuitos.

La humanización de HAL 9000 en el guion le hace desarrollar una especie de sentimiento de orgullo y soberbia, sabiéndose superior en inteligencia a los humanos que le acompañan en el viaje (“es un hecho inalterable que soy incapaz de equivocarme”, afirma en una escena). El no poder aceptar que su diagnóstico de una avería en la nave Discovery es erróneo le llevará en última instancia a asesinar a los humanos de la tripulación, hasta que el astronauta Bowman consigue apagarle, lo que simbólicamente es equivalente a matarle.

El guion de Stanley Kubrick parte de la idea de que la inteligencia artificial muy avanzada acabará por desarrollar emociones, como le contaba el realizador a Joseph Gelmis en una entrevista realizada en 1969 y publicada en el libro The Film Director as Superstar (1970):

«La idea de ordenadores neuróticos no es rara – la mayoría de los más avanzados teóricos informáticos piensa que una vez que tienes un ordenador que es más inteligente que el ser humano y capaz de aprender de la experiencia, es inevitable que desarrolle el equivalente a un espectro de reacciones emocionales – miedo, amor, odio, envidia, etc. Una máquina así podría acabar por ser tan incomprensible como un ser humano y podía, por supuesto, sufrir una crisis nerviosa — como le pasa a HAL en el film».

No obstante, esta personificación de HAL que hace Kubrick sigue quedando, incluso hoy en día, en el campo de la ciencia ficción. Lo más que podemos llegar a hacer con un sistema de inteligencia artificial es enseñarle a simular características humanas, como la empatía, pero de ahí a que realmente “sienta” hay un abismo insalvable. La novela de Arthur C. Clarke da una explicación mucho más realista sobre el comportamiento de HAL 9000: solamente respondía a una programación que los astronautas desconocían y, cuando la conducta de éstos choca con las directrices que le han introducido, les asesina para no incumplir las órdenes recibidas.

Existe un intenso debate actualmente sobre los límites de la inteligencia artificial. Frente a la visión de la ciencia ficción clásica sobre máquinas que llegarán a dominar el mundo, son numerosos los expertos que plantean que un ordenador siempre necesitará el apoyo humano para ofrecer resultados óptimos.

El profesor de psicología cognitiva de la Universidad de Nueva York Gary Marcus afirma que el aprendizaje profundo de los ordenadores llegará a enfrentarse a un muro que resultará insalvable, detrás del cual habrá problemas que el reconocimiento de patrones no podrá resolver. Marcus define con rasgos negativos la forma de aprender de la inteligencia artificial: para él resulta avariciosa, frágil, opaca y superficial. Avariciosa, porque demanda ingentes cantidades de datos para aprender; frágil, porque cuando se prueba en escenarios distintos de los ejemplos utilizados en su entrenamiento, generalmente se colapsa; opaca, porque acaba convirtiéndose en una caja negra que no sabemos cómo elabora sus diagnósticos; y finalmente, superficial, porque no posee sentido común sobre el mundo o la psicología humana.

Por su parte, el profesor Michael Scriven de la Universidad de Berkeley ya negó hace mucho que un robot pudiese equipararse al ser humano. Para él, no son más que máquinas que hacen lo que les decimos. A primera vista, realizan las tareas igual que los humanos y pueden simular nuestro comportamiento, pero una mirada de cerca nos revela que los humanos tenemos consciencia, mientras que los ordenadores no son más que objetos inanimados. Aunque un algoritmo de inteligencia artificial pueda hacer exactamente lo que hace una persona, nunca se le puede tachar de consciente. Jamás hará nada creativo o imprevisible, solamente arrojará el producto de su programación, una vez que haya sido alimentado con datos.

Por lo tanto, nunca llegaremos a ver máquinas susceptibles y orgullosas como HAL 9000, que, como Pinocho, no son más que muñecos de madera que se creen que son un niño.
 
Google Analytics Alternative