martes, 24 de julio de 2018

Cuando Harry Potter e Internet cambiaron la forma de leer de los jóvenes

¿Cómo leemos en la sociedad digital? Lectores, booktubers y prosumidores es una publicación dirigida por Francisco Cruces, profesor de Antropología en la UNED, que analiza los nuevos hábitos de lectura que ha traído consigo la sociedad tecnológica en red en la que vivimos. En las páginas del libro encontramos fenómenos de actualidad como el lector prosumer, los booktubers o la narrativa transmedia, que dibujan el perfil del lector del siglo XXI.

Una de las coautoras de la obra, la doctora Gemma Lluch Crespo de la Universitat de València, ha centrado su aportación en definir cómo leen los jóvenes en la actualidad. A su juicio, el cambio de siglo trajo consigo un cambio en el paradigma lector de la juventud y los catalizadores del cambio fueron la serie de novelas de Harry Potter e Internet. La saga creada por J. K. Rowling consiguió entre 1997 y 2007 desintermediar la relación entre el autor y el lector: “pasar de los espacios mediados por adultos (la escuela o la biblioteca) a los espacios aparentemente libres (Internet).” Y ello fue posible gracias al canal de comunicación de la era digital, Internet, que permitió que el autor y la editorial se dirigieran directamente al lector joven, ideando campañas y promociones para él.

El ecosistema de lectura actual de los jóvenes ha roto con el heredado del siglo XX trasladando a la red todos los espacios tradicionales asociados a la lectura, como las librerías o las bibliotecas. Este nuevo ecosistema se caracteriza a grandes rasgos por:
  • Sacar la lectura del entorno privado y convertirla en una actividad social.
  • Convertir al lector pasivo en un creador de contenidos o prosumer.
  • Sustituir al mediador tradicional entre el joven y la lectura (docente, bibliotecario, padres) por la figura del influencer.
  • Cambiar la forma en que se consiguen los libros: de las librerías y bibliotecas a las plataformas online como Amazon.
Señala Lluch que las redes ofrecieron a los jóvenes la oportunidad de encontrar las lecturas que deseaban y que no encontraban en los canales tradicionales. Y esto tuvo un efecto colateral: en la búsqueda también se encontraron con muchos otros lectores como ellos, con quien hablar y compartir sus gustos literarios y experiencias. De esta forma, leer deja de ser un acto individual y privado y se socializa, en palabras de la autora, “transformaron la lectura en conversación”.

Algunos de estos jóvenes han llevado su pasión por las letras y su compromiso hasta el punto de convertirlos en una profesión. Son los influencers, personas que cuentan con miles de seguidores y que disfrutan hablando de los libros con los demás. Han sabido ganarse a las editoriales y a los autores y poder tratar directamente con ambos (“Aprendieron a diseñar campañas de marketing que ofrecían gratis a las editoriales o a los autores que admiraban”). Lo que empieza como una afición les ha llevado a convertirse en gestores de inmensas comunidades de lectores.

El participar en los espacios literarios virtuales de Internet transforma al antaño lector pasivo en un prosumer, es decir, en alguien que no se limita a consumir contenidos, sino que también los produce a través de sus recomendaciones de libros al resto de la comunidad y del intercambio de experiencias online con otros lectores: “En los espacios virtuales que han creado, han unido la lectura a la escritura, por lo que el lector se ha transformado en autor; han encontrado formas de compartir la lectura, de recomendar autores, temas o libros; continuamente, inventan juegos y retos, etcétera”.

Otro de los rasgos de este ecosistema de la lectura juvenil que describe Gemma Lluch es la aparición de una nueva literatura joven dirigida a estos nativos digitales. Libros que a lo mejor no se encuentran en los comercios habituales y que se adquieren o descargan de forma pirata en Internet, que están firmados por autores ajenos al sector editorial y a menudo procedentes del mundo audiovisual, como guionistas de series de televisión, productores o booktubers. Libros dirigidos a fans de los videojuegos y de determinadas series de culto.

Hemos mencionado a lo largo de este breve texto el neologismo booktuber. Desde mediados de esta década, el canal favorito de los jóvenes es YouTube y ello ha dado lugar a la aparición en este medio de líderes de opinión sobre libros para jóvenes que son seguidos por miles de fans. En abril de 2016, El Confidencial se hacía eco de este fenómeno con un llamativo titular: «Son los booktubers, tienen veinte años y han llegado para salvar al libro».

Una aportación interesante de la investigación que ha realizado Gemma Lluch sobre los booktubers y los influencers es la clasificación que hacen de los vídeos que cuelgan en sus canales:
  • Book Hauls – Wrap Ups – Los Book Hauls son los nuevos libros que han comprado, que les han regalado las editoriales, la familia o los amigos o que tienen acumulados en un periodo de tiempo. Habitualmente, los presentan con un Wrap Ups o pequeño comentario. Aunque habitualmente, los Wrap Ups se utilizan para comentar de una manera rápida los libros leídos durante un período de tiempo.
  • Book tag – Preguntas, retos, desafíos y juegos relacionados con los libros. Pueden relacionar unos libros con otros, con películas o sentimientos, proponer preguntas sobre personajes, acertijos, etc. Se puede aprovechar para dar a conocer los gustos del booktuber o darle forma de desafío que se lanza a sus seguidores o a algún booktuber concreto.
  • Bookshelf – A la manera de un tour, muestran los libros que tienen en sus librerías y estanterías.
  • Colaboraciones – Colaboraciones con otros booktubers o apariciones en otros canales.
  • Crónicas – Crónica de actos relacionados con la lectura: presentaciones de libros, etc.
  • Tutoriales – Esta sección es muy diversa y puede incluir desde tutoriales para grabar un vídeo, escribir una novela, etc.
  • TopLibros – Listas con los mejores libros leídos, recomendados, frases literarias favoritas…

lunes, 16 de julio de 2018

Por qué son importantes las comunicaciones móviles 5G

Ninguna tecnología está actualmente despertando tanta expectación como el 5G, la siguiente generación de comunicaciones móviles. Y no en vano pues gran parte de las maravillas que veremos en las próximas décadas dependen en gran medida de su implantación: coches autónomos, smart cities, hogar inteligente, Internet de las cosas…

El sector de las comunicaciones móviles se enfrenta en este momento a grandes retos, como son un crecimiento desmedido del tráfico y otro crecimiento contenido e imparable del número de usuarios y dispositivos conectados, lo que plantea exigencias de cobertura sin precedentes y la necesidad de tomar decisiones sobre el espectro disponible.

Básicamente, la promesa que trae consigo la nueva generación de tecnología móvil, el esperado 5G, se puede resumir en las siguientes ventajas:
  • Mucha más velocidad de transmisión de datos.
  • Latencia ultra baja, es decir, el tiempo que transcurre entre que se da una orden y el dispositivo la ejecuta. La latencia mínima de respuesta es fundamental para hacer realidad aplicaciones como la conducción automática de los coches u operaciones quirúrgicas remotas mediante robot y el 5G conseguirá bajarla hasta los 5 milisegundos.
  • Una Arquitectura de Red que permite el “Network Slicing”, el “rebanado de red” que permite a los operadores de redes móviles manejar y operar múltiples redes virtuales sobre una infraestructura de red física común.
  • Capacidad de conexión para miles de millones de dispositivos.
El origen de la telefonía móvil (Evoca, El impacto del 5G) hay que situarlo en 1979, cuando aparecen los primeros terminales analógicos, con una calidad muy baja y sin un estándar único, lo que dificultaba sobremanera la comunicación. En 1990 llega la tecnología digital con el 2G y un estándar común para interconectar todas las redes, el GSM (Global System for Mobile Communications). Las redes 3G abren la era del Internet móvil en 1998, permitiendo el uso de aplicaciones de audio y video en tiempo real, la transmisión de datos y el acceso a Internet desde el móvil. Actualmente y desde 2008, utilizamos la cuarta generación de redes, el 4G, que ha sumado a la capacidad de utilizar Internet desde el móvil prestaciones que demandan altas velocidades de transmisión, como los juegos online, la televisión HD o la videoconferencia. De acuerdo con GSMA (The Mobile Economy 2018), en 2025 en 14% de las conexiones móviles del mundo ya se hará sobre redes 5G.

Gran parte de los servicios y tecnologías que protagonizarán la revolución digital a lo largo de las próximas décadas dependerán en gran medida del despliegue del 5G y del aumento exponencial de la velocidad que traerá consigo. Hablamos de temas como el Internet industrial, la eSalud, los servicios de las smart cities, el coche autónomo, los edificios inteligentes o las aplicaciones de la realidad virtual y aumentada. En suma, todo aquello que repose sobre el tráfico móvil de grandes cantidades de información a altas velocidades de transmisión.

Las principales preocupaciones para el despliegue masivo de 5G estriban en la disponibilidad del espectro radioeléctrico necesario, que siempre ha sido el catalizador del paso a una nueva generación tecnológica. El año 2017 marcó el arranque de la concreción de las bandas a nivel europeo por parte de la Comisión Europea y del Grupo de Política del Espectro Radioeléctrico (RSPG).

La Unión Europea adoptó en abril de 2016 el Plan de Acción de 5G para Europa, con el objetivo de favorecer la coordinación entre los Estados Miembros para mejorar la competitividad europea en el desarrollo de esta tecnología de red.

Como respuesta al reto comunitario, el Gobierno de España ha puesto en marcha el Plan Nacional 5G con el fin de “situar al nuestro entre los países más avanzados en el desarrollo de esta nueva tecnología de manera que cuando la 5G alcance su madurez  tecnológica y comercial, España esté preparada para aprovechar al máximo las oportunidades de este paradigma tecnológico”.

El plan se articula en torno a cuatro ejes de actuación:
  1. Gestión y planificación del espectro radioeléctrico.
  2. Impulso a la tecnología 5G: Pilotos de red y servicios y Actividades I+D+i.
  3. Identificación y desarrollo de instrumentos legales, adicionales a los relativos a la gestión del espectro, que sean necesarios para garantizar un marco jurídico adecuado y flexible.
  4. Coordinación del plan y cooperación internacional.
Como indicaba el informe Sociedad Digital en España 2017,  la evolución a la tecnología 5G no supone un salto abrupto, sino un proceso gradual en el que la infraestructura actual 4G incorpora nuevas capacidades que aportan beneficios a los usuarios:

“La continuación de los despliegues de fibra, la gestión del espectro (refarming hacia tecnologías radio más eficientes), la incorporación de funcionalidades radio (agregación portadoras, nuevas tecnologías de antena), la densificación de la red y, lo que es extremadamente importante, la virtualización y cloudificación de la red (acceso y core), son avances que ya se están incorporando en 4G.”
Los operadores trabajan rápido para establecer posiciones respecto a la nueva tecnología. En el caso de Telefónica, recientemente anunciaba el proyecto Ciudades Tecnológicas 5G con el primer despliegue de capacidades 5G en las ciudades de Segovia y Talavera de la Reina, en colaboración con Nokia y Ericsson. En concreto, estas dos ciudades serán durante tres años un laboratorio en el que se experimentarán las capacidades de la nueva generación de tecnología de redes móviles a través de casos de uso para demostrar la capacidad del 5G a ciudadanos y empresas.

martes, 10 de julio de 2018

Los diez retos del aprendizaje profundo

Como anticipamos en el  post anterior, en un reciente trabajo académico, el profesor Gary Marcus de la Universidad de Nueva York plantea el riesgo de que, después de este periodo de grandes expectativas que han vivido las redes neuronales en los últimos años, la inteligencia artificial entre en otro periodo invernal, como el que vivió en 1970, cuando después de haber generado grandes expectativas se consideró que era una tecnología demasiado frágil, estrecha y superficial para ser utilizada en la práctica fuera del marco experimental de los laboratorios.

Para Marcus no hay que desestimar completamente el aprendizaje profundo. Simplemente, no debe ser considerado como la solución universal y en cambio de ser contemplado como una herramienta estadística más, que debe ser utilizada junto a otras para lograr que el campo de la inteligencia artificial avance realmente.

Es por ello, que Gary Marcus postula diez retos a los que se enfrenta el aprendizaje profundo en la actualidad.

1. El deep learning actual es un devorador de datos
A diferencia del cerebro humano, los algoritmos basados en el aprendizaje profundo carecen de mecanismos para aprender términos abstractos a través de la mera definición verbal y necesitan ser entrenados con millones de ejemplos. Ante situaciones o problemas donde los datos no están disponibles en grandes cantidades, el aprendizaje profundo puede no resultar la mejor solución.

2. El deep learning actual es muy superficial y ofrece pocas oportunidades de transferencia
Para Marcus, los sistemas actuales no comprenden realmente los conceptos y han sido entrenados para actuar en determinados escenarios o situaciones. Cuando se llevan a cabo los denominados tests de transferencia en los que el algoritmo es confrontado con escenarios que difieren, aunque sea ligeramente, de aquellos en los que ha sido entrenado, las soluciones que ofrece resultan superficiales.

3. El deep learning actual no puede tratar de forma natural con una estructura jerárquica
Las correlaciones que establecen este tipo de sistemas entre distintos elementos son llanas y no jerárquicas, como en una lista en la que cada elemento está al mismo nivel que los demás. Cuando se enfrentan con una estructura jerárquica, como por ejemplo una frase subordinada a otra, estos algoritmos pueden aproximarse de forma inadecuada a su análisis.

Gary Marcus utiliza el ejemplo de una frase compleja. Los sistemas de reconocimiento del lenguaje basados en el aprendizaje profundo abordarán la frase como una secuencia de palabras. Sin embargo, en una frase como el adolescente que previamente atravesó el Atlántico estableció un record de vuelo alrededor del mundo, la cláusula principal sería el adolescente que estableció un record de vuelo alrededor del mundo, mientras que previamente atravesó el Atlántico estaría subordinada a la primera. Marcus duda que el sistema pueda reconocer esa jerarquía.

4. El deep learning actual choca con las inferencias abiertas
Los humanos cuando leemos un texto podemos inferir cosas de él que no están directamente referenciadas o solo lo están parcialmente. Por ejemplo, adivinar las intenciones de un personaje determinado a través de un diálogo en el que las muestra de forma indirecta.  El aprendizaje profundo consigue desenvolverse con éxito en situaciones en las que la solución está contenida en un texto, pero empieza a tener problemas cuando esta no es tan explícita, bien porque se combinen muchas frases, bien porque las frases sean explícitas, pero que hagan alusión a un trasfondo que no aparece en el fragmento de texto.

5. El deep learning actual no es lo suficientemente transparente
Generalmente, se habla de la opacidad de las redes neuronales, haciendo referencia a que son sistemas que analizan millones de parámetros para tomar decisiones cuyo funcionamiento concreto queda fuera del conocimiento de sus creadores. Una red neuronal profunda se basa en miles de neuronas simuladas almacenadas en cientos de capas interconectadas. Es algo excesivamente más opaco e inaccesible que cualquier código de programación convencional.

6. El deep learning actual no ha sido debidamente integrado con el conocimiento previo
Marcus afirma que la principal aproximación al aprendizaje profundo es hermenéutica, es decir, autocontenida y aislada de cualquier conocimiento potencialmente útil. El proceso suele consistir en entrenar al sistema con una base de datos que asocia outputs o productos con los respectivos inputs, haciéndole aprender la relación entre ambos para solucionar un problema dado. Un conocimiento previo no suele ser introducido en el algoritmo.

Pone el ejemplo concreto de un sistema destinado a estudiar la física de las torres que se derrumban en el que no se han introducido previamente las leyes de Newton, aunque el algoritmo las acaba deduciendo más o menos a base al análisis de los millones de ejemplos que se le han introducido en su fase de entrenamiento.

7. El deep learning actual no es capaz de distinguir claramente causalidad y correlación
Aunque el aprendizaje profundo aprende a establecer relaciones entre los insumos que recibe de información y el output o producto, no se puede hablar de que entienda la relación de causalidad. Por ejemplo, un sistema podría encontrar la correlación entre la altura de una persona y la riqueza en el uso del lenguaje –cuanto más alto es un niño, mejor habla-, pero no puede entender la relación de causa entre el desarrollo y crecimiento del chaval y su riqueza lingüística.

8. El deep learning actual cree vivir en un mundo estable
El aprendizaje profundo funciona mejor en un mundo estable con reglas precisas, como por ejemplo, un juego de mesa, y no tan bien en entornos menos predecibles, como puede ser la evolución de los sistemas financieros.

9. El deep learning actual funciona bien como una aproximación, pero a veces sus soluciones no son fiables del todo
Por las razones expuestas anteriormente, el aprendizaje profundo funciona bien en determinadas situaciones, pero puede ser fácilmente engañado, por lo que hay que tratar con mucha cautela sus predicciones y dictámenes.

10. El deep learning actual es difícil de aplicar en la ingeniería
El autor apunta los riesgos de trabajar con el aprendizaje automático, pues considera que son sistemas que pueden funcionar en determinadas circunstancias, pero para los cuales es difícil garantizar que funcionarán en circunstancias alternativas con datos nuevos que pueden no parecerse a los que han sido utilizados en su entrenamiento. Esto impide que se pueda utilizar para desarrollar ingeniería robusta.

martes, 3 de julio de 2018

La inteligencia artificial y las limitaciones del aprendizaje profundo

Durante los últimos seis años el aprendizaje profundo se ha convertido en titular de periódicos y objeto de innumerables artículos en medios tecnológicos y generalistas, convirtiéndose en la técnica de moda de la inteligencia artificial. The New York Times llegó a afirmar en 2016 que el aprendizaje profundo estaba preparado para reinventar la ciencia computacional (The Great A.I. Awakening).

La popularidad del término deep learning o aprendizaje profundo despega en 2012 gracias a trabajos como el de los profesores de la Universidad de Toronto Alex Krizhevsky, lya Sutskever y Geoffrey E. Hinton ImageNet Classification with Deep Convolutional Neural Networks, que ponen en evidencia la capacidad de las redes neuronales para clasificar objetos. En este caso, los autores consiguieron que su sistema clasificara 1,2 millones de imágenes de alta resolución en 1.000 categorías distintas, dentro del concurso de algoritmos ImageNet Large Scale Visual Recognition Competition (ILSVRC).

Sin embargo, hay científicos como Gary Marcus que rebajan las expectativas del deep learning, no negando su utilidad y valor, pero señalando sus limitaciones y la necesidad de combinarlo con otras técnicas de inteligencia artificial para que esta realmente pueda alcanzar todo su potencial. Marcus es experto en psicología cognitiva y profesor en la Universidad de Nueva York. Ha plasmado su visión sobre las limitaciones del aprendizaje profundo en el paper Deep Learning: A Critical Appraisal, que ha generado un encendido debate entre los expertos en inteligencia artificial desde que fue publicado en enero.

Su tesis es que el aprendizaje profundo ha cosechado grandes logros en campos como el reconocimiento del lenguaje natural, el reconocimiento de imágenes, la traducción y también juega un papel importante en el funcionamiento de numerosas aplicaciones de la inteligencia artificial que están desarrollándose en la actualidad, pero, a su juicio, la evolución del deep learning se está acercando a un muro.

Estableciendo un paralelismo con la neurología, las redes neuronales de la inteligencia artificial permiten generar sistemas que imitan el funcionamiento del cerebro en la forma en que este clasifica la información recibida, por ejemplo, identificando objetos en función de los rasgos que contienen. Se trata de programas que realizan sus diagnósticos o predicciones basándose en la probabilidad. Su forma de aprendizaje contempla la retroalimentación; en sucesivas vueltas reciben el grado de acierto de sus dictámenes y realizan las correcciones oportunas. Un sistema de prueba y error similar al que empleamos los humanos al realizar una tarea nueva. El concepto de aprendizaje profundo o deep learning hace referencia a que las redes neuronales tienen una estructura basada en numerosas capas, en general más de 10, aunque actualmente están en pruebas algunas con más de 100.

Gary Marcus afirma que el aprendizaje profundo es utilizado especialmente como un sistema de clasificación, de forma que la red neuronal debe decidir a qué categoría o grupo de categorías pertenece un determinado elemento. Por ejemplo, en el reconocimiento del lenguaje natural, la red debe asociar grupos de sonidos del habla humana con categorías como pueden ser palabras o fonemas. En el caso del reconocimiento de objetos, el sistema aprende a relacionar una serie de imágenes con sus etiquetas o categorías, por ejemplo, la imagen de un coche con la etiqueta “automóvil”.

Pero Marcus piensa que el alcance del deep learning es limitado, precisamente porque se alimenta de cantidades inmensas de información y esta es un bien escaso. En la medida en que un sistema se enfrente a un input del que no ha tenido un ejemplo previo, por ejemplo, una foto o una palabra, y se ve obligado a extrapolar en base a datos genéricos, los resultados que ofrezca pueden resultar más imprecisos. Puede ser, por ejemplo, una determinada pronunciación que un sistema de reconocimiento del lenguaje no tiene registrada y que le haga confundir una palabra o expresión por otra.
 
Google Analytics Alternative