lunes, 30 de noviembre de 2020

El retorno de la publicidad en la televisión de plataformas

Aunque el paradigma de Netflix parece marcar el paso en el sector del entretenimiento audiovisual, basando el modelo de negocio en el pago por suscripción al servicio, en los últimos tiempos se puede detectar el crecimiento del formato de consumo gratuito financiado a través de la publicidad de los anunciantes, como el de la televisión lineal en abierto de toda la vida.

Actualmente existen tres grandes modelos para monetizar un canal o plataforma de vídeo online: la publicidad, la suscripción y el pago por episodio. En la práctica, muchos agentes no se decantan por uno solo en exclusiva y basan su modelo de ingresos en combinaciones de las tres.

La mayoría de las empresas over-the-top (OTT) contempla una opción de suscripción; para Netflix es el único modelo, pero otros –YouTube y Hulu, por ejemplo- presentan un acceso gratuito financiado gracias a la publicidad, y una versión premium de pago sin anuncios. Este último es también el esquema que sigue el servicio de audio en streaming Spotify. En menor medida aparecen agentes que solamente se alimentan de la publicidad.

Los servicios de pago por suscripción se conocen como SVOD (subscription video-on-demand), mientras que los basados en publicidad llevan las siglas AVOD (ad-supported video-on-demand) y los basados en el pago por episodio se denominan TVOD (transaction video-on-demand).

A pesar de que el modelo de suscripción está en boga y parece ser el más extendido entre las plataformas de vídeo bajo demanda, hay expertos que opinan de que podría estar tocando techo. En primer lugar, se trata de un esquema que capta al cliente a través de contenidos específicos –actualmente, las series constituyen un anzuelo especial para enganchar al espectador potencial, por encima de otros formatos de entretenimiento-, pero que obliga al usuario a pagar a cada plataforma que alberga un producto de su interés: tendremos que hacernos de Netflix si queremos ver Stranger Things, de HBO si nos interesa además Watchmen, y de Amazon Prime, si esperamos ver la nueva recreación de la obra El señor de los anillos, que parece ser que está rodando.

Frente al paradigma Netflix basado en SVOD –vídeo bajo demanda basado en un modelo de ingresos bajo suscripción-, cada vez más voces auguran el crecimiento de los esquemas de vídeo bajo demanda financiados, total o parcialmente, con la publicidad. La consultora Ampere Analysis ha llegado a bautizar el 2020 como “el año del AVOD”, subrayando la importancia que espera que comience a ganar este formato a corto plazo.

Ampere espera que la feroz competencia por ofrecer contenidos nuevos exclusivos que llevan a cabo las plataformas SVOD vaya haciendo que estas liberen sus productos más antiguos, quedando estos a disposición de los canales en abierto sin suscripción AVOD para su reestreno. Este escenario dividiría el mercado del vídeo bajo demanda en dos partes diferenciadas: el de los agentes que ofrecen contenido inédito y en exclusiva, a cambio del pago de una membresía, y, por otro lado, el de aquellos que ofrecen películas y series de éxito que ya han sido estrenadas en otros canales, de forma gratuita o semigratuita, incluyendo publicidad. Sería algo así como los antiguos cines de estreno y de reestreno y sesión continua que había en las grandes ciudades.

Las predicciones de la consultora contemplan que la inversión publicitaria en servicios AVOD –que actualmente se mantiene en un volumen bajo- comenzará a aumentar en paralelo a la expansión de este modelo. Actualmente, los principales players internacionales del segmento AVOD son Crackle, Roku TV, Tubi, Vudu y Pluto, que ha aterrizado en España este mismo año.

El esquema AVOD ofrece al consumidor una alternativa gratuita para consumir contenidos audiovisuales, y, por otra parte, pone en manos de los publicistas a una audiencia cautiva. La pregunta es si el espectador actual está dispuesto a aceptar publicidad, después de haber conocido la oferta sin ella de las plataformas SVOD.

 

 

 

lunes, 23 de noviembre de 2020

Ya podemos usar la mente para hablar con las máquinas

Se define como BCI –por sus siglas en inglés- a un sistema que permite establecer una conexión directa entre el cerebro y un dispositivo externo. El brain-computer interface (BCI) o interfaz cerebro ordenador recoge e interpreta las señales que emite el cerebro humano, y las transmite a una máquina, que está programada para ejecutar comandos asociados a dichas señales. La aplicación más directa de esta tecnología se centra en la sanidad, y, más en concreto, en los ámbitos de la rehabilitación y de la sustitución motora. Sin embargo, las posibilidades que ofrece en distintos campos son inmensas, tanto en el ocio –los videojuegos son ideales para su utilización-, como en otros que están basados en acciones que pueden ser optimizadas estableciendo una relación más directa entre la mente y la máquina.

La actividad del cerebro humano se basa en las neuronas. Cuando pensamos, sentimos o nos movemos, las neuronas emiten señales eléctricas. A través de la electroencefalografía (EEG) podemos recoger esa actividad cerebral, amplificarla y enviarla a un algoritmo de inteligencia artificial, que se encarga de interpretarla, y, en su caso, traducirla a una acción, como, por ejemplo, mover un brazo mecánico.

En realidad, este planteamiento tan de ciencia ficción no es sino una evolución del interfaz hombre máquina, que, poco a poco, acerca la capacidad de comunicarnos con ellas a nuestras formas más básicas de transmitir información. Los primeros ordenadores eran operados con tarjetas perforadas. Luego llegaron los teclados y los complejos lenguajes de programación de medio nivel, todavía cercanos al lenguaje que utilizan las computadoras. La informática realmente acabó por extenderse a todo el mundo gracias a los interfaces gráficos, especialmente Windows, cuyo funcionamiento intuitivo hacía innecesario el tener amplios conocimientos de códigos y comandos para interactuar con un dispositivo. Más adelante, hemos conocido las pantallas táctiles, especialmente de los teléfonos inteligentes, y, muy recientemente, elementos de domçotica que, como los altavoces domésticos, entienden el habla humana y son capaces de respondernos utilizando la palabra. Sin embargo, todo parece indicar que, en un futuro cercano, el interfaz que utilizaremos para controlar los diversos aparatos digitales a nuestra disposición será el propio cerebro humano.

En junio de 2019 saltaba la noticia de que investigadores de Carnegie Mellon University habían desarrollado el primer brazo robótico controlado por la mente basado en tecnología no invasiva. La novedad es que se trata de la primera experiencia exitosa al respecto que no ha requerido implantes en el cerebro, y, por tanto, abre un nuevo espectro de posibilidades para pacientes con limitaciones motoras, excluyendo el riesgo que implica para la salud una intervención quirúrgica, además del elevado coste que lleva a asociada.

En el otro extremo se encuentra la iniciativa puesta en marcha por la empresa Neuralink, creada por el fundador de Tesla, Elon Musk, que plantea desarrollar un “lazo neural” (neural laze), es decir, una malla de electrodos insertada bajo el cráneo capaz de monitorizar las funciones del cerebro. En concreto, hablan de crear un interfaz cerebro máquina (BMI) para restaurar las funciones motoras y sensoriales, y para tratar desórdenes neurológicos. Neuralink trabaja en un sistema BMI de banda ancha y escalable, capaz de superar las limitaciones que presentan otros interfaces clínicos anteriores.

El prototipo de Musk inserta con absoluta precisión en el cerebro, a través de un robot neurocirujano, racimos de diminutos y flexibles electrodos -hasta 3 072 de ellos-, que constituyen canales de información. El objetivo a largo plazo consiste en llegar a construir una “capa de superinteligencia digital” que conecte a los humanos con la inteligencia artificial.

lunes, 16 de noviembre de 2020

Los robots son cada vez más habilidosos

En el pasado los robots eran situados en la cadena de producción para realizar tareas muy sencillas y repetitivas. Pero eso está cambiando. Los avances en el diseño y en la programación de los autómatas les permiten realizar cada vez tareas más complejas, que requieren de una destreza superior.

En los años ochenta del siglo pasado, el experto del Robotics Institute de la Carnegie Mellon University Hans Peter Moravec formuló un principio según el cual resulta muy complejo programar en un robot nuestra capacidad de percepción y nuestras habilidades sensomotoras, y, en cualquier caso, afirmaba, es mucho más difícil que reproducir las habilidades intelectuales de los humanos. En suma, es más sencillo crear algoritmos de inteligencia artificial para llevar a cabo tareas basadas en el cálculo y las matemáticas, que robots inteligentes que sean capaces de interactuar físicamente con el entorno.

Los fabricantes de robots suelen vender el término “destreza” como una ventaja competitiva del producto. Sin embargo, es complicado establecer un nivel de destreza estándar –incluso los propios expertos suelen manejar distintas definiciones de este concepto- y, resulta quizá más adecuado, fijarse en las tareas específicas que debe realizar la máquina a la hora de establecer sus habilidades.

De esta forma, de cara a determinar el nivel de destreza que necesita un robot para manipular objetos, hay que tomar en consideración cuestiones como las siguientes:

  • El tamaño de los objetos: ¿cómo son de pequeños? ¿son todos del mismo tamaño o no? ¿cómo afecta lo anterior a la capacidad de alcanzarlos del robot?
  • La forma de los objetos: ¿qué forma tienen? ¿tienen complicadas aristas o son una forma geométrica simple? ¿son esféricos y, en consecuencia, difíciles de agarrar?
  • La estrategia de agarrado: ¿existen distintas formas para agarrar el objeto? ¿se trata de objetos delicados que requieran una manera especial de ser manipulados?
  • Alcance: ¿cuánto tiene que alargarse el robot para alcanzar los distintos puntos de su espacio de trabajo? ¿es necesario utilizar todo el espacio de trabajo del robot o solo una parte? ¿debe aproximarse a una localización determinada desde distintos ángulos?
  • Velocidad: ¿a qué velocidad debe realizar cada acción?

La complejidad que requiere preparar a un sistema inteligente para realizar determinadas acciones físicas podría justificar que las ocupaciones relacionadas con ellas sigan siendo desempeñadas por trabajadores humanos. Sin embargo, todo esto está cambiando y, poco a poco, se podría estar ampliando el espectro de tareas que puede desempeñar un robot.

Por una parte, la utilización de polímeros en la fabricación de extremidades robóticas, que pueden expandirse y aplicar la medida precisa de presión a los objetos, permite que las nuevas generaciones agarren y levanten objetos que sus predecesores no podían. Además, la inteligencia artificial permite a los autómatas procesar y analizar la información del entorno que reciben a través de sensores y cámaras. Pueden aprender de sus errores y mejorar su ejecución.

La empresa Boston Dynamics es un buen ejemplo del salto cualitativo que está realizando la ciencia robótica. Sus modelos cada vez se desenvuelven mejor en entornos desestructurados, como pueden ser la superación de obstáculos y desigualdades del terreno. Un ejemplo de ellos es el “ciberperro” Spot, el primero de sus desarrollos que sale a la venta, que es capaz de moverse a una velocidad de 1,6 metros por segundo, y desplazarse por lugares complicados en superficies de todo tipo. Además, si se cae o vuelca es capaz de levantarse por sí mismo, sin ayuda.

Por otro lado, la empresa de Google Alphabet está trabajando, dentro del laboratorio The Moonshot Factory, en la iniciativa The Everyday Robot Project, que pretende desarrollar un robot capaz de aprender y de desenvolverse en entornos desestructurados. Los robots que persigue este proyecto están pensados para operar con seguridad en entornos humanos, es decir, en aquellos en los que las cosas cambian de lugar, donde existen obstáculos y en los que las personas pueden aparecer inesperadamente. Para ello, la máquina debe poder comprender el espacio en el que trabaja e ir adaptándose a él a través de la experiencia.

La investigación llevada a cabo en las dependencias de Alphabet se basan en tres pilares: percepción, manipulación y navegación. La percepción a través de cámaras en la cabeza del autómata, que recogen información para que sea asimilada por el machine learning, el sistema de inteligencia artificial que incorpora el sistema. Manipulación de todo tipo de objetos, gracias a una destreza muy fina. Finalmente, navegación, pues el robot utiliza los datos que recogen sus sensores para poder entender lo que “ve”, lo que “oye”, y el lugar que ocupa en el mundo, de forma que pueda realizar tareas útiles entre las personas de forma segura.

 

 
Google Analytics Alternative