lunes, 14 de diciembre de 2020

Las élites de la economía digital no quieren tecnología para sus hijos

Los profesionales de las empresas punteras de la economía digital de Silicon Valley no quieren que sus hijos e hijas se eduquen con tecnología. Suena paradójico que, mientras que firmas como Google, Apple o Microsoft apuestan por su utilidad pedagógica y defienden que nuestros hijos se acostumbren a manejar dispositivos en el aula desde su más tierna infancia, sus directivos y empleados prefieren que los suyos lleven a cabo su aprendizaje –por lo menos en los primeros ciclos- en el viejo cole analógico de siempre.

Por ejemplo, en el Waldorf School of the Peninsula, un exclusivo centro educativo de la ciudad californiana de Mountain View al que asisten niños y niñas de progenitores que trabajan en la industria techie, tiene alejada por completo la tecnología digital de sus clases de educación primaria, y hace un uso muy escaso de ella en las de secundaria. En lugar de smartphones, tabletas y portátiles, el alumnado trabaja con papel, lápices y bolígrafos y pizarras, pero no electrónicas, sino de las de tiza de toda la vida.

La visión de Waldorf no es la única. Brightworks, en San Francisco, va más allá: aparte de carecer de tecnología digital, el alumnado trabaja en proyectos que desarrolla por su cuenta, y se prima la realización del trabajo manual y las salidas del centro para realizar excursiones con fines didácticos. Nada de pantallas. El juego y el aprendizaje natural son los factores que dominan este planteamiento educativo alternativo, que ha sido bautizado por algunos medios como “low-tech, high play”, y que, por ahora, ha sido el elegido por una serie de pioneros, como son los padres con empleos techies en Silicon Valley, que ven en este tipo de centros elitistas un vehículo para conseguir que sus retoños destaquen, en el mundo automatizado que se avecina (en su visión más distópica), sobre las masas tecno dependientes que pelearán por los escasos puestos de trabajo disponibles.

De acuerdo con dicha visión, estos niños y niñas que están siendo criados sin tecnología, en el aprendizaje lúdico e intuitivo, y en alguna medida, en el desarrollo de la destreza manual, serán los profesionales más demandados dentro de diez o veinte años, pues habrán adquirido las habilidades suaves o soft skills –como el pensamiento crítico o la creatividad- que requerirán los entornos de trabajo de la sociedad digital.

Aparte de esta versión posmoderna de la lucha de clases, lo cierto es que el tecno optimismo que ha impregnado la pedagogía a lo largo de los últimos veinte años se enfrenta en la actualidad con opiniones que plantean serias dudas sobre las ventajas de introducir extensivamente los dispositivos en las aulas. Quizá, después de todo, el objetivo de alcanzar la ratio de un ordenador o tableta por alumno no sea realmente tan deseable.

Ya sea impulsada por el entusiasmo futurista de los gurús digitales o por los intereses comerciales de los fabricantes de equipos y desarrolladores de software, esta tendencia se ha centrado en inundar de tecnología el sistema educativo -a veces sin un proyecto pedagógico serio detrás-, y probablemente, no tardaremos en conocer las consecuencias, buenas o malas, de dicho arrebato modernizador y vanguardista.

No resulta de extrañar que los propios creadores de tecnología no la quieran para la educación de sus hijos. En una entrevista que le hicieron en 2011 al propio Steve Jobs se le escapó que sus hijos jamás habían tocado un iPad. Bill y Melinda Gates también han educado a los suyos en un entorno más analógico que digital. Ellos son la élite digital, y son los que mejor que nadie comprenden los efectos y las implicaciones de la tecnología, de forma que se afanan por asegurar para sus hijos un futuro mejor que el que les espera al resto de los mortales tecnodependientes.

lunes, 30 de noviembre de 2020

El retorno de la publicidad en la televisión de plataformas

Aunque el paradigma de Netflix parece marcar el paso en el sector del entretenimiento audiovisual, basando el modelo de negocio en el pago por suscripción al servicio, en los últimos tiempos se puede detectar el crecimiento del formato de consumo gratuito financiado a través de la publicidad de los anunciantes, como el de la televisión lineal en abierto de toda la vida.

Actualmente existen tres grandes modelos para monetizar un canal o plataforma de vídeo online: la publicidad, la suscripción y el pago por episodio. En la práctica, muchos agentes no se decantan por uno solo en exclusiva y basan su modelo de ingresos en combinaciones de las tres.

La mayoría de las empresas over-the-top (OTT) contempla una opción de suscripción; para Netflix es el único modelo, pero otros –YouTube y Hulu, por ejemplo- presentan un acceso gratuito financiado gracias a la publicidad, y una versión premium de pago sin anuncios. Este último es también el esquema que sigue el servicio de audio en streaming Spotify. En menor medida aparecen agentes que solamente se alimentan de la publicidad.

Los servicios de pago por suscripción se conocen como SVOD (subscription video-on-demand), mientras que los basados en publicidad llevan las siglas AVOD (ad-supported video-on-demand) y los basados en el pago por episodio se denominan TVOD (transaction video-on-demand).

A pesar de que el modelo de suscripción está en boga y parece ser el más extendido entre las plataformas de vídeo bajo demanda, hay expertos que opinan de que podría estar tocando techo. En primer lugar, se trata de un esquema que capta al cliente a través de contenidos específicos –actualmente, las series constituyen un anzuelo especial para enganchar al espectador potencial, por encima de otros formatos de entretenimiento-, pero que obliga al usuario a pagar a cada plataforma que alberga un producto de su interés: tendremos que hacernos de Netflix si queremos ver Stranger Things, de HBO si nos interesa además Watchmen, y de Amazon Prime, si esperamos ver la nueva recreación de la obra El señor de los anillos, que parece ser que está rodando.

Frente al paradigma Netflix basado en SVOD –vídeo bajo demanda basado en un modelo de ingresos bajo suscripción-, cada vez más voces auguran el crecimiento de los esquemas de vídeo bajo demanda financiados, total o parcialmente, con la publicidad. La consultora Ampere Analysis ha llegado a bautizar el 2020 como “el año del AVOD”, subrayando la importancia que espera que comience a ganar este formato a corto plazo.

Ampere espera que la feroz competencia por ofrecer contenidos nuevos exclusivos que llevan a cabo las plataformas SVOD vaya haciendo que estas liberen sus productos más antiguos, quedando estos a disposición de los canales en abierto sin suscripción AVOD para su reestreno. Este escenario dividiría el mercado del vídeo bajo demanda en dos partes diferenciadas: el de los agentes que ofrecen contenido inédito y en exclusiva, a cambio del pago de una membresía, y, por otro lado, el de aquellos que ofrecen películas y series de éxito que ya han sido estrenadas en otros canales, de forma gratuita o semigratuita, incluyendo publicidad. Sería algo así como los antiguos cines de estreno y de reestreno y sesión continua que había en las grandes ciudades.

Las predicciones de la consultora contemplan que la inversión publicitaria en servicios AVOD –que actualmente se mantiene en un volumen bajo- comenzará a aumentar en paralelo a la expansión de este modelo. Actualmente, los principales players internacionales del segmento AVOD son Crackle, Roku TV, Tubi, Vudu y Pluto, que ha aterrizado en España este mismo año.

El esquema AVOD ofrece al consumidor una alternativa gratuita para consumir contenidos audiovisuales, y, por otra parte, pone en manos de los publicistas a una audiencia cautiva. La pregunta es si el espectador actual está dispuesto a aceptar publicidad, después de haber conocido la oferta sin ella de las plataformas SVOD.

 

 

 

lunes, 23 de noviembre de 2020

Ya podemos usar la mente para hablar con las máquinas

Se define como BCI –por sus siglas en inglés- a un sistema que permite establecer una conexión directa entre el cerebro y un dispositivo externo. El brain-computer interface (BCI) o interfaz cerebro ordenador recoge e interpreta las señales que emite el cerebro humano, y las transmite a una máquina, que está programada para ejecutar comandos asociados a dichas señales. La aplicación más directa de esta tecnología se centra en la sanidad, y, más en concreto, en los ámbitos de la rehabilitación y de la sustitución motora. Sin embargo, las posibilidades que ofrece en distintos campos son inmensas, tanto en el ocio –los videojuegos son ideales para su utilización-, como en otros que están basados en acciones que pueden ser optimizadas estableciendo una relación más directa entre la mente y la máquina.

La actividad del cerebro humano se basa en las neuronas. Cuando pensamos, sentimos o nos movemos, las neuronas emiten señales eléctricas. A través de la electroencefalografía (EEG) podemos recoger esa actividad cerebral, amplificarla y enviarla a un algoritmo de inteligencia artificial, que se encarga de interpretarla, y, en su caso, traducirla a una acción, como, por ejemplo, mover un brazo mecánico.

En realidad, este planteamiento tan de ciencia ficción no es sino una evolución del interfaz hombre máquina, que, poco a poco, acerca la capacidad de comunicarnos con ellas a nuestras formas más básicas de transmitir información. Los primeros ordenadores eran operados con tarjetas perforadas. Luego llegaron los teclados y los complejos lenguajes de programación de medio nivel, todavía cercanos al lenguaje que utilizan las computadoras. La informática realmente acabó por extenderse a todo el mundo gracias a los interfaces gráficos, especialmente Windows, cuyo funcionamiento intuitivo hacía innecesario el tener amplios conocimientos de códigos y comandos para interactuar con un dispositivo. Más adelante, hemos conocido las pantallas táctiles, especialmente de los teléfonos inteligentes, y, muy recientemente, elementos de domçotica que, como los altavoces domésticos, entienden el habla humana y son capaces de respondernos utilizando la palabra. Sin embargo, todo parece indicar que, en un futuro cercano, el interfaz que utilizaremos para controlar los diversos aparatos digitales a nuestra disposición será el propio cerebro humano.

En junio de 2019 saltaba la noticia de que investigadores de Carnegie Mellon University habían desarrollado el primer brazo robótico controlado por la mente basado en tecnología no invasiva. La novedad es que se trata de la primera experiencia exitosa al respecto que no ha requerido implantes en el cerebro, y, por tanto, abre un nuevo espectro de posibilidades para pacientes con limitaciones motoras, excluyendo el riesgo que implica para la salud una intervención quirúrgica, además del elevado coste que lleva a asociada.

En el otro extremo se encuentra la iniciativa puesta en marcha por la empresa Neuralink, creada por el fundador de Tesla, Elon Musk, que plantea desarrollar un “lazo neural” (neural laze), es decir, una malla de electrodos insertada bajo el cráneo capaz de monitorizar las funciones del cerebro. En concreto, hablan de crear un interfaz cerebro máquina (BMI) para restaurar las funciones motoras y sensoriales, y para tratar desórdenes neurológicos. Neuralink trabaja en un sistema BMI de banda ancha y escalable, capaz de superar las limitaciones que presentan otros interfaces clínicos anteriores.

El prototipo de Musk inserta con absoluta precisión en el cerebro, a través de un robot neurocirujano, racimos de diminutos y flexibles electrodos -hasta 3 072 de ellos-, que constituyen canales de información. El objetivo a largo plazo consiste en llegar a construir una “capa de superinteligencia digital” que conecte a los humanos con la inteligencia artificial.

lunes, 16 de noviembre de 2020

Los robots son cada vez más habilidosos

En el pasado los robots eran situados en la cadena de producción para realizar tareas muy sencillas y repetitivas. Pero eso está cambiando. Los avances en el diseño y en la programación de los autómatas les permiten realizar cada vez tareas más complejas, que requieren de una destreza superior.

En los años ochenta del siglo pasado, el experto del Robotics Institute de la Carnegie Mellon University Hans Peter Moravec formuló un principio según el cual resulta muy complejo programar en un robot nuestra capacidad de percepción y nuestras habilidades sensomotoras, y, en cualquier caso, afirmaba, es mucho más difícil que reproducir las habilidades intelectuales de los humanos. En suma, es más sencillo crear algoritmos de inteligencia artificial para llevar a cabo tareas basadas en el cálculo y las matemáticas, que robots inteligentes que sean capaces de interactuar físicamente con el entorno.

Los fabricantes de robots suelen vender el término “destreza” como una ventaja competitiva del producto. Sin embargo, es complicado establecer un nivel de destreza estándar –incluso los propios expertos suelen manejar distintas definiciones de este concepto- y, resulta quizá más adecuado, fijarse en las tareas específicas que debe realizar la máquina a la hora de establecer sus habilidades.

De esta forma, de cara a determinar el nivel de destreza que necesita un robot para manipular objetos, hay que tomar en consideración cuestiones como las siguientes:

  • El tamaño de los objetos: ¿cómo son de pequeños? ¿son todos del mismo tamaño o no? ¿cómo afecta lo anterior a la capacidad de alcanzarlos del robot?
  • La forma de los objetos: ¿qué forma tienen? ¿tienen complicadas aristas o son una forma geométrica simple? ¿son esféricos y, en consecuencia, difíciles de agarrar?
  • La estrategia de agarrado: ¿existen distintas formas para agarrar el objeto? ¿se trata de objetos delicados que requieran una manera especial de ser manipulados?
  • Alcance: ¿cuánto tiene que alargarse el robot para alcanzar los distintos puntos de su espacio de trabajo? ¿es necesario utilizar todo el espacio de trabajo del robot o solo una parte? ¿debe aproximarse a una localización determinada desde distintos ángulos?
  • Velocidad: ¿a qué velocidad debe realizar cada acción?

La complejidad que requiere preparar a un sistema inteligente para realizar determinadas acciones físicas podría justificar que las ocupaciones relacionadas con ellas sigan siendo desempeñadas por trabajadores humanos. Sin embargo, todo esto está cambiando y, poco a poco, se podría estar ampliando el espectro de tareas que puede desempeñar un robot.

Por una parte, la utilización de polímeros en la fabricación de extremidades robóticas, que pueden expandirse y aplicar la medida precisa de presión a los objetos, permite que las nuevas generaciones agarren y levanten objetos que sus predecesores no podían. Además, la inteligencia artificial permite a los autómatas procesar y analizar la información del entorno que reciben a través de sensores y cámaras. Pueden aprender de sus errores y mejorar su ejecución.

La empresa Boston Dynamics es un buen ejemplo del salto cualitativo que está realizando la ciencia robótica. Sus modelos cada vez se desenvuelven mejor en entornos desestructurados, como pueden ser la superación de obstáculos y desigualdades del terreno. Un ejemplo de ellos es el “ciberperro” Spot, el primero de sus desarrollos que sale a la venta, que es capaz de moverse a una velocidad de 1,6 metros por segundo, y desplazarse por lugares complicados en superficies de todo tipo. Además, si se cae o vuelca es capaz de levantarse por sí mismo, sin ayuda.

Por otro lado, la empresa de Google Alphabet está trabajando, dentro del laboratorio The Moonshot Factory, en la iniciativa The Everyday Robot Project, que pretende desarrollar un robot capaz de aprender y de desenvolverse en entornos desestructurados. Los robots que persigue este proyecto están pensados para operar con seguridad en entornos humanos, es decir, en aquellos en los que las cosas cambian de lugar, donde existen obstáculos y en los que las personas pueden aparecer inesperadamente. Para ello, la máquina debe poder comprender el espacio en el que trabaja e ir adaptándose a él a través de la experiencia.

La investigación llevada a cabo en las dependencias de Alphabet se basan en tres pilares: percepción, manipulación y navegación. La percepción a través de cámaras en la cabeza del autómata, que recogen información para que sea asimilada por el machine learning, el sistema de inteligencia artificial que incorpora el sistema. Manipulación de todo tipo de objetos, gracias a una destreza muy fina. Finalmente, navegación, pues el robot utiliza los datos que recogen sus sensores para poder entender lo que “ve”, lo que “oye”, y el lugar que ocupa en el mundo, de forma que pueda realizar tareas útiles entre las personas de forma segura.

 

lunes, 19 de octubre de 2020

El coche eléctrico sí tiene impacto ecológico

El coche eléctrico es la gran esperanza para atenuar el cambio climático. El uso desmesurado de combustibles fósiles –especialmente desde la segunda mitad del siglo XX- es uno de los factores que ha desembocado en un cambio climático en el planeta que, a todas luces, ya parece irreversible. Junto a alternativas más o menos realistas de movilidad urbana, como son los vehículos compartidos y el uso de bicicletas y patinetes, emerge el concepto del vehículo eléctrico como el gran paradigma del transporte que va a conseguir que acabemos por reducir las emisiones de gases efectos invernadero en las ciudades.

Existen numerosos tipos de vehículos eléctricos, que en muchos casos combinan diversas fuentes de energía para mover sus motores. El más “puro” sería el vehículo eléctrico de batería (battery electric vehicle, BEV), cuyo funcionamiento se basa exclusivamente en un motor eléctrico alimentado por una batería que almacena la energía.

Sin embargo, el resto de las modalidades implican la combinación de la electricidad con otros tipos de energía. El denominado vehículo híbrido enchufable (plug-in hybrid electric vehicle PHEV) que parte de dos motores, uno eléctrico y de otro de combustión interna, dispuestos para funcionar juntos o por separado. En el caso del vehículo eléctrico de autonomía extendida o range extended electric vehicle (EREV), el motor de combustión interna no está asociado a la tracción, y su misión es generar electricidad para recargar la batería. Un cuarto ejemplo es el vehículo híbrido eléctrico (hybrid electric vehicles, HEV), en el cual la combustión interna apoya al motor eléctrico cuando resulta necesario, por ejemplo, al acelerar para adelantar. El último tipo es el vehículo de celda de combustible (fuel cell electric vehicle, FCEV), que, como su nombre indica, utiliza hidrógeno para generar electricidad a partir de una celda de combustible.

Aun en su modalidad más limpia, el vehículo eléctrico sí que contamina, si bien de otra manera. Más que de contaminar, debemos hablar del impacto ecológico que tiene la construcción de las baterías de ion de litio, dado que contienen níquel, un mineral cuya extracción puede afectar la calidad del terreno y de las aguas. Por otro lado, las baterías también llevan litio y cobalto, minerales cuyas reservas en nuestro planeta no son especialmente abundantes, y cuya demanda se ha disparado en proporción a la popularidad de este tipo de vehículos. Como muestra, entre 2016 y 2018, el precio del cobalto por tonelada métrica se ha cuadruplicado.

Por todo lo anterior, hay quien pone en duda que el precio de los vehículos eléctricos se abarate hasta el nivel de los de combustión interna en los próximos años, y alarga dicho periodo a más de una década. Y todo por culpa de las baterías de litio.

El coste descendente de este tipo de baterías –que suponen en torno a la tercera parte del coste del vehículo- tenderá a estancarse al no bajar más el precio de las materias primas de las que están hechas. Resulta paradójico que las previsiones más optimistas al respecto –que para 2025 alcancen el coste simbólico de 100 dólares/kWh, que equipararía el precio del coche eléctrico (sin subsidios) con el convencional- implica que las baterías tendrían un coste inferior al de los materiales que contienen.

Todo este debate deja clara una cosa: la gran esperanza de la movilidad eléctrica tiene muchas cuestiones pendientes de resolver.

martes, 13 de octubre de 2020

La necesidad de alfabetización digital

Los ciudadanos de una sociedad digital deben de hacer gala de competencias digitales que les permitan usar la tecnología como algo natural en sus vidas cotidianas de una forma provechosa y segura. Resulta fundamental que este tipo de competencias sean adquiridas por niños y jóvenes durante su proceso de formación y aprendizaje.

Los nuevos tiempos demandan del alumno unas habilidades y unas competencias diferentes que requieren de métodos distintos para su adquisición. Sin embargo, la tan nombrada innovación educativa no consiste en cambiar el libro de texto de toda la vida por la Wikipedia, ni en sustituir la clase presencial por una charla equivalente a través de un vídeo en YouTube.
 
En este terreno, el de la educación, la confusión que ha traído la reciente revolución digital se ha traducido en grandes dudas y en una terrible incertidumbre. Nadie tiene muy claro qué y cómo debemos enseñar en el mundo de hoy, aunque las ideas y propuestas se suceden desde el sector educativo, pero también desde el puramente tecnológico. ¿Qué papel real debe juzgar la tecnología en la educación? ¿Cuál es la misión del docente dentro de este nuevo escenario? ¿Cómo puede ayudar la educación no formal a preparar al alumno para vivir en la sociedad actual?
 
Prácticamente todos los países desarrollados llevan alrededor de veinte años introduciendo tecnología en el aula, con el fin de desarrollar las competencias digitales del alumnado. Pero, pensarán algunos, ¿qué le puede enseñar el sistema educativo a unos alumnos nativos digitales, que han nacido y crecido en un medio tecnológico, y que manejan de forma intuitiva dispositivos y herramientas digitales dotadas de una tecnología cada vez más transparente?
 
La respuesta está contenida en el concepto de alfabetización digital, es decir, más allá de formar única y exclusivamente sobre el correcto uso de las distintas tecnologías, intentar proporcionar al alumnado competencias dirigidas hacia el desarrollo de las habilidades comunicativas, del sentido crítico, la participación o la capacidad de análisis de la información a la que acceden, entre otras. En concreto, se trata de enseñar a interpretar la información, valorarla y ser capaz de crear sus mensajes propios.
 
Precisamente, y relacionado con lo anterior, se hace referencia al término tercera brecha digital para aludir a la huida del cibernauta del conocimiento especializado, con la separación de los mensajes complejos, a la incapacidad que presentan muchas personas de distinguir entre las aportaciones que existen en la red de especialistas y toda la información de escaso valor que circula por Internet, que es impulsada, en gran medida, por las redes sociales. El problema es que el usuario se decanta hacia ese conocimiento social huyendo de la complejidad que implica el conocimiento riguroso de calidad. Se abre una brecha entre los que saben acudir a la información de calidad y los que picotean de fuentes de diversa índole, que no saben discernir contenidos valiosos de la basura, de la inexactitud y de la mentira. Todo esto se agrava si hablamos de fake news o deep fake, acciones malintencionadas dirigidas a la manipulación de las personas.
 
Las competencias digitales le aportan al ciudadano la capacidad de aprovechar la riqueza asociada al uso de la tecnología digital y de superar los retos que plantea, y, en cualquier caso, se vuelven prácticamente imprescindibles para poder participar de forma significativa en la sociedad y en economía del conocimiento emergentes.

lunes, 5 de octubre de 2020

La fábrica inteligente, una nueva revolución industrial

Existe una revolución en marcha dentro de los entornos productivos, un cambio que va más que la mera evolución de las tecnologías aplicadas a la fabricación, y que está transformando las plantas industriales en espacios inteligentes con capacidad de planificar el mantenimiento de forma óptima, de predecir los errores, e incluso de reaccionar de manera automática ante los problemas, sin que resulte necesaria la intervención humana.

Estamos hablando de la Industria 4.0, una etiqueta detrás de la cual se esconde el maridaje de las técnicas de fabricación más avanzadas y del internet de las cosas, para construir procesos de producción interconectados, que comunican y analizan la información para devolver al mundo físico acciones basadas en la inteligencia. Una idea básica sobre la que reposa este concepto es que los elementos físicos y los digitales se alían –podríamos decir que incluso se fusionan- para impulsar la productividad de la empresa.

Y llegamos a la denominada fábrica inteligente, que no es otra cosa que una determinada instalación productiva altamente conectada y digitalizada, cuyo combustible principal es la información en grandes cantidades procedente de los objetos conectados a las redes, que son almacenados y analizados para poder optimizar los procesos, mejorando los tiempos y minimizando los costes de producción. La automatización extrema de este tipo de plantas hace que consigan funcionar con la menor presencia de trabajadores humanos posible, puesto que se acaban convirtiendo en organismos autónomos, que pueden aprender del entorno y adaptarse a los cambios en tiempo real. Por supuesto, la producción de este tipo de fábricas innovadoras es mucho más versátil y adaptable a las necesidades de la demanda que las de las plantas tradicionales.

La información se convierte en un elemento clave de este nuevo modelo, y la digitalización alcanza a la cadena de suministro, a la cadena de fabricación, al producto, y hasta a las relaciones entre los empleados entre sí y con los procesos de la compañía. Todos los elementos de la cadena de valor se ven transformados por la ola digital.

Y todo ello reposa sobre un amplio abanico de tecnologías de vanguardia, entre las que destaca el internet de las cosas (IoT) como eje vertebrador del intercambio de información entre los sensores, las máquinas y los sistemas que intervienen en los procesos. Pero, junto al IoT, se hacen visibles otras ramas tecnológicas, como el big data, cuya función es recolectar y analizar toda la información que generan los objetos interconectados, para poder identificar patrones en el funcionamiento, encontrar ineficiencias e, incluso, prevenir eventos futuros, como, por ejemplo, una avería.

Por supuesto, las tecnologías cloud, “la nube”, también cobran un protagonismo especial como lugar de almacenamiento de toda la información generada. En el plano más cercano a la cadena de producción, surge la robótica, en la forma de autómatas inteligentes y autónomos capaces de tomar decisiones durante la realización de tareas, y la fabricación aditiva, conocida coloquialmente como impresión en 3D, capaz de construir objetos tridimensionales desde modelos virtuales, algo de gran utilidad, por ejemplo, para crear piezas de repuesto cuando son necesarias, disminuyendo en gran medida la necesidad de mantener stocks.

En la nueva industria que emerge las cadenas de producción, la cadena de suministro, los sistemas logísticos, y cada área operativa de la empresa, se transforman en entornos ciberfísicos donde las redes y los ríos de datos abrazan y envuelven a las máquinas e infraestructuras de fabricación.

 

lunes, 28 de septiembre de 2020

La inteligencia artificial europea debe ser fiable

La inteligencia artificial está en el corazón de la agenda científica de la Unión Europea. La Comisión reconoce la capacidad de este conjunto de tecnologías para mejorar la vida de las personas, y para generar beneficios para la sociedad y la economía, a través de cuestiones como el impulso del cuidado de la salud, el aumento de la eficiencia de la administración pública, haciendo el transporte más seguro, inyectando competitividad en la industria o generando una agricultura más sostenible.

El impacto económico de la automatización del trabajo intelectual, de los robots y de los vehículos autónomos, se calcula que alcanzará entre los 6,5 y los 12 billones de euros anuales para 2025. Sin embargo, Europa se queda atrás en relación a la inversión privada en inteligencia artificial, pues dedicó en 2016 entre 2 400 y 3 200 millones de euros frente a los entre 6 500 y 9 700 millones de Asia, y los entre 12 100 y 18 600 millones de Norteamérica.

Es por ello, que la Comisión Europea impulsa con grandes inversiones aspectos como los sistemas cognitivos, la robótica, el big data y las tecnologías emergentes del futuro, con el fin de garantizar el mantenimiento de la competitividad del tejido económico del continente.

A través del programa Horizon 2020, ha dedicado 2 600 millones de euros a las áreas relacionadas con la inteligencia artificial, como la robótica, el big data, el transporte, la sanidad y las tecnologías emergentes. La investigación en robótica ha recibido hasta 700 millones de fondos públicos, a los que hay que sumar 2 100 millones de financiación privada. Los Fondos Estructurales y de Inversión europeos también han incidido en la formación y el desarrollo de capacidades con 27 000 millones de gasto en ese tema, de los cuales 2 300 han sido dedicados al desarrollo de capacidades digitales.

Las autoridades europeas son conscientes de los peligros que entraña el desarrollo descontrolado y no razonado de la inteligencia artificial. En consecuencia, paralelamente al desarrollo científico y tecnológico, han visto la necesidad de abrir un debate para esclarecer cómo conseguir que los sistemas inteligentes traigan consigo beneficios a las personas, y no perjuicios. A tal efecto, en junio de 2018 la Comisión creó el Grupo de expertos de alto nivel sobre IA, que en abril de 2019 presentó el documento Directrices éticas para una IA fiable. El informe pretende ofrecer algo más que una simple lista de principios éticos, y proporciona orientación sobre cómo poner en práctica esos principios en los sistemas sociotécnicos.

Los autores se centran en el concepto de fiabilidad de la inteligencia artificial, que hacen reposar sobre tres pilares: debe ser lícita, es decir, cumplir todas las leyes y reglamentos aplicables; también ha de ser ética, de modo que se garantice el respeto de los principios y valores éticos; y, finalmente, debe ser robusta, tanto desde el punto de vista técnico como social. Cada uno de estos componentes es en sí mismo necesario, pero no es suficiente para el logro de una inteligencia artificial fiable.

Las directrices que propone en el trabajo se dirigen solamente a los dos últimos aspectos, la ética y la robustez. El Grupo de Expertos identifica una serie de directrices éticas que deben acompañar la construcción de máquinas inteligentes:

  1. Desarrollar, desplegar y utilizar los sistemas de IA respetando los principios éticos de: respeto de la autonomía humana, prevención del daño, equidad y explicabilidad. Reconocer y abordar las tensiones que pueden surgir entre estos principios.
  2. Prestar una atención especial a las situaciones que afecten a los grupos más vulnerables, como los niños, las personas con discapacidad y otras que se hayan visto históricamente desfavorecidas o que se encuentren en riesgo de exclusión, así como a las situaciones caracterizadas por asimetrías de poder o de información, como las que pueden producirse entre empresarios y trabajadores o entre empresas y consumidores.
  3.  Reconocer y tener presente que, pese a que aportan beneficios sustanciales a las personas y a la sociedad, los sistemas de IA también entrañan determinados riesgos y pueden tener efectos negativos, algunos de los cuales pueden resultar difíciles de prever, identificar o medir (por ejemplo, sobre la democracia, el estado de Derecho y la justicia distributiva, o sobre la propia mente humana). Adoptar medidas adecuadas para mitigar estos riesgos cuando proceda; dichas medidas deberán ser proporcionales a la magnitud del riesgo.
 
 

lunes, 21 de septiembre de 2020

Los teléfonos móviles como televisores de bolsillo


En la en la primera mitad del siglo XX, el genial inventor Nikola Tesla profetizó con precisión la llegada del teléfono móvil inteligente, cuando dijo en un programa de radio en 1926:

“A través de la televisión y la telefonía podremos vernos y oírnos tan perfectamente como si estuviéramos cara a cara, a pesar de que las distancias que medien sean de miles de kilómetros. Los instrumentos mediante los cuales seremos capaces de hacer esto resultarán pasmosamente simples en comparación con nuestro teléfono actual. Se podrán llevar en el bolsillo del chaleco.”

Un receptor de imagen y sonido de bolsillo, o, en otras palabras, el actual smartphone. Se trata del dispositivo más popular, preferido, por encima de los otros, por el 92 % de la población española, de acuerdo con el informe Sociedad Digital en España, que edita Fundación Telefónica. A pesar del que el ordenador sigue siendo mayormente el terminal en el que nos gusta trabajar, y que delante de la pantalla de televisión seguimos gastando nuestra forma de ocio más pasiva, los teléfonos que portamos en bolsos y bolsillos cada vez van acaparando un mayor número de las funciones que realizamos en nuestro día a día.

Por otro lado, a lo largo de esta década que termina, el consumo de televisión se ha trasladado a los dispositivos conectados a internet. Primero fue hacia el ordenador fijo y el portátil, y luego a la tableta. En la actualidad el teléfono móvil se erige como uno de los terminales idóneos para ver contenidos de vídeo personalizados, y, de hecho, es utilizado por el 34% de los usuarios para consumir servicios bajo suscripción –como Netflix, Amazon Prime o HBO-, frente a la cifra del 32% del televisor y el 31% del ordenador portátil. De hecho, según GlobalWebIndex, el televidente de hoy en día ve la tele en tres dispositivos distintos de media.

En Europa, los televidentes que afirman ver regularmente contenidos audiovisuales en el móvil todavía representan una proporción baja, 12% los canales de televisión y 15% los de servicios bajo suscripción. Pero si nos movemos a los países en desarrollo –donde por norma suele haber una gran carencia de infraestructuras de red fija de banda ancha-, las cifras suben notablemente, hasta el 23% y el 43% en el caso de Latinoamérica, y hasta el 37% y 41%, respectivamente, en Asia y Pacífico, teniendo en cuenta las excepciones evidentes de países con un despliegue fijo notable, como pueden ser Corea de Sur, Japón y China, entre otros.

La esperada llegada del 5G acentuará esta tendencia, si cabe. Sin duda, el mercado audiovisual se verá transformado cuando esta tecnología proporcione una velocidad hasta 10 y 20 veces mayor que la 4G. La previsión es que el tráfico medio de un cliente de servicios 5G aumente hasta los 84,4GB mensuales en 2028 (hoy en día esa cifra estaría en torno a los 11,7GB). Y es más que probable que el 90% de todo ese tráfico corresponda a vídeo.

La diminuta pantalla del teléfono lleva a que este sea conectado a otros dispositivos para poder disfrutar de una mejor calidad de imagen. Es lo que se conoce como content casting, que no es otra cosa que transmitir la reproducción que tiene lugar en el smartphone a una televisión o a otro dispositivo con una pantalla más grande, bien a través de un cable, bien por medios inalámbricos, como puede ser el Chromecast de Google.

Volviendo a las cifras que ofrece GlobalWebIndex, el 29% de los internautas ve contenidos audiovisuales reproducidos en el móvil, pero retransmitidos a través de “pantallas espejo”. Esta media sube hasta el 33% en el caso de los más jóvenes, y un punto porcentual más entre los usuarios de entre 25 y 34 años de edad. Por regiones, se trata de un fenómeno especialmente común en Latinoamérica (el 42% de los cibernautas lo práctica) y Asia y Pacífico, donde casi la tercera parte de navegantes lo lleva a cabo.

Los móviles se transforman en aparatos de televisión: una tele de bolsillo para verla dónde y cuándo queramos.

lunes, 14 de septiembre de 2020

Deepfake, la mentira de la imagen

 

“Si no lo veo, no lo creo”, decimos con frecuencia, otorgando a la imagen un estatus de veracidad de lo que muestra, que hoy en día podría estar en peligro. No es un problema que afecte solamente a la interpretación de los hechos que pueda tener lugar en un juicio, por poner un ejemplo práctico de situaciones en las que modificar las pruebas es un tema gravísimo; en el periodismo, la evidencia visual es una piedra angular en la creación de la opinión pública, y, además, es un elemento fundamental para determinar cómo se conforma el poder político. De alguna forma, las manipulaciones de archivos audiovisuales –tanto de vídeo, como de audio- suponen un peligro para la convivencia democrática y para la dignidad de las personas afectadas, que ven cómo los registros de su imagen son alterados con el fin de desacreditarlas, o de convertirlas en portadoras de un mensaje u opinión con el que no comulgan y al que no apoyan.

Se trata de algo que ha sido bautizado como deepfake, un fenómeno que hoy en día afecta especialmente al vídeo, dada la capacidad que ha desarrollado la inteligencia artificial para trucar, con un grado de éxito más que notable, cualquier pieza audiovisual, poniendo en boca de políticos afirmaciones que no han realizado, o –y esto es lo más común- alterando escenas de películas pornográficas situando los rostros de personajes conocidos en el cuerpo de los actores enfrascados en actos sexuales.

De acuerdo con BBC News, el pasado año se duplicó el número de vídeos falsos que proliferan por las redes. La empresa tecnológica Deeptrace llegó a detectar más 14 600, frente a los menos de 8 000 encontrados en diciembre de 2018. De ellos, el 96% eran de carácter pornográfico, generalmente con la cara de una celebridad generada por ordenador sobre el cuerpo de un actor o de una actriz de la trama porno. Por cierto, que el deepfake, aparte de una herramienta para condicionar la opinión pública, supone un lucrativo negocio para algunos.

La palabra deepfake procede de la contracción de deep learning (aprendizaje profundo) y fake (falsificación). Es decir, que implica el uso de inteligencia artificial para generar vídeos sintéticos, generalmente con el fin de desacreditar a alguien y/o condicionar la opinión pública. Hace algún tiempo apareció en la red Instagram un vídeo de Mark Zuckerberg, el popular consejero delegado de Facebook, en el que este confesaba su intención de hacerse con el control del planeta, gracias a disponer de los datos de las personas. Incluso hacía un guiño al cine de James Bond al mencionar a la organización Spectra, la archienemiga del agente 007. Esto es un ejemplo de lo que se puede hacer en el campo del deepfake.

La organización Witness introduce el deepfake dentro del marco conceptual del desorden informativo. Resulta especialmente preocupante el impacto en las personas de la información visual, bastante más fuerte que la textual, dado que nuestros cerebros tienden a confiar más en la imagen. El análisis de esta oenegé distingue tres aspectos distintos: misinformation (misinformación), cuando la mala información no ha sido producto de mala intención, sino de un error o equívoco; malinformation (malinformación), el difundir información verdadera, pero de carácter privado, con la intención de hacer daño (por ejemplo, airear un vídeo íntimo de alguien manteniendo relaciones sexuales); y, entre ambas, la disinformation (desinformación), que implica crear y difundir información falsa con malas intenciones. Las deepfake entrarían dentro de esta categoría.

La preocupación ante el daño que puede producir este delito emergente, tanto a la reputación de personas concretas como por la posibilidad de manipulación de la opinión pública, ha llevado a que se estén tomando medidas para frenarlo en la medida de lo posible. El Gobierno de los Estados Unidos ha puesto en marcha el proyecto Media Forensics (MediFor) desde DARPA (Defense Advanced Research Projects Agency) para la investigación y desarrollo de tecnologías capaces de certificar la autenticidad de una imagen o vídeo, y de detectar automáticamente las manipulaciones.

Igualmente, Google ha puesto a disposición del público una base de datos con más de 3 000 vídeos deepfake en los que ha sido utilizada inteligencia artificial para alterar los rostros de las personas que aparecen. El objeto es apoyar a los investigadores en este campo en el desarrollo de herramientas contra este delito, mediante los conocimientos que puedan adquirir de este gran banco de datos. Por su parte, Facebook ha creado el proyecto Deepfake Detection Challenge (DFDC), en colaboración con socios como el MIT, Microsoft y varias universidades estadounidenses. La iniciativa persigue el desarrollo de tecnología que todo el mundo pueda utilizar para poder saber cuándo un vídeo ha sido manipulado.

 

 
Google Analytics Alternative