martes, 17 de abril de 2018

Los ecos de 2001 (II): humanos automáticos y máquinas demasiado humanas

Para celebrar los 50 años de la película de Stanley Kubrick 2001: una odisea del espacio me gustaría analizar a través de una serie de artículos algunos conceptos y elementos del film y su vigencia o relación con este mundo de la primera mitad del siglo XXI. En concreto, temas como las visiones de entonces del futuro tecnológico, el desarrollo de la inteligencia artificial y su relación con el ser humano, el transhumanismo o la búsqueda de vida extraterrestre.

Uno de los personajes 2001 con mayor número de frases en el guion – aunque hay solamente cuarenta minutos de diálogos de un total de dos horas y diecinueve minutos de metraje- no es humano. Se trata del superordenador HAL 9000, que se encarga de llevar la nave espacial Discovery hasta más allá de Júpiter con una tripulación de varios astronautas en estado de animación suspendida y dos despiertos de guardia, Dave Bowman y Frank Poole. La misión va en busca de un misterioso monolito supuestamente creado por una civilización de origen extraterrestre.

HAL, cuyo nombre es el resultado de la contraer las palabras heurístico y algorítmico, los dos principales sistemas de enseñanza (y no las letras que preceden en el abecedario a las siglas IBM, como dijo algún crítico de la época), es la visión que tuvieron el director Stanley Kubrick y el coautor del guion Arthur C. Clarke de lo que podría llegar a ser la inteligencia artificial en el entonces futuro, el comienzo del siglo XXI. La película anticipó elementos como el aprendizaje automático o las redes neuronales, algo en lo que se basa la inteligencia artificial más avanzada que estamos desarrollando hoy en día.

Uno de los rasgos más notables de HAL es su personificación, es decir, cómo ha sido diseñado para emular el modo de relacionarse de una persona con otros interlocutores humanos, simulando incluso empatía por los demás. Por ejemplo, en una escena de la película le llega a decir al astronauta Bowman: “puedo deducir por el tono de tu voz que estás disgustado, Dave.  ¿Por qué no te tomas una píldora relajante y descansas un poco?” Exactamente como una persona se preocupa por otra.

Su voz igualmente intenta reproducir el tono cálido del habla humana. En uno de los borradores primitivos del guion HAL tenía una voz femenina y en vez de HAL se llamaba Athena, pero finalmente Kubrick y Clarke desestimaron la idea porque de esa manera la relación de la máquina con los astronautas podría adquirir matices eróticos no deseados.

Un fenómeno curioso en la relación entre hombre y máquina es lo que el crítico de cine Alexander Walker denominó inversión de los roles, que hace alusión a que los astronautas Poole y Bowman se comportan de manera mecánica en el film —siguen los protocolos establecidos y aplican el entrenamiento recibido de forma fría y desapasionada—, mientras que HAL se muestra demasiado humano, al desarrollar algo parecido a emociones y una especie de soberbia, que le lleva en última instancia a acabar con casi toda la tripulación de la nave.

De alguna forma supone una metáfora de cómo nos enfrentamos a la tecnología hoy en día. Por un lado, desarrollamos algoritmos de inteligencia artificial intentando en muchos casos que se parezcan lo más posible a un ser humano en sus diálogos y reacciones. Un buen ejemplo de ello son los modernos robots conversacionales, que poco a poco se introducen entre las relaciones de las empresas con sus clientes, o los asistentes personales, como Siri de Apple, Google Assistant, Cortana de Microsoft o Alexa y Echo de Amazon. El objeto de estos programas es que aprendan cómo somos de sus relaciones con nosotros e intenten parecerse cada vez más a un ser humano.

Y en el extremo opuesto, en muchos aspectos el uso de la tecnología deshumaniza a las personas. A pesar de que las redes sociales tienden a amplificar la vida social, algo que destaca la reciente publicación Sociedad Digital en España 2017, también consiguen aislarnos detrás de las pantallas y sustituir en gran medida las relaciones físicas personales por otras digitales.

Este fenómeno también lleva a que se produzcan linchamientos públicos en redes sociales como Twitter, en donde las masas de cibernautas iracundos sin rastro de empatía atacan con fiereza a personajes públicos -y a otros que no lo son tanto-, sin intentar comprender sus motivaciones o informarse adecuadamente de la naturaleza de los hechos por los que se les juzga. ¿Y qué decir de la costumbre de grabar con el teléfono móvil en situaciones de accidentes, atentados o catástrofes naturales? ¿Acaso no se muestran poco humanos aquellos que registran el dolor y el sufrimiento ajenos, en vez de intentar ayudar o sencillamente paralizarse de horror? Ha ocurrido en numerosos atentados de los sufridos en los últimos tiempos, aunque el caso más reciente es un accidente, el del telesilla desbocado de una estación de esquí Georgia, en el que algunos testigos se dedicaban a grabar en vídeo cómo la estructura lanzaba con violencia a los esquiadores, en vez de intentar socorrerlos.

¿Estaremos transmitiendo nuestra naturaleza humana a las máquinas que construimos?

lunes, 9 de abril de 2018

Los ecos de 2001 (I): el futuro que no pudo ser

Para celebrar los 50 años de la película de Stanley Kubrick 2001: una odisea del espacio me gustaría analizar a través de una serie de artículos algunos conceptos y elementos del film y su vigencia o relación con este mundo de la primera mitad del siglo XXI. En concreto, temas como las visiones de entonces del futuro tecnológico, el desarrollo de la inteligencia artificial y su relación con el ser humano, el transhumanismo o la búsqueda de vida extraterrestre.

El 4 de abril de 1968 tuvo lugar el estreno de 2001: una odisea del espacio, una epopeya ideada por el escritor británico Arthur C. Clarke y el realizador Stanley Kubrick, que recrea una historia alternativa de la humanidad, desde el origen de nuestra especie hasta que esta lleva a cabo un salto evolutivo propiciado por inteligencias extraterrestres superiores, derivando en una suerte de “niño del cosmos”

La cinta constituye uno de los títulos clásicos del cine de ciencia ficción de todos los tiempos y sus imágenes y banda sonora original pasaron a formar parte de la iconografía popular del siglo XX.

Dividida en tres bloques, el primero cuenta cómo un artefacto de origen extraterrestre, un estilizado monolito, instruye a los primeros homínidos en el manejo de las herramientas, en concreto un hueso, mientras que el segundo y el tercero nos trasladan al año 2001 y relatan, respectivamente, el descubrimiento de otro objeto similar en la Luna y un viaje espacial a Júpiter a la búsqueda de establecer contacto con otras civilizaciones del cosmos.

Aparte de la calidad formal de 2001, en su época supuso una verdadera revolución en el campo de los efectos especiales, especialmente en la recreación de los primates semihumanos de la primera parte y también en cómo se retratan los vuelos espaciales, considerando detalles como la ingravidez o la ausencia de referencias “terrestres”, como “arriba” y “abajo”. Y es que el optimismo tecnológico de Clarke y Kubrick les llevó a vaticinar un principio de siglo XXI en el que los humanos viajábamos en vuelos regulares a nuestro satélite, o a inmensas estaciones espaciales, y en el que podíamos enviar misiones tripuladas a los planetas exteriores del sistema solar.

Ciertamente, aquel mundo de la década de los sesenta veía inevitable el que tuviera lugar un gran salto adelante en la tecnología aeroespacial que en treinta años trajese todas esas maravillas que cuenta la película. A fin de cuentas, al año siguiente del estreno de la película, Armstrong y Aldrin pisaban la Luna fruto del reto político lanzado por el presidente Kennedy en 1962, que tenía el objetivo de adelantar a los soviéticos en la carrera espacial. Y, sin embargo, todo ese impulso conquistador se desinfló como un globo a mediados de la década siguiente.

La Unión Soviética perdió el interés por nuestro satélite una vez que Estados Unidos plantó allí su bandera, por lo que la carrera espacial, por lo menos en ese apartado, se desaceleró. La crisis económica de los setenta, los recortes presupuestarios de los ochenta y el cambio de orientación de la NASA, apostando por misiones no tripuladas e intentando abaratar costes (Viking, Voyager..), cambiaron por completo la perspectiva de la conquista del espacio que se tenía en los sesenta.

Hoy, en 2018, en vez de la majestuosa estación espacial con forma de rueda que muestra Kubrick en el film, tenemos la ISS, un conjunto de estrechos e incómodos módulos solamente aptos para ser habitados por astronautas profesionales; en la Luna no solamente no tenemos bases estables, sino que no hemos vuelto a pisarla desde 1972; y en lo tocante a misiones tripuladas a otros planetas del sistema solar, todavía no tenemos claro en qué año podríamos llegar a Marte, el más cercano a nosotros.

Es bien cierto que otros vaticinios que realiza 2001, como la videoconferencia o la inteligencia artificial -los ordenadores capaces de aprender por su cuenta-, sí que sean cumplido en nuestra época, pero en general, cuando vemos de nuevo la película, nos asalta una sensación de decepción por un futuro que no se cumplió. La empresa de capital riesgo Founders Fund lo expresó muy gráficamente en un manifiesto, con la frase “queríamos coches voladores y en vez de eso nos dieron 140 caracteres”, en referencia al límite de texto que admite la red Twitter en sus posts.

A pesar de que actualmente vivimos una revolución de la tecnología digital, hay quien piensa que el ritmo de innovación de los últimos tiempos se ha ralentizado. Hace unos años un artículo The Economist, Innovation pessimism: Has the ideas machine broken down?, planteaba el siguiente razonamiento: si entramos en una cocina de principios del siglo XX y luego en otra de, pongamos, 1965, nos encontramos ante dos realidades radicalmente distintas. Pero si comparamos la de 1965 con una actual, nos damos cuenta que, quitando algún aparato más que otro y los displays digitales, básicamente tienen la misma forma y funcionan de la misma manera. Los autores defendían que de alguna forma la innovación en el mundo actual se ha estancado. Sea o no verdad, aquellos niños de los años setenta que fuimos seguirán soñando con los maravillosos cruceros espaciales y las bases en la Luna que nos describió Stanley Kubrick en ese mundo futuro que no fue. Ese futuro que no pudo ser.

martes, 3 de abril de 2018

Los peligros de la inteligencia artificial

La capacidad que tiene la inteligencia artificial para automatizar tareas antes realizadas por humanos aumenta el potencial de hacer daño en el caso de ser usada con fines maliciosos, como, por ejemplo, para llevar a cabo ciberataques. El desarrollo de sistemas inteligentes que aprenden solos puede traer cambios en casi todos los sectores económicos, desde la producción manufacturera hasta la salud, desde la atención al cliente en las empresas comerciales hasta el transporte autónomo de mercancías y personas.

No obstante, la sociedad acoge la inteligencia artificial con no poco miedo e incertidumbre, principalmente por su carácter disruptivo y su capacidad para sustituir a trabajadores humanos destruyendo de esta manera un elevado volumen de puestos de trabajo. Pero ese no es el único peligro de la automatización, también es de temer el uso malicioso que puede llevarse a cabo con la inteligencia artificial.

Un reciente informe ha estudiado la posibilidad de que la inteligencia artificial sea utilizada para amenazar la seguridad y causar daño. El trabajo lleva el título de The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation y está firmado por instituciones de prestigio como la Universidad de Oxford, el Future of Humanity Institute, Centre of the Study of Existential Risk, Center for a New American Security, la Electronic Frontier Foundation y OpenAI. 

Básicamente, analiza los principales riesgos que implica un uso malintencionado de la IA y plantea recomendaciones para poder prevenirlos.

A juicio de los autores, la inteligencia artificial puede alterar el panorama actual de amenazas de tres 
maneras:
  • Aumentando las amenazas existentes. Al abaratarse el coste de realizar un ataque, pues se automatizan numerosas funciones que antes tenían que realizar los humanos, aumenta notablemente el número de actores que ahora pueden llevarlo a cabo.
  • Introduciendo nuevas amenazas. Pueden surgir nuevos ataques al posibilitar la IA la realización de tareas que antes eran impracticables para los humanos.  Paralelamente, la IA permite analizar las vulnerabilidades de los sistemas de defensa.
  • Cambiando el carácter de las amenazas. Los ataques pueden ser ahora más efectivos, más precisos en alcanzar el objetivo y más difíciles de atribuir a un agente concreto.
Por otro lado, tres son también los ámbitos de seguridad estudiados:
  • La seguridad digital. Gracias a la inteligencia artificial, los ciberataques podrán ser muy efectivos a muy gran escala. Se habla de la posibilidad que se produzcan más amenazas relacionadas con las estafas basadas en suplantación de personalidad y robo de datos personales (spear phishing) o los ataques que se aprovechan de la vulnerabilidad humana, del software y de los sistemas de inteligencia artificial.
  • La seguridad física. Consiste en usar la IA para automatizar los ataques con drones y otros sistemas físicos. También se considera la posibilidad de recibir ataques que subviertan sistemas ciberfísicos, por ejemplo, llevar a que un coche autónomo se estrelle.
  • Seguridad política. La manipulación social y la invasión de la privacidad se pueden llevar a cabo mediante el análisis de ingentes cantidades de datos personales, la persuasión mediante propaganda dirigida y el engaño, por ejemplo, mediante la manipulación de vídeos. Además, pueden producirse nuevos tipos de amenazas que se aprovechen de la capacidad de la IA para analizar el comportamiento humano, los estados de ánimo y las creencias.
De cara a prevenir este tipo de amenazas, el informe ofrece una serie de recomendaciones:
  1. Los legisladores deben colaborar con los técnicos e investigadores para poder prevenir y mitigar los posibles usos maliciosos de la inteligencia artificial.
  2. Los investigadores y los ingenieros deben considerar seriamente el doble uso que puede tener el resultado de su trabajo, teniendo siempre en cuenta la posibilidad real de que se realice un mal uso de las aplicaciones que desarrollan en el campo de la IA.
  3. Hay que identificar buenas prácticas en áreas de investigación que han desarrollado métodos eficientes para gestionar las cuestiones relacionadas con el doble uso de la tecnología, como la seguridad informática, y trasladarlas al campo de la inteligencia artificial.
  4. Ampliar el rango de grupos de interés y expertos implicados en los debates relacionados con estas amenazas.

martes, 27 de marzo de 2018

Una nueva víctima de la conducción autónoma

El pasado 18 de marzo un Volvo XC90 SUV autónomo de Uber atropelló a una peatona en la localidad de Tempe, Arizona, causándole la muerte. Las primeras noticias que llegaron sobre el suceso eran confusas. Se apuntaba a que la ciclista había saltado inesperadamente delante del coche y que este no hubiera podido frenar, aunque hubiera estado pilotado por un humano. También se especulaba con que los sistemas automáticos de detección de obstáculos no habían funcionado correctamente. Finalmente, el conductor aparecía como culpable pues, a pesar de que el automóvil circulaba en el modo de conducción autónoma, debería de haber estado atento a la carretera y tomar el control a avistar el peligro.

Unos días después del accidente, la policía de Tempe ha publicado el vídeo del accidente grabado por la cámara exterior del vehículo. En él se aprecia que la víctima, Elaine Herzberg, cruza con su bicicleta por una zona muy mal iluminada donde no hay paso de peatones. Aunque la investigación sigue en marcha, desde el departamento de policía de Tempe se afirma que la colisión era prácticamente inevitable, a la luz de lo que muestra el vídeo, para cualquier tipo de conductor, ya fuera humano o artificial.

No obstante, también se apunta que la cámara interna muestra a la conductora del vehículo, Rafaela Vasquez, con la vista en la consola baja sin mirar a la carretera hasta el momento fatal de la colisión. Como conductora de seguridad, su deber era estar pendiente por si cualquier situación peligrosa le obligaba a retomar el control humano del automóvil. El fallo mecánico también está siendo considerado, pues parece ser que el sistema LIDAR del Volvo debería haber detectado a Elaine Herzberg con anticipación y activado los frenos. Se trata de un dispositivo compuesto por 64 láseres que realiza un escaneo continuo del entorno del vehículo que identifica objetos con una precisión de dos centímetros.

La empresa Uber ha manifestado públicamente su consternación y ha anunciado que paraliza temporalmente todas las pruebas que está llevando a cabo con coches autónomos. Este siniestro es el segundo más importante después de que en mayo de 2016 el modelo Tesla S en el que viajaba Joshua Brown en modo de conducción Autopilot se estrellara contra un camión articulado en una carretera de Florida.

No hay duda que después de este accidente se levantarán muchas voces en contra de la conducción autónoma. Sin embargo, gradual autonomía de los vehículos probablemente tenga una consecuencia directa inmediata: la caída drástica de la siniestralidad en las carreteras. Las estadísticas sitúan el factor humano como la causa principal en más del 90% de los accidentes. La conducción será por tanto más segura y con menos riesgos.

Elon Musk, el presidente de Tesla Motors, se defiende del escepticismo sobre la seguridad de los coches autónomos. Sobre el Tesla accidentado en 2016 con consecuencias fatales para su conductor, acude a las estadísticas y afirma que fue la primera fatalidad en 130 millones de millas realizadas por vehículos autónomos en Estados Unidos, mientras que los automóviles con conductor humano sufren de media un siniestro cada 94 millones de millas.

¿Tiene futuro la conducción autónoma? El tiempo dirá si máquinas y humanos conseguimos repartirnos de forma óptima las tareas en la carretera.

martes, 20 de marzo de 2018

Qué esperamos este año de la inteligencia artificial

La inteligencia artificial es el término de moda de esta década. A lo largo del siglo XX, las máquinas que aprenden no traspasaban los límites de los escritos teóricos y de la ciencia ficción, pero, ya en este siglo, por fin se están materializando aplicaciones de IA en numerosos sectores de actividad. La capacidad disruptiva de esta tecnología aparentemente es tan poderosa que el miedo y la preocupación por el futuro impregnan los discursos más apocalípticos. Sin embargo, también abundan los esfuerzos analíticos que tratan de matizar los efectos reales que las máquinas inteligentes tienen sobre la sociedad y la economía y la velocidad a la que se producen los cambios, que pueden no ser tan inminentes.

Un ejemplo de esto es un informe de PwC que limita sus vaticinios al más estricto corto plazo, consciente de lo difícil que es realizar una predicción a cinco o diez años en un tema tan complejo que evoluciona tan rápido. Por ello, el trabajo 2018 AI predictions – 8 insights to shape business strategy acota el marco de su especulación sobre el futuro de la inteligencia artificial a los límites del año en curso. Veamos los hitos más destacados que anticipan los autores del documento sobre las máquinas inteligentes.  

La inteligencia artificial impactará en los empleadores antes de hacerlo en el empleo

Este juego de palabras encierra la creencia de que las máquinas no van simplemente a destruir empleo, como pregonan las profecías más catastrofistas, sino que conducirán a una transformación compleja del mercado de trabajo. El estudio habla del surgimiento del concepto de centauro, que no es otra cosa que un algoritmo informático que trabaja mano a mano con un humano. El trabajador se apoya en la capacidad operativa de la máquina, pero puede tomar decisiones él mismo cuando lo considere necesario.  Es decir, que la inteligencia artificial no tendrá el control absoluto y siempre estará sometida al criterio humano.

La inteligencia artificial pondrá los pies en la tierra

Frente a las visiones futuristas que predicen las maravillas que serán capaces de realizar las máquinas inteligentes en las próximas décadas, en el muy corto plazo podremos ver cómo estos sistemas empoderan a los trabajadores, añadiendo valor a la empresa, especialmente a través de tres líneas de actuación: automatizando procesos demasiado complejos para la tecnología antigua, identificando tendencias en los datos históricos para crear valor de negocio y aportando inteligencia de previsión para apoyar la toma de decisiones humana.

La inteligencia artificial nos ayudará a responder a la gran pregunta sobre los datos

Muchas empresas todavía están esperando el retorno de las inversiones realizadas en big data, puesto que se han tenido que enfrentar con una curva de aprendizaje demasiado “empinada”, con herramientas de explotación todavía poco desarrolladas y con la necesidad de realizar importantes cambios organizativos. La inteligencia artificial es la tecnología que necesitan para optimizar la explotación de las grandes masas de datos, pues aporta, ente otras cosas, métodos más fáciles para la minería de datos poco estructurados, como pueden ser el procesado del lenguaje natural y la clasificación y el indexado de texto, o el aprendizaje de las máquinas (machine learning) y la gestión automatizada de los datos.

Serán los especialistas de cada campo y no los programadores los que dirijan la evolución de la inteligencia artificial

La inteligencia artificial poco a poco irá penetrando en todos los campos, desde el análisis financiero al cuidado de la salud, pero no se puede esperar que los informáticos y programadores entiendan en profundidad de cada área en la que se aplica. Por ejemplo, si el objetivo es diseñar un algoritmo que pueda predecir el comportamiento del mercado de divisas, necesitaremos los conocimientos de un experto financiero para llevarlo a cabo, no bastan los conocimientos de programación. Los tecnólogos necesitarán de expertos en cada caso que les ayuden a diseñar los sistemas y a probar su eficiencia.

Los ciberataques serán más poderosos con la inteligencia artificial, pero también lo serán las defensas

El hacking es uno de los primeros campos en los que la inteligencia artificial ha demostrado su utilidad. Aporta la capacidad para automatizar los ataques a servidores o la infección simultáneamente de millones de ordenadores. Sin embargo, la misma tecnología que sirve para hacer daño es útil también para proteger: ofrece la capacidad de analizar en tiempo real millones de datos identificando prematuramente vulnerabilidades de los sistemas, riesgos y amenazas.

Debe convertirse en prioridad el abrir la caja negra de la inteligencia artificial

Uno de los problemas del importante avance tecnológico de la inteligencia artificial actual es que, al aprender de forma autónoma, en numerosas ocasiones los humanos no sabemos por qué los algoritmos toman determinadas decisiones o en qué razonamiento basan un diagnóstico. Este fenómeno a menudo compara la inteligencia artificial con una caja negra que no sabemos qué contiene. El no comprender a fondo cómo funciona una determinada máquina puede llevar a que está tenga un funcionamiento no deseado o a que genere efectos colaterales no previstos por sus programadores. El informe de PwC convierte en una prioridad a corto plazo el poder comprender a la perfección cómo funcionan los algoritmos de inteligencia artificial, sin dejar “ángulos muertos”.

Las naciones competirán por la inteligencia artificial

El valor generado por la inteligencia artificial se calcula en casi 16 billones de dólares en 2030 y, como es lógico, todos los países se están posicionando en el tablero internacional para sacar la mayor tajada de esta gran esperanza tecnológica. Aunque el actual equipo de gobierno de Estados Unidos ha frenado las inversiones en inteligencia artificial, otros países están intentando no perder el ritmo marcado por China, que considera el desarrollo y la aplicación de esta tecnología como una prioridad estratégica nacional. De esta forma, países como Reino Unido, Canadá, Japón, Alemania y Emiratos Árabes Unidos están desplegando planes en este campo para no quedar atrás.

La presión para garantizar un uso responsable de la inteligencia artificial no se centrará únicamente sobre las empresas tecnológicas

Existe un miedo generalizado acerca de los peligros de hacer un mal uso de una herramienta tan potente como la inteligencia artificial. Su esperado carácter disruptivo crea desasosiego e incertidumbre, tanto entre las empresas como en los poderes públicos y ciudadanos. Es por ello que están alzándose voces en defensa de maximizar los beneficios que la inteligencia artificial puede traer a la humanidad y a la vez minimizar los riesgos. Instituciones y organismos como Center for the Fourth Industrial Revolution, Institute of Electrical and Electronics Engineers (IEEE), AI Now, The Partnership on AI, Future of Life, AI for Good o DeepMind. Todas ellas abogan por la transparencia, el control y el desarrollo de un marco normativo.

martes, 13 de marzo de 2018

Frankenstein como reflexión para la ciencia y la tecnología actuales

El 1 de enero de 2018 se cumplió el bicentenario de la publicación de Frankenstein o el moderno Prometeo de Mary Shelley, una de las grandes novelas góticas del siglo XIX y un icono clásico del género de la ciencia ficción. El libro tiene su origen en una reunión que celebraron la autora y su marido, el poeta Percy Bysshe Shelley, con el amigo de ambos Lord Byron, en la Villa Diodati, su residencia en Suiza. Lo que empezó como un juego o un reto entre amigos -a ver quién compone la mejor novela de terror- desembocó en uno de los mejores relatos de la literatura fantástica de todos los tiempos.

Frankenstein, aparte de sus virtudes literarias, constituyen una seria reflexión sobre los límites de la ciencia y del desarrollo científico.  La trama es harto conocida: un científico, Victor Frankenstein, construye un ser humano con partes de cadáveres y consigue insuflarle vida. El ser creado tiene un aspecto monstruoso y es rechazado por las personas con las que coincide, por lo que desarrolla un odio hacia el ser humano en general y hacia su creador en particular. De esta forma, se dedica a perseguir a Victor Frankenstein y a asesinar a sus seres queridos.

Para conmemorar los 200 años de la obra y como una forma de reivindicar su vigencia actual, la Universidad Estatal de Arizona ha lanzado una edición de la novela anotada para científicos, ingenieros y creadores de todo tipo. El volumen reproduce el texto completo de Shelley con comentarios de científicos y personal académico de distintos centros de enseñanza superior, que puntualizan o reflexionan sobre distintos aspectos. Adicionalmente, los responsables de la edición han incluido una serie de ensayos en los que varios expertos realizan aproximaciones a la obra que arrojan conclusiones relevantes sobre la investigación y el desarrollo científico y tecnológico. Conviene detenerse un poco en estos textos.

La investigadora Josephine Johnston centra su aportación a la obra en la responsabilidad que debe asumir el científico y el tecnólogo, algo que a su juicio Victor Frankenstein desatiende. Se trata de una responsabilidad ante la sociedad, por los efectos que puede tener tu creación científica, y también una responsabilidad ante lo creado, en este caso, ante el monstruo. Ambos aspectos son extraordinariamente actuales, el segundo en concreto en relación con los avances de la biotecnología y de la inteligencia artificial como áreas “creadoras”

Por otra parte, la escritora de ciencia ficción Cory Doctorow en su ensayo titulado He creado un monstruo (y tú también puedes hacerlo) saca de la obra la conclusión de que, aunque los avances tecnológicos suelen ser el resultado de las decisiones individuales, el cómo se utilizan se convierte en una decisión colectiva. Pone de ejemplo Facebook, fruto de una decisión individual de su creador, pero cuya popularidad procede del uso masivo en todo el mundo, de la decisión colectiva de utilizar esa y no otras redes sociales precedentes que fracasaron.

Jane Maienschein y Kate Maccord se preguntan sobre si la criatura de Frankenstein es o no un ser humano, o lo que es lo mismo, por qué es considerado como un monstruo en la novela. Para ellas, lo monstruoso del ser no es su apariencia física, por desagradable que pueda ser, ni sus actos violentos, generados por el rechazo social, sino el hecho de que no ha experimentado un proceso de desarrollo para ser como es, que, a juicio de las autoras, es lo que define la naturaleza humana.

La cuestión sobre si Victor Frankenstein es un científico o un alquimista centra la reflexión del profesor de filosofía Alfred Nordmann. A modo de ver, el proceder del creador del monstruo está más próximo a la magia y la superstición que a la ciencia moderna. El científico estudia la naturaleza de forma objetiva y desapasionada, mientras que Victor acomete su trabajo investigador con “una ansiedad que casi se convierte en agonía”.

El texto de Elizabeth Bear Frankenstein Reframed or the Problem with Prometheus estudia los que ella identifica como fallos en la personalidad de Victor Frankenstein, que llevan al desencadenamiento de la tragedia en la historia: la falta de empatía y el narcisismo, esto último muy asociado al pensamiento científico de la Ilustración (lo humano por encima de cualquier otra cosa).

Anne K. Mellor de la Universidad de California se aproxima a la obra de Shelley desde el punto de vista del género. ¿Habría cambiado algo la relación con su creación si Frankenstein hubiese sido mujer en vez de hombre? ¿Crear un ser vivo sin madre no es alterar las leyes básicas de la naturaleza? ¿Qué implicaciones morales y éticas debería tener en consideración la genética moderna y la biotecnología?

Finalmente, Heather Douglas de la Universidad de Waterloo compara la novela Frankenstein con el desarrollo de la bomba atómica. Según su teoría, existe una dulzura técnica en la investigación científica cuando aparece la solución a un problema y todas las piezas encajan. Lo peligroso es que, como en el caso del proyecto Manhattan, la satisfacción que produce el haber salvado un obstáculo importante y haber alcanzado el objetivo último de la investigación, impide que los científicos tengan la perspectiva suficiente para darse cuenta de que probablemente acabar el proyecto no era deseable, ya sea dar vida al monstruo de Frankenstein o el desarrollo de un arma nuclear.

lunes, 5 de marzo de 2018

¿Por qué no despega la realidad virtual?


A pesar de que la realidad virtual es la eterna candidata a producir el próximo salto tecnológico que transforme el modo en que hacemos muchas cosas cotidianas, lo cierto es que no acaba de despegar. De hecho, lleva un par de años desplazada en los medios y foros techies por otros fenómenos punteros como blockchain o la inteligencia artificial.


Mark Zuckerberg compró la plataforma de realidad virtual Oculus en 2014 con el fin de introducir esta tecnología en Facebook, pero el año pasado tuvo que reconocer que integrarla es mucho más complejo de lo que parecía inicialmente y que quizá tenga que invertir más dinero para alcanzar los objetivos que se había fijado.

De acuerdo con Digi-capital, el mercado mundial de realidad virtual en 2016 alcanzó tan solo una cifra de 2.700 millones, frente a unas previsiones iniciales de 3.800 millones.  Otra fuente, SuperData, reduce incluso dicha cifra situándola en 1.800 millones. ¿Qué puede estar retrasando la llegada de los mundos virtuales?

El principal problema al que se enfrenta esta tecnología es que carece por el momento de una masa crítica de usuarios que tire del desarrollo del sector. Sin embargo, el caso Pokémon Go en el verano 2016 demostró la capacidad que puede tener una aplicación de realidad aumentada para mover a millones de personas en todo el mundo y generar ingresos, en este caso, 600 millones de dólares en noventa días.

El Libro blanco del desarrollo español de videojuegos 2017 destaca como un obstáculo para el despegue de la realidad virtual el elevado precio que tienen los equipos en la actualidad. Los autores abogan por el smartphone como el terminal idóneo para los videojuegos en VR. A fin de cuentas, todo el mundo dispone de uno y tienen ciclos cortos de reemplazo.

Un estudio realizado por Ericsson apunta otra batería de factores limitadores de su desarrollo. Desde el punto de vista técnico, los cascos actuales de realidad virtual son voluminosos e incomodos de utilizar. Además, no permiten ver por dónde vas y tienen una batería muy limitada, por lo que solamente se pueden utilizar en el hogar.

Por otro lado, un porcentaje de los usuarios de aplicaciones relacionadas con mundos virtuales sufre náuseas y mareos, lo que convierte la experiencia en una pesadilla. El sector debe estudiar formas de acostumbrar al cuerpo humano a asimilar esta nueva percepción digital.

Finalmente, se apunta la elevada latencia de las redes de comunicaciones actuales –el retardo que se produce en la transmisión de información- como un freno al óptimo funcionamiento de los dispositivos. En este sentido, hay una creencia generalizada de que las redes móviles de siguiente generación, el 5G, impulsarán decididamente el uso de realidad virtual y aumentada, pues aportará redes estables y de gran ancho de banda para mejorar la experiencia en los mundos virtuales.

Puede que sea más tarde de lo que pensamos, pero la llegada de la realidad virtual llegará para cambiar nuestras vidas. Bienvenidos a los universos digitales paralelos.
 
Google Analytics Alternative