El
internet de las cosas establece una conexión entre dispositivos, plataformas,
acciones y personas. Cuando pensamos en esta tecnología, la primera asociación
que nos viene a la cabeza es la de la industria: fábricas y plantas de montaje
completamente automatizadas, en las que todas las fases de la cadena de
producción cuentan con dispositivos que recogen información para monitorizar
todo el proceso.
Sin
embargo, los sensores en red tienen muchas más aplicaciones, muchas de ellas
que pueden afectar a nuestra vida cotidiana. Por poner unos pocos ejemplos, en
el campo de la salud, existe un casco conectado para hacer el seguimiento de
enfermos de Alzheimer y recibir un aviso en el caso de que se produzca algún
percance. En la misma línea, unas suelas de zapato inteligentes sirven para la
localización de personas mayores. Finalmente, en el ámbito de los animales de
compañía, la aplicación Dogsens aprovecha la conectividad IoT para controlar el
estado y la actividad de las mascotas, transmitiendo la información al teléfono
móvil del dueño en tiempo real.
El
IoT tradicional parte
de la base de que los sensores y dispositivos de los extremos de la red son
elementos pasivos, es
decir, que su función se limita a recoger información y mandarla a la nube, a
centros de datos donde es procesada, analizada y utilizada para tomar
decisiones. Sería el caso, por ejemplo, de los sensores para medir la calidad
del aire desplegados por una ciudad, que envían sus registros a un centro de
control donde se activan las alertas cuando los niveles de contaminación
superan los límites establecidos.
Frente
a esa arquitectura centralista, ahora aparece el Edge Computing, cuya filosofía se basa en dotar de
inteligencia a los sensores y dispositivos de recogida de información, para que
esos datos sean procesados más cerca de donde se crearon, en lugar de enviarlos
a través de largos recorridos hasta los centros de datos y nubes de
computación.
El
Cloud Computing ha
supuesto liberar progresivamente a los terminales de la necesidad de tener una
capacidad de procesado cada vez mayor, pues este se realiza en la nube. Los
años 80 y 90 conocieron el boom
de los ordenadores personales, en los que todo el hardware necesario para ejecutar programas y
aplicaciones estaba en poder del usuario. A medida que el software se hacía más complejo, necesitábamos máquinas cada vez más
potentes. No hay más que recordar -los que vivieron aquella época- la larga
procesión de microprocesadores de Intel que se iban sucediendo, a cuál más
poderoso: 286, 386, 486, Pentium…
Hoy
en día, en cambio nuestros terminales –ya sean ordenadores, tabletas, móviles o
consolas- hacen uso en gran medida de servicios que están centralizados en la
red. Pensemos, por ejemplo, en el correo electrónico, como Gmail de Google, en
plataformas para almacenar información, como Dropbox, o en Office 365, la
versión online de la popular suite
ofimática de Microsoft. Por supuesto, servicios todavía más avanzados, como los
asistentes personales o la TV por internet, reciben sus contenidos y la
inteligencia artificial que los hace funcionar desde la nube.
Sin
embargo, se trata de un modelo que presenta limitaciones. Por una parte, la
información tiene que recorrer enormes distancias de cientos y de miles de
kilómetros desde los dispositivos hasta el centro de datos. Por otra, cuanta
más distancia, mayor es el número de redes que deben recorrer los datos y mayor
es la probabilidad de que sufran retrasos por el tráfico. En telecomunicaciones
estos retardos que producen las redes se denominan latencia.
En
la comunicación entre objetos, la latencia se convierte en un factor crítico.
Sin una latencia ultrabaja será imposible mover los volúmenes de datos que
produzcan los miles de millones de objetos que constituyen el internet de las
cosas. Para hacernos una idea de la importancia de esto con un ejemplo, en un
coche autónomo un retraso en la transmisión de información puede implicar
frenar demasiado tarde y que tenga lugar un accidente con consecuencias
fatales.
El Edge Computing supone llevar las
capacidades de computación desde el centro de la red –los centros de datos- a
los bordes –los dispositivos que recogen la información-, con el fin de mejorar
el funcionamiento del sistema, de bajar los costes y de asegurar una mayor
fiabilidad de las aplicaciones y los servicios que soporta.
El
cómputo en el borde contribuye a reducir la distancia entre los recursos de red
y los dispositivos, mitigando de esta manera las limitaciones que se presentan
en la actualidad relacionadas con la latencia y el ancho de banda. Parte del
trabajo inteligente
que antes realizaban los centros de computación recae ahora sobre los sensores
y objetos en los extremos de la red, cuya tarea ya no se limitará solamente a
recoger y enviar datos.
Los
dispositivos en el borde pueden ser cualquier objeto del internet de las cosas,
desde un coche autónomo, a un sensor medioambiental, una cámara de seguridad o
un semáforo. Algunos de ellos estarán en exclusiva dedicados a recoger y enviar
flujos de datos a la red, pero otros se convertirán en pasarelas especializadas
para agregar y analizar datos e incluso para realizar alguna función de control
de los mismos. Finalmente, existirán dispositivos que podrán convertirse en
nodos programables de la red, capaces de ejecutar aplicaciones más complejas. La
cercanía de estos dispositivos al usuario final los convierte en idóneos para
realizar tareas que requieren una latencia cercana a cero, pero no una
capacidad de procesar compleja. Acciones como el frenado en coches autónomos,
por ejemplo.
No hay comentarios:
Publicar un comentario
Comenta lo que quieras