Moviendo la nube al borde

Escribe Hector Silva, Director de Tecnología para CALA de Ciena

Pensando en hace 15 o 20 años, nuestro mundo se veía muy diferente. Para encontrar una ruta entre el punto A y el punto B, necesitábamos un atlas o un mapa y para pedir comida a domicilio teníamos que llamar al restaurante. Actualmente, la ruta más eficiente para atravesar el tráfico de Bogotá o Ciudad de México se planea utilizando Waze o Google Maps y la entrega de comida a domicilio se hace a través de servicios como Rappi con sólo presionar un botón. Esto es una prueba de la transición gradual hacia la automatización de las aplicaciones, una tendencia que continuará en aumento, pero con complejidades adicionales – y los operadores están empezando a notarlo. Un informe reciente de Arizton reveló que las inversiones en centros de datos en América Latina crecerán en un promedio del 6 por ciento anual, impulsadas al menos, en parte, por un aumento en el desarrollo de los centros de datos en el borde.

En la coyuntura contemporánea, la actual arquitectura de red de nube centralizada no se encuentra adecuadamente equipada para la próxima generación de aplicaciones sensibles a la latencia, las cuales automatizarán más de nuestras vidas personales y profesionales. Para que aplicaciones como vehículos autónomos, realidad alternativa/virtual, juegos en línea o internet de las cosas (IoT) industrial – ya en sus etapas iniciales en América Latina – funcionen como deberían y a gran escala, los datos de la nube se deben procesar más cerca del usuario final para reducir la latencia. Este cambio hace necesario que los operadores replanteen sus actuales arquitecturas de nubes y adopten la nube de borde en algunos lugares.

¿Qué es la nube de borde?

El reimaginar las arquitecturas de las nubes lejos de la centralización y hacia el borde no es un concepto complicado. La nube de borde es un ecosistema de nubes intercambiables que abarca el almacenamiento y los activos de computación ubicados en el borde, más cerca de los usuarios finales, e interconectados por una red escalable y optimizada para el uso de aplicaciones (application-aware) que puede percibir y adaptarse a las necesidades cambiantes, de forma segura y en tiempo real. Al procesar los datos más cerca del usuario final, se reduce significativamente la latencia, lo que permite un abanico de servicios y aplicaciones de próxima generación. Esto significa que, físicamente, será necesario construir e interconectar más centros de datos más pequeños para hacer frente a la alta demanda de los usuarios finales, los seres humanos y las máquinas, para que las aplicaciones de próxima generación puedan funcionar como deberían.

Netflix ya emplea procesos similares a este concepto, almacenando los programas más vistos más cerca de los usuarios finales para reducir los tiempos de descarga y mejorar el rendimiento de las retransmisiones en directo. Si un usuario de cierta ciudad quiere ver uno de los programas de mayor demanda de Netflix, lo puede acceder desde su computador comunicándose con un centro de datos cercano, en lugar de que los datos tengan que atravesar países, o incluso continentes, para asegurar un rendimiento óptimo.

Lo inconveniente de la latencia

La mayoría de las arquitecturas de red basadas en la nube siguen estando centralizadas, lo que hace que los datos tengan que viajar una mayor distancia, lo que da lugar a una latencia aceptable para la mayoría de las aplicaciones actuales, pero no para algunas aplicaciones de próxima generación. La latencia es un problema muy común para muchos gamers o usuarios que realizan maratones de Netflix. Hoy en día, esperar un par de segundos a que cargue el juego o la película, o a que se carguen las indicaciones de Google Maps no es el fin del mundo, y no es un determinante ni positivo ni negativo de la experiencia de la gran mayoría de las aplicaciones que utilizamos en la actualidad. Ya sea que los datos se procesen a dos cuadras de distancia o en una nube a cientos de kilómetros de distancia, aún puedes realizar las tareas diarias con una interrupción mínima.

Para las aplicaciones de mañana y las nuevas tecnologías, un par de segundos de procesamiento de datos es indeseable. Los datos se deben procesar en milisegundos. Imagina tener una alta latencia mientras estás en un vehículo autónomo u operando una máquina IoT industrial – el par de segundos de demora podría tener efectos potencialmente desastrosos. Por ejemplo, un vehículo autónomo con una alta latencia al recibir datos provenientes de los sensores de carretera podría complicar la forma en que el vehículo enfrenta las condiciones peligrosas de la carretera, planteando un peligro potencial para los que van dentro del vehículo. Asimismo, un videojuego que utiliza la realidad virtual o alternativa sería difícil de jugar y podría inducir mareos con una latencia excesiva. Imagina halar hacia atrás una palanca de mando en un simulador de vuelo y que la aeronave virtual responda segundos después, o un juego de la FIFA en el que surge una oportunidad de gol, e incluso cuando se presiona frenéticamente el botón de “disparar”, el disparo se produce segundos después y el gol se va a tiro de esquina. En los videojuegos anteriores, la latencia no era un problema, ya que los datos se encontraban en un disco físico que se introducía en el computador o la consola, y los datos se procesaban localmente. En el caso de aplicaciones como los juegos en la nube para reemplazar la consola tradicional, los datos no se pueden procesar lo suficientemente rápido con una arquitectura de nube centralizada y podrían llevar a una jugabilidad inaceptable para los usuarios finales e inconformidad con sus proveedores de servicios, lo que provocaría la pérdida de clientes.

La latencia no se puede eliminar del todo – independientemente de nuestros avances tecnológicos. Todavía estamos sujetos a las leyes de la física, ya que los datos tardarán en ser procesados y en recorrer la distancia física. La clave está en la rapidez y la cercanía con la que se procesan los datos y si ese tiempo es aceptable o no para la aplicación en cuestión. En la medida que los usuarios finales requieren un mejor rendimiento de su red para utilizar este tipo de aplicaciones, los operadores deben mantenerse al día con la creciente demanda y prepararse para la gran cantidad de aplicaciones de próxima generación que requerirán milisegundos de latencia. En el mundo de la computación en nube, esto implica un replanteamiento de la arquitectura centralizada de la nube y de la forma de acercar los datos a los usuarios finales. Aunque aplicaciones como los juegos en la nube no son esenciales ni críticas, son indicativas de que las demandas de los usuarios finales sólo aumentarán a medida que avance el tiempo y la tecnología, y los operadores de redes deben tenerlo en cuenta para mantenerse competitivos y satisfacer las siempre crecientes demandas de los usuarios finales.

(*) Hector Silva: Director de Tecnología para CALA de Ciena


Comentarios

Comparte tu opinión con los lectores