Sinergia entre transporte y procesamiento, la evolución del Edge

Escribe el Ing. Marcelo E. Volpi, director de la Unidad de Negocios de Telecomunicaciones de Grupo DATCO

El crecimiento exponencial del tráfico de datos, la necesidad del manejo en tiempo real de esos datos, la explosión del Big Data y la necesidad de más dispositivos conectados están generando una revolución en las arquitecturas actuales, empujando la tecnología a nuevos horizontes por descubrir.

Partiendo de ciertas tendencias en la información, por ejemplo, que en un horizonte cercano el 80% del tráfico de Internet será video, sumado al hecho de que el volumen de datos generados se duplica aproximadamente cada 12 meses -incrementado por el advenimiento cada vez más fuerte del Internet de las Cosas (IoT)-, todo esto lleva a un interrogante irrefutable: ¿el modelo de transporte y procesamiento de datos tradicionales podrá con esta tarea?

Un primer punto a considerar es la conectividad de las redes. Resulta crucial entender una parte importante del escenario que es el transporte de datos. Solo por citar un ejemplo: desde Argentina al nodo de borde de una red IP en USA el roundtrip es de aproximadamente 130 milisegundos vía fibra óptica submarina. Este tipo de latencia no sería aceptable para procesos que demandan una respuesta en tiempo real.

Un segundo punto a considerar es el procesamiento de datos. Los datacenters pueden ayudarnos parcialmente en la tarea, el modelo de Cloud (híbrido o público) puede satisfacer el procesamiento de aplicaciones o sistemas clásicos, pero no podrá dar abasto para satisfacer necesidades de procesamiento y almacenamiento para aplicaciones en tiempo real, como requieren muchas de las tareas relacionadas con el Internet de las Cosas (Analytics) o el procesamiento de video.

El modelo Edge en cierta manera podría cubrir parte de esta necesidad. Las redes modernas precisarán tener la capacidad de dirimir acciones mucho más rápido, con latencias sensiblemente inferiores. Como en algún momento las redes IP pasaron del modelo Best Effort a un modelo de QoS, hoy la necesidad de poder ejecutar aplicaciones en “tiempo real” obliga a las redes a tener la capilaridad de procesamiento necesaria para satisfacer esta demanda.

En este escenario Edge Computing puede aportar la tecnología para la resolución en tiempo real, permitiendo resolver el cómputo mucho más cerca del usuario que genera la petición o información, generando en los bordes de las redes locales capacidades potentes en términos de manejo de este gran aluvión de datos, y aportando mayor eficiencia al proceso. Un ejemplo que podría aplicar este concepto en el mundo de las “Smart Cities” es el relacionado al manejo de un control inteligente de cámaras viales.

No haría falta transmitir imágenes en tiempo real, sólo una ráfaga de datos producto de la pseudo analítica en sitio que procese esas imágenes y obtenga simplemente los datos útiles a transmitir, mejorando de esta manera el flujo de información.

Como conclusión, el “Multi-access Edge Computing” (MEC) ofrece las capacidades del Cloud Computing sobre los bordes de la red. Este ecosistema se caracteriza por tener una muy baja latencia, alta capacidades de ancho de banda y acceso a infraestructuras de red en tiempo real apalancado desde el punto de vista de las aplicaciones a correr abriendo el paradigma clásico a nuevos horizontes como “analíticas de video”, “realidad aumentada”, “data caching”, entre otros.

A mediano plazo la diferenciación en las telecomunicaciones vendrá, sin duda, de la mano del desarrollo de “MEC”, que generará nuevas líneas de revenue para operadores y prestadores, dando mayor valor agregado a una industria que se fue comoditizando en los últimos años.

(*) Marcelo E. Volpi: Director de la Unidad de Negocios de Telecomunicaciones de Grupo DATCO