6 cosas que aprendí sobre Edge Computing en cinco años de Azion
06/06/2023
Por Rogerio Mariano, Interconnection, Edge & Submarine Cable | Global Head Azion
Miré a mi alrededor y me di cuenta que hace cinco años que me convertí en Director de Network Planning, una empresa startup de Edge Computing con la misión de impulsionar la economía hiperconectada, facilitando la creación y la ejecución de aplicaciones modernas en todo el mundo.
Esa empresa es Azion. El inicio de mi historia con Azion fue marcado por el aprendizaje (y sigo aprendiendo todos los días), visión, planificación y avance, construyendo POPs y remodelando la interconexión. Tengo una suerte inmensa de estar rodeado por un equipe de personas excepcionales y de altísimo nivel dentro de la empresa. En Azion, aprendemos que tenemos la verdadera oportunidad para ayudar a moldear el futuro de la infraestructura Edge y desempeñar un rol modesto, pero significativo en la habilitación de los aplicativos, que son de hecho una soberanía tecnológica nacional. En los últimos 25 años, vivencié la transición del ATM, Token-Ring y del FDDI para Ethernet (un salve para quien operó un Cisco WS-C8510 o un General DataComm), vi como el MPLS Foro nació y me encantó trabajar diseñando, implementando y operando backbones inner-core y outer-core, leí libros de Sam Halabi, vi empresas como la Nortel y la Bay Networks desaparecer, vi la evolución de las redes fotónicas y submarinas (¿escucharon hablar de SDM?), el mercado de Cloud madurar, y créanme, el cambio para el Edge es una de las transiciones más relevantes que he visto en el sector tecnológico de los últimos tiempos.
A media que el 2023 avanza, me gustaría compartir seis aprendizajes de mis casi cinco años en Azion, una visión personal que va desde la evolución de las aplicaciones de computación Edge hasta su impacto en la infraestructura digital subyacente.
Aprendizaje 1: El Edge creó un nuevo modelo de interconexión.
En los últimos años hemos visto un cambio en los modelos de interconexión tradicionales para modelos que atienden más a los servicios y aplicaciones en el borde. De manera general, el mercado global se habituó a cuatro modelos de interconexión:
1) ON-NET (servidores en una red “eyeball, en general de servicio broadband donde se encuentran los usuarios.
2) Conexiones de PNI (Private Network Interconnect) que son conexiones entre redes privadas directamente.
3) IXPs (Internet Exchange Points), o PTTs (Puntos de Intercambio de Tráfico) como se conocen aquí en Brasil.
4) IP Transit que es um servicio en el cual un Proveedor de Servicios de Internet (ISP) permite que el tráfico fluya por la red hasta el destino final.
Sin embargo, la llegada del Edge (y Edge Computing) contribuyó para que el acceso al usuario final, y, consecuentemente más y más contenido, lleguen en ON-NET y por PNIs en detrimento de conexiones en IXPs/PTTs. El tráfego en IXPs crecerá más lentamente que el resto de Internet, pero los IXPs permanecerán como una parte importante del ecosistema para:
a) Conexiones de long-tail (ejemplo, aquel ISP del interior de Mato Grosso que se conecta a una matriz de tráfico de un IXP/PTT en São Paulo).
b) Volúmenes bajos de tráfico.
Un hecho importante es que hoy estamos en el medio de este cambio de proceso de interconexión y vemos la mayor parte del tráfico “Cloud para Cloud” y “Cloud para Edge” en redes privadas y no a través de la Internet pública, lo que genera una nueva estructura y arquitectura de interconexión, en donde hay:
Propietario del Contenido Conteúdo -> Cloud On-ramp -> Cloud-Edge -> PNI -> Edge -> PNI -> ON-NET
Con esa nueva estructura de interconexión, la mayoría de esas conexiones será privada y no pasará por la Internet pública. La Internet pública no dejará de existir, pero el mayor volumen de tráfico será por redes privadas. Entonces, nos quedan algunas preguntas en el tintero, como por ejemplo:
¿La competición IXP/PTT y redes privadas es siempre buena o puede también conducir a la fragmentación del mercado? ¿Cuál es la propuesta de valor de un IXP/PTT en el futuro si el volumen de tráfico permanece en redes privadas?
La respuesta es simple: Los IXPs/PTTs precisan moverse para el Edge y de hecho ya lo están haciendo.
Hoy en Brasil tenemos 35 puntos del IX.br y algunos IXPs más privados que se están desparramando por el país. Entonces vemos que cada nudo de esta infraestructura de borde, ya sea un dispositivo de usuario final, una instalación técnica específica, un data center corporativo, un data center de colocation o mismo un data center webscale, representa un local donde las cargas de trabajo pueden residir. La interconexión y redes de fibra óptica, FWA (%G) obviamente desempeñan un papel crítico en la conexión de todos los nudos en alta velocidad, permitiendo, de esta manera, que los desarrolladores optimicen las arquitecturas de aplicaciones.
Desde el punto de vista del data center, a medida que la arquitectura del Edge madura, estamos viendo el surgimiento de dos categorías principales de instalaciones de colocation que completan los espacios entre el Core y los usuarios finales: Puntos de agregación y puntos de proximidad. Los primeros son grandes sites usados para agregar cargas de trabajo y distribuir el flujo de tráfico de datos, mientras que los segundos dan un primer punto de confiabilidad próximo a los usuarios finales.
Los puntos de agregación tienden a aparecer naturalmente en locales donde el tráfico se intercambia o en donde gran cantidad de datos se almacenan y facilitan la conexión a Edge nodes, que son más específicos de la aplicación y seleccionados de forma ad hoc, en relación a su proximidad con los usuarios finales y acceso a la red, tanto acceso local a los usuarios finales como conectividad backhaul para el resto de una plataforma de Edge Computing, como la Azion, por ejemplo.
Aprendizaje 2: Edge computing no es algo nuevo, pero las aplicaciones siguen evolucionando (¡y mucho!)
La necesidad de almacenar y procesar datos cerca del local en donde se generan y se consumen no es novedad. Sin embargo, los requisitos de tiempo real de algunas aplicaciones, el aumento exponencial en el volumen absoluto de datos en proceso y el costo asociado para moverlos en las redes, están moldeando un cambio de paradigma arquitectónico en dirección a un proceso de datos más distribuido.
En este contexto, somos testigos de tendencias antiguas que están aumentando la demanda por Edge computing y los requisitos asociados a la infraestructura digital subyacente:
Las aplicaciones están aprovechando más entradas sensoriales y recolectando datos con resolución y tasas de muestra muy altas, lo que aumenta exponencialmente la generación de datos y la necesidad de almacenamiento y computación locales.
Las aplicaciones se ha hecho más inteligentes en algunos casos, la IA (Inteligencia Artificial) requiere mayor poder de procesamiento próximo al local en donde los datos se generan o se consumen.
El surgimiento de nuevas aplicaciones, como IoT, realidad virtual y realidad aumentada, o nuevas tecnologías facilitadoras, como FWA (y toda la estructura del 5G), Wi-Fi6 o incluso las nuevas tecnologías satelitales de baja órbita, crean constantemente más casos de uso (por ejemplo, ciudades inteligentes) que empujan los requisitos técnicos hacia la infraestructura que está cerca del usuario final.
En algunos casos de uso (por ejemplo, juegos online y telemedicina), el poder de procesamiento progresivo se distribuye a lo largo de las redes de conectividad, cerca de donde la aplicación se consume, pero no en el mismo dispositivo del usuario final. Eso reduce los costos de conectividad y mejora la latencia y el desempeño de aplicaciones con uso intensivo de datos.
Aprendizaje 3: La definición de Edge puede variar en cada caso de uso. En su sentido completo, Edge Computing trata de la implementación de la capacidad de computación próxima a los usuarios finales, y el Edge es el local en donde puedes implementar ese poder de procesamiento.
!Edge no es algo abstracto! Consecuentemente, la ubicación del Edge, así como su finalidad, siempre serán una función de las aplicaciones que lo utilizan.
Visto que cada aplicación tiene una arquitectura diferente entre sí, así como un conjunto diferente de requisitos en la infraestructura digital subyacente, la forma como el Edge se define permanece bastante subjetiva y, es poco probable que converja hacia una definición estándar. Hubo un debate sobre ese tema desde que apareció el concepto de “Fog Computing” o incluso antes, hace muchos años, sobre qué significaba exactamente Cloud, pero una definición, surgió desde ese entonces, ya que la tecnología se implementó por Cloud Providers de manera relativamente uniforme.
Hoy, las arquitecturas de computación en Cloud ampliamente más adoptadas, convergirán para abarcar elementos bien definidos, como zonas de disponibilidad y nudos de acceso.
El Edge tendrá, probablemente, una evolución más diversificada que el Cloud, porque cada caso de uso tiene una arquitectura diferente, lo que hace menos probable el surgimiento de un abordaje uniforme para el posicionamiento de carga de trabajo. Como resultado, habrá quienes crean que la infraestructura de borde permanecerá más ad hoc de lo que la infraestructura de Cloud es hoy en día.
En particular, la ubicación de las implementaciones del Edge va a variar, con muchas aplicaciones que se implementan en dispositivos finales, algunos en instalaciones técnicas específicas, como torres, fábricas, plataformas de petróleo, y otras en data centers o incluso en CLSs (Cable Landing Stations).
Aprendizaje 4: Edge Computing y Cloud están convergiendo e integrándose. Cuando el Edge empezó a “tener éxito”, lo posicionaron como una alternativa para “Cloud”.
Hoy, la computación de borde está madura y ampliamente adoptada, queda cada vez más claro que esas dos tendencias se complementan. La migración de aplicaciones para la nube pública está bien encaminada para aplicaciones que pueden implementarse en un lugar centralizado. Los Cloud Providers en ese momento están pensando en expandir el modelo hacia aplicaciones más distribuidas o crear un nuevo modelo basado en zonas locales y hecho a la medida para Edge computing, pero con propiedades semejantes al existente.
Eso complementa un movimiento paralelo para distribuir aún más los nudos de red de web-scale para recursos, como el acceso a Cloud y/o agregación/distribución de tráfico, generalmente llamados de “tail” en más y más centros de datos neutros para operadores más próximos al usuario final. Un movimiento parecido con lo que Google (con su GGC), Meta (con su MNA) y Netflix (con su OCA) hicieron desde 2013 con sus sistemas de Edge-CDN, ya que, el comportamiento del streaming sea VoD (SVOD, TVOD, AVOD, PVOD) o Canal Lineal es análogo al Edge.
En respuesta a esa tendencia de distribución geográfica de la capacidad de computación y nudos de red, vemos un impulso continuo y significativo de los Cloud Providers dirigidos a locales más descentralizados. Ese movimiento se conoce en el mercado como “Cloud Out”.
Recientemente, también surgió un movimiento complementario, conocido como “Edge In”, en el cual muchas aplicaciones que antes estaban con los usuarios finales (en instalaciones del cliente o en los dispositivos finales), están migrando para data centers de terceros que son capaces de ofrecer más disponibilidad y resiliencia, en algunos casos, acceso a Cloud Pública, pero aún se ubican cerca de los usuarios finales.
Esos dos movimientos están convergiendo rápidamente y se encuentran en el medio, formando lo que algunos llaman de “Core-Edge Architecture”. Eso crea una capa distribuida de infraestructura digital que actúa como una malla de conexión entre el Core y los usuarios finales.
Aprendizaje 5: Edge y sustentabilidad (ESG) tienen mucho en común. A medida que la tecnología crea una demanda creciente por capacidad en más localidades, hay una oportunidad de repensar fundamentalmente como los data centers se encajan en el resto del ambiente.
Llevar el poder de computación/procesamiento más cerca de donde los datos se están generando, tiene el potencial de ayudar a mejorar las características de sustentabilidad. Mientras data centers lucha a gran escala para usar su calor residual, hay más consumidores en potencial para el calor producido localmente, altamente distribuido y de alta calidad en el Edge.
Centros de datos de borde relativamente pequeños con los locales ideales para implementar el almacenamiento de energía a gran escala, lo que alimentará el desarrollo de generación renovable adicional.
Al mismo tiempo, los requisitos de soberanía de datos desempeñan un papel en la conducción de un almacenamiento y procesamiento de datos más distribuidos. Los reglamentos de privacidad de datos (LGPD, GDPR, etc.) cada vez más rigurosos, así como la protección al consumidor, exigen que los datos sean almacenados y procesados dentro de las fronteras de un país o a nivel local mismo.
Al contrario de otras regiones del planeta, la fragmentación geográfica de América Latina y de Brasil implica inherentemente una infraestructura digital mucho más distribuida, con más énfasis en las implementaciones nacionales y regionales.
Aprendizaje 6: los requisitos del Edge están dictando la próxima leva de infraestructura digital.
El ascenso de la computación de borde pone a un nuevo conjunto de requisitos en una infraestructura digital global, que fue originalmente desarrollada para concentrarse en permitir la conectividad (ya sea de larga distancia como de última milla) para empresas y consumidores, y, subsecuentemente, evolucionó para concentrarse en abarcar gran capacidad de computación en centros de datos cada vez mayores, que se transformarán en la base de una economía digital globalmente interconectada.
El punto fundamental para ese nuevo punto de inflexión es cómo el posicionamiento de la carga de trabajo está moldeando la infraestructura de borde, con diferentes cargas de trabajo, implementándose en locales muy diversos en el borde de la red con base en la arquitectura de la aplicación.
Como dije antes, somos testigos del surgimiento de una camada distribuida de infraestructura digital que actúa como un tejido conector entre el Core y los usuarios finales, con diferentes aplicaciones que se implementan en diferentes nudos a lo largo de ese espectro, dependiendo de la latencia, desempeño, confiabilidad, tamaño y requisitos de soberanía de datos.Al procesarse los datos en el Edge, la infraestructura se hace más ágil y centrada en negocios. Además, mejora la eficiencia en la distribución de ingresos de recursos, simplificando y reduciendo el costo de gerenciamiento de la infraestructura de TIC, y, aprovechando varios otros beneficios que son inherentes a esa estructura, como ser:
latencia ultrabaja;
altísima resiliencia;
compliance localizada
inteligencia distribuida;
mayor perímetro de seguridad.
Existe una complejidad muy grande en la implementación de una infraestructura altamente distribuida y en la adopción de un modelo replicable y sustentable, especialmente en un ambiente macroeconómico desafiante, marcado por presiones inflacionarias y complejidades de la cadena de suministros globales, sin embargo, las redes de Edge Computing seguirán avanzando y moldeando la nueva leva de la infraestructura digital.
Para finalizar, les recomiendo la lectura del blog de la Azion y de la LF Edge, para quienes deseen aprender más sobre Edge Computing.
https://www.azion.com/pt-br/blog
Las opiniones expresadas por los autores de este blog son propias y no necesariamente reflejan las opiniones de LACNIC.