6 coisas que aprendi sobre Edge Computing em cinco anos de Azion

06/06/2023

6 coisas que aprendi sobre Edge Computing em cinco anos de Azion

Por Rogerio Mariano, Interconnection, Edge & Submarine Cable | Global Head Azion

Olhei ao meu redor e me dei conta que há quase cinco anos atrás, havia me tornado Diretor de Network Planning uma empresa startup de Edge Computing com a missão de impulsionar a economia hiperconectada, facilitando a criação e execução de aplicações modernas em todo o mundo.

Essa empresa é a Azion.

O início da minha história com a Azion foi marcado por aprendizado (e continuo aprendendo todos os dias), visão, planejamento e progresso, construindo POPs e remodelando a interconexão (https://www.azion.com/pt-br/produtos/edge-network/). Tenho uma sorte imensa de estar cercado por uma equipe de pessoas excepcionais e de altíssimo nível dentro da empresa. Na Azion, aprendemos que temos a verdadeira chance de ajudar a moldar o futuro da infraestrutura Edge e de desempenhar um papel modesto, mas significativo, na habilitação dos aplicativos que são de fato uma soberania tecnológica nacional. Nos últimos 25 anos, eu vivenciei a transição do ATM, Token-Ring e do FDDI para Ethernet (um salve para quem operou um Cisco WS-C8510 ou um General DataComm), eu vi como o MPLS Fórum nasceu e amei trabalhar desenhando, implementando e operando backbones inner-core e outer-core, eu li os livros do Sam Halabi, eu vi empresas como a Nortel e a Bay Networks morrerem, eu vi a evolução das redes fotônicas e submarinas (já ouviram falar em SDM?) e vi o mercado de Cloud amadurecer, e acreditem, a mudança para o Edge é uma das transições mais relevantes que testemunhei no setor de tecnologia nos últimos tempos.

À medida que 2023 avança, gostaria de compartilhar seis aprendizados de meus quase cinco anos na Azion, uma visão pessoal que vai desde a evolução dos aplicativos de computação Edge até seu impacto na infraestrutura digital subjacente.

Aprendizado 1: O Edge criou um novo modelo de interconexão

Nos últimos anos temos visto uma mudança nos modelos de interconexão tradicionais para modelos que atendam mais os serviços e aplicativos de borda. De uma maneira geral, o mercado global habituou-se com quatro modelos de interconexão:

1) ON-NET (servidores em uma rede “eyeball, no geral de serviço broadband onde estão os usuários).

2) Conexões de PNI (Private Network Interconnect) que são conexões entre redes privadas diretamente.

3) IXPs (Internet Exchange Points), ou PTTs (Pontos de Troca de Tráfego) como são conhecidos aqui no Brasil.

4) IP Transit que é um serviço em que um Provedor de Serviços de Internet (ISP) permite que o tráfego flua pela rede até o destino final.

Porém o advento do Edge (e Edge Computing) tem moldado para que o acesso ao usuário final e consequentemente mais e mais conteúdos acabem em ON-NET e por PNIs em detrimento a conexões em IXPs/PTTs.

O tráfego em IXPs crescerá mais lentamente do que no restante da Internet, mas os IXPs vão permanecer como uma parte importante do ecossistema para:

a) Conexões de long-tail (exemplo, aquele ISP do interior de Mato Grosso que se conecta a uma matriz de trafego de um IXP/PTT em São Paulo).

b) Baixos volumes de tráfego.

Um fato importante é que hoje estamos no meio desta mudança do processo de interconexão, vemos a maior parte do tráfego “Cloud para Cloud” e “Cloud para Edge” em redes privadas e não pela Internet pública, gerando assim uma nova estrutura e arquitetura de interconexão onde temos:

Proprietário do Conteúdo -> Cloud On-ramp -> Cloud-Edge -> PNI -> Edge -> PNI -> ON-NET

Com essa nova estrutura de interconexão, a maioria dessas conexões será privada e não passará pela Internet pública. A Internet pública não deixará de existir, mas o maior volume do tráfego será em redes privadas. Então algumas perguntas que ficaram no ar como por exemplo:

A concorrência IXP/PTT e redes privadas é sempre boa ou também pode levar à fragmentação do mercado? Qual é a proposta de valor de um IXP/PTT no futuro se o volume do tráfego permanecer privado?

A resposta é simples: Os IXPs/PTTs precisam se mover para o Edge! e de fato já estão fazendo.

No Brasil hoje temos 35 pontos do IX.br (https://ix.br/localidades/atuais) e mais alguns IXPs privados que estão se espalhando pelo país. Então vemos que cada node dessa infraestrutura de borda, seja um dispositivo de usuário final, uma instalação técnica específica, um data center corporativo, um data center de colocation ou mesmo um data center web-scale, representa um local onde as cargas de trabalho podem residir. A interconexão e redes de fibra ótica, FWA (5G) obviamente desempenham um papel crítico na conexão de todos esses nodes em alta velocidade, permitindo assim que os desenvolvedores otimizem as arquiteturas de aplicativos.

Do ponto de vista do data center, à medida que a arquitetura do Edge amadurece, estamos vendo o surgimento de duas categorias principais de instalações de colocation que preenchem a lacuna entre o Core e os usuários finais: Pontos de agregação e pontos de proximidade. Os primeiros são grandes sites usados para agregar cargas de trabalho e distribuir o fluxo de tráfego de dados, enquanto os últimos fornecem um primeiro ponto de confiabilidade próximo aos usuários finais.

Os pontos de agregação tendem a surgir naturalmente em locais onde o tráfego é trocado ou grandes quantidades de dados são armazenados e assim facilitam a conexão a Edge nodes que são mais específicos da aplicação e são selecionados de forma ad hoc, em relação à sua proximidade com os usuários finais e acesso à rede tanto acesso local aos usuários finais quanto conectividade backhaul para o resto de uma plataforma de Edge Computing como a Azion, por exemplo.

Aprendizado 2: Edge Computing não é algo novo, mas os aplicativos continuam a evoluir (e muito!)

A necessidade de armazenar e processar dados próximo ao local onde são gerados e consumidos não é uma novidade. No entanto, os requisitos de tempo real de certos aplicativos, o aumento exponencial no volume absoluto de dados sendo processados e o custo associado de movê-los pelas redes estão moldando uma mudança de paradigma arquitetônico em direção a um processamento de dados mais distribuído.

Neste contexto, estamos testemunhando tendências antigas que estão aumentando a demanda por Edge computing e os requisitos associados na infraestrutura digital subjacente:

Os aplicativos estão aproveitando mais entradas sensoriais e coletando dados com resolução e taxas de amostragem muito mais altas, o que aumenta exponencialmente a geração de dados e a necessidade de armazenamento e computação locais.

Os aplicativos estão se tornando mais inteligentes em alguns casos, a IA (Inteligência Artificial) requer mais poder de processamento próximo ao local onde os dados são gerados ou consumidos.

O surgimento de novos aplicativos, como IoT, realidade virtual e realidade aumentada, ou novas tecnologias facilitadoras, como FWA ( e todo arcabouço do 5G), Wi-Fi6 ou até mesmo as novas tecnologias satelitais de baixa orbita criam constantemente mais casos de uso (por exemplo, cidades inteligentes) que empurram os requisitos técnicos para a infraestrutura para perto do usuário final.

Em certos casos de uso (por exemplo, jogos online e telemedicina), o poder de processamento incremental está sendo distribuído ao longo de redes de conectividade, perto de onde o aplicativo é consumido, mas não no próprio dispositivo do usuário final. Isso reduz os custos de conectividade e melhora a latência e o desempenho de aplicativos com uso intensivo de dados.

Aprendizado 3: A definição de Edge pode variar para cada caso de uso.

Em seu sentido completo, Edge Computing trata da implantação da capacidade de computação próxima aos usuários finais, e o Edge é o local onde você implanta esse poder de processamento.

Edge não é algo abstrato! Consequentemente, a localização do Edge e sua finalidade sempre serão uma função dos aplicativos que o utilizam.

Como cada aplicativo tem uma arquitetura diferente entre si, bem como um conjunto diferente de requisitos na infraestrutura digital subjacente, a forma como o Edge é definido permanece bastante subjetiva e, é improvável que tenha convergência para uma definição padrão. Houve um debate sobre isso desde que surgiu o conceito de “Fog Computing” ou antes até, muitos anos atrás sobre o que exatamente significava Cloud, mas uma definição clara surgiu desde então, já que a tecnologia foi implantada por Cloud Providers de maneira relativamente uniforme.

Hoje, as arquiteturas de computação em Cloud mais amplamente adotadas convergiram para abranger elementos bem definidos, como zonas de disponibilidade e nodes de acesso.

O Edge provavelmente terá uma evolução mais diversificada do que Cloud, porque cada caso de uso tem uma arquitetura diferente, o que torna menos provável o surgimento de uma abordagem uniforme para o posicionamento da carga de trabalho. Como resultado, há quem acredite que a infraestrutura de borda permanecerá mais ad hoc do que a infraestrutura de Cloud é hoje.

Em particular, a localização das implantações do Edge vai variar, com muitos aplicativos sendo implantados em dispositivos finais, alguns em instalações técnicas específicas, como torres, fabricas, plataformas de petróleo, e outros em data centers ou até mesmo em CLSs (Cable Landing Stations).

Aprendizado 4: Edge Computing e Cloud estão convergindo e se integrando

Quando o Edge começou a “bombar”, ele foi posicionado como uma alternativa para “Cloud”.

Hoje a computação de borda está madura e amplamente adotada, está ficando cada vez mais claro que essas duas tendências se complementam.

A migração de aplicativos para a nuvem pública está bem encaminhada para aplicativos que podem ser implantados em um local centralizado. Os Cloud Providers nesse momento estão pensando em expandir o modelo para aplicativos mais distribuídos ou criar um novo modelo, baseado em zonas locais e feito sob medida para Edge computing, mas com propriedades semelhantes ao existente.

Isso complementa um movimento paralelo para distribuir ainda mais os nodes de rede de web-scale para recursos como acesso à Cloud e/ou agregação/distribuição de tráfego, geralmente chamados de “tail” em mais e mais centros de dados neutros para operadoras mais próximos do usuário final. Um movimento parecido com o que o Google (com seu GGC), Meta (com seu MNA) e o Netflix (com seu OCA) fizeram desde 2013 com seus sistemas de Edge-CDN, pois o comportamento do streaming, seja VoD (SVOD, TVOD, AVOD, PVOD..) ou Canal Linear é análogo ao Edge.

Em resposta a essa tendência de distribuição geográfica da capacidade de computação e nodes de rede, vemos um impulso contínuo e significativo dos Cloud Providers em direção a locais mais descentralizados. Esse movimento é conhecido no mercado como “Cloud Out”.

Recentemente, também surgiu um movimento complementar, conhecido como “Edge In”, em que muitos aplicativos que anteriormente estavam com os usuários finais (em instalações do cliente ou nos dispositivos finais) estão migrando para data centers de terceiros que são capazes de oferecer mais disponibilidade e resiliência, em alguns casos, acesso à Cloud Pública, mas ainda estão localizados próximos aos usuários finais.

Esses dois movimentos estão convergindo rapidamente e se encontrando no meio, formando o que alguns chamam de “Core-Edge Architecture”. Isso cria uma camada distribuída de infraestrutura digital que atua como uma malha de conexão entre o Core e os usuários finais.

Aprendizado 5: Edge e sustentabilidade (ESG) tem muito em comum.

À medida que a tecnologia cria uma demanda crescente por capacidade em mais locais, há uma oportunidade de repensar fundamentalmente como os data centers se encaixam no restante do ambiente.

Levar o poder de computação/processamento para mais perto de onde os dados estão sendo gerados tem o potencial de ajudar a melhorar as características de sustentabilidade. Enquanto data centers em grande escala lutam para usar seu calor residual, há muito mais consumidores em potencial para calor produzido localmente, altamente distribuído e de alta qualidade no Edge.

Centros de dados de borda relativamente pequenos são os locais ideais para implantar armazenamento de energia em grande escala, o que alimentará o desenvolvimento de geração renovável adicional.

Ao mesmo tempo, os requisitos de soberania de dados desempenham um papel na condução de um armazenamento e processamento de dados mais distribuídos. Os regulamentos cada vez mais rigorosos de privacidade de dados (LGPD, GDPR, etc..) e proteção ao consumidor exigem que os dados sejam armazenados e processados dentro das fronteiras de um país ou mesmo em nível local.

Ao contrário de outras regiões do planeta, a fragmentação geográfica da America Latina e do Brasil implica inerentemente uma infraestrutura digital muito mais distribuída, com maior ênfase nas implantações nacionais e regionais.

Aprendizado 6: os requisitos do Edge estão ditando a próxima leva da infraestrutura digital

A ascensão da computação de borda coloca um novo conjunto de requisitos em uma infraestrutura digital global que foi originalmente desenvolvida para se concentrar em permitir a conectividade (tanto de longa distância quanto de última milha) para empresas e consumidores e, subsequentemente, evoluiu para se concentrar em abrigar grandes quantidades de capacidade de computação em centros de dados cada vez maiores, que se tornaram a base de uma economia digital globalmente interconectada.

O ponto fundamental para esse novo ponto de inflexão é como o posicionamento da carga de trabalho está moldando a infraestrutura de borda, com diferentes cargas de trabalho sendo implantadas em locais muito diversos na borda da rede com base na arquitetura do aplicativo.

Como comentei antes, estamos testemunhando o surgimento de uma camada altamente distribuída de infraestrutura digital que atua como um tecido conectivo entre o Core e os usuários finais, com diferentes aplicativos sendo implantados em diferentes nodes ao longo desse espectro, dependendo da latência, desempenho , confiabilidade, tamanho e requisitos de soberania de dados.

Como os dados são processados no Edge, isso torna a infraestrutura mais ágil e centrada em negócios. Além disso, melhora a eficiência na distribuição de receita e recursos, simplificando e reduzindo o custo de gerenciamento da infraestrutura de TIC e o proveito de diversos outros benefícios que são inerentes à essa estrutura, como:

latência ultra-baixa;

altíssima resiliência;

compliance localizada;

inteligência distribuída;

maior perímetro de segurança.

Existe uma complexidade muito grande na implementação de uma infraestrutura altamente distribuída e na adoção de um modelo replicável e que seja sustentável, especialmente em um ambiente macro-econômico desafiador marcado por pressões inflacionárias e complexidade da cadeia de suprimentos global, mas mesmo assim, as redes de Edge Computing vão continuar avançando e moldando a nova leva da infraestrutura digital.

Por fim, deixo como dica a leitura do blog da Azion e da LF Edge para aqueles que almejam aprender mais sobre Edge Computing.

https://www.azion.com/pt-br/blog

https://www.lfedge.org/

As opiniões expressas pelos autores deste blog são próprias e não refletem necessariamente as opiniões de LACNIC.

Inscrever-se
Notificar de

0 Comments
mais antigos
mais recentes Mais votado
Feedbacks embutidos
Ver todos os comentários