Christian nos propôs um percurso pela evolução tecnológica recente, desde a programabilidade das redes até o surgimento de modelos de inteligência artificial que permitem automatizar tarefas que vão além das capacidades humanas.
Uma das ideias mais impactantes da palestra foi que a rede é hoje o primeiro sistema criado pelo ser humano que já não pode ser completamente compreendido por ele. Desde a variabilidade do BGP até a combinação de tecnologias como 4G, 5G, edge computing, conectividade submarina, slices e SDN, a complexidade é tamanha que se torna impossível de ser abordada sem ferramentas de apoio baseadas em dados.
É aí que entra o Machine Learning, não como uma moda, mas como uma necessidade. Christian mostrou como técnicas baseadas em dados podem detectar anomalias, prever padrões e sugerir ações onde os métodos clássicos já não são suficientes. Entre as aplicações mais maduras ou promissoras que ele mencionou, destacam-se, por exemplo: a detecção de intrusões e comportamentos anômalos, a classificação de tráfego conforme o tipo de aplicação, a engenharia de tráfego e previsão de congestionamento, a otimização de políticas BGP, o streaming de vídeo adaptativo, XR e VR, e o controle de congestionamento em endpoints.
Vale destacar que muitas dessas tarefas não são novas — o que é novo é a abordagem: aprender com os dados, em vez de tentar adivinhar por meio de regras.
Uma parte que considerei especialmente valiosa foi quando ele propôs uma forma simples de começar a aplicar IA em redes. Não existe um único aplicativo revolucionário (“killer app”) para IA em redes. “O que existe, na verdade, são múltiplas pequenas dores operacionais que podem ser resolvidas se tivermos dados bem coletados e uma intenção clara de experimentar”, sinalizou.
Na segunda parte da sua apresentação, Christian aprofundou no “como” por trás do uso da inteligência artificial em redes. Sem transformar a explicação numa aula teórica, ele detalhou com clareza as três grandes famílias de técnicas de Machine Learning atualmente aplicadas à análise e à gestão de redes. Por um lado, as técnicas supervisionadas são aquelas em que já contamos com dados rotulados. Por exemplo, sabemos que certos registros correspondem a tráfego normal e outros a eventos suspeitos. Com esses exemplos, o modelo “aprende” a classificar novos eventos que nunca viu antes, com base em padrões anteriores. Essa técnica é ideal quando temos registros históricos confiáveis e bem estruturados — algo que nem sempre ocorre no mundo real.
Por outro lado, existem as técnicas não supervisionadas, nas quais não informamos ao modelo o que ele está “vendo”: simplesmente o alimentamos com dados e esperamos que ele identifique agrupamentos ou comportamentos semelhantes (clusters). Isso pode permitir, por exemplo, detectar usuários com padrões de consumo atípicos, fluxos de tráfego anômalos ou segmentos de aplicações que merecem tratamento especial dentro da rede. Um exemplo simples que me marcou: se tivermos fluxos de rede que se repetem com determinadas características, podemos criar grupos (vermelho, azul, verde) e redirecioná-los por caminhos diferentes, de acordo com seu perfil. É uma forma de otimizar recursos sem intervenção humana direta.
Por fim, o aprendizado por reforço, no qual o sistema aprende por tentativa e erro, recebendo recompensas ou punições conforme o resultado de suas decisões. Christian ilustrou com um exemplo clássico: uma criança que toca uma superfície quente e não repete a ação. Aplicado às redes, pode ser um agente que escolhe rotas de tráfego, observa os resultados (congestionamento, latência, perda) e ajusta suas decisões ao longo do tempo. O interessante é que, quando bem treinado, esse tipo de modelo pode aprender a “jogar” com a rede de forma otimizada, sem nunca ter recebido instruções explícitas.
Tudo começa com os dados
Uma ideia que Christian repetiu com ênfase – e com a qual concordo plenamente – é que, sem bons dados, não há inteligência possível. Esse ponto é especialmente relevante para a nossa região. Muitas redes operam sem uma política clara de observabilidade e armazenamento de dados históricos, o que limita sua capacidade futura de aplicar modelos inteligentes.
Por outro lado, as técnicas apresentadas por Christian permitem enfrentar uma grande variedade de situações de rede, desde as mais reativas até as mais preditivas: detecção de intrusos ou comportamentos anômalos, classificação de tráfego de acordo com a aplicação ou tipo de usuário, previsão da qualidade de experiência (QoE) em serviços críticos como vídeo, ou otimização de políticas de roteamento ou alocação de recursos em tempo real.
O fascinante é que essas ferramentas já estão disponíveis, muitas em código aberto e respaldadas por comunidades acadêmicas e técnicas. Mas elas exigem não apenas dados, como também uma colaboração estreita entre quem entende do negócio e quem domina as ferramentas.
Na parte final de sua apresentação, Christian foi muito claro ao mencionar que os modelos de aprendizado de máquina têm limitações importantes, especialmente em redes. Por exemplo, ele mencionou que cada rede é única (“um snowflake”), portanto, os modelos nem sempre são transferíveis entre ambientes. Além disso, se os dados forem imperfeitos, fragmentados ou não tiverem um formato padronizado, o desempenho dos modelos muda ao longo do tempo e devem ser treinados de forma contínua. E, por fim — e o mais importante: os resultados precisam ser interpretáveis e confiáveis, algo que nem sempre acontece com modelos complexos como redes neurais profundas. “Não basta que o modelo funcione: também precisamos entender por que ele tomou aquela decisão”, destacou, referindo-se à importância da transparência em ambientes operacionais.
Os dois exemplos finais foram impactantes porque fecharam o ciclo entre teoria, academia e impacto real.
Primeiro, ele relatou um estudo no qual sua equipe conseguiu prever — com até 7 segundos de antecedência — quando uma conexão móvel iria se degradar e interromper a reprodução de vídeo. Dados da rede, posição GPS e observações sobre a qualidade da experiência (QoE) foram suficientes para treinar um modelo que hoje poderia ser útil para operadoras ou até mesmo para plataformas de streaming.
O segundo caso, ainda mais robusto, mostrou como conseguiram construir um Network Digital Twin (gêmeo digital de uma rede óptica) para prever falhas suaves em amplificadores antes que elas ocorressem. Esse desenvolvimento não apenas foi publicado e patenteado, como também já foi incorporado por um fabricante internacional de equipamentos de rede. Foi o exemplo perfeito do sonho de todo pesquisador: levar a inovação do laboratório para o campo.
O que fica claro na apresentação — e que ressoa profundamente com o que vemos na região — é que a inteligência artificial e o aprendizado de máquina já não são mais opções futuristas nem tendências passageiras: são ferramentas necessárias para gerenciar redes que cresceram em complexidade a tal ponto que, em muitos casos, se tornaram impossíveis de serem administradas manualmente.
Não existem soluções mágicas — trata-se de reconhecer que, com dados adequados, colaboração técnica genuína e foco nos problemas reais do negócio, é possível construir soluções mensuráveis, escaláveis e úteis.
No LACNIC, vemos isso diariamente: a América Latina tem potencial. Temos talento técnico, universidades atuantes, operadoras comprometidas e uma comunidade que conhece bem o seu território. O que muitas vezes falta não é capacidade, mas sim pontes entre a academia e a operação, entre os dados e a ação, entre o problema e a prova de conceito.