Christian nos propuso un recorrido por la evolución tecnológica reciente, desde la programabilidad de redes hasta la emergencia de modelos de inteligencia artificial que permiten automatizar tareas que superan las capacidades humanas.
Una de las ideas más potentes de la charla fue que la red es hoy el primer sistema creado por el ser humano que ya no puede ser comprendido en su totalidad por el ser humano. Desde la variabilidad del BGP hasta la mezcla de tecnologías 4G, 5G, edge computing, conectividad submarina, slices y SDN, la complejidad es tal que se vuelve inabordable sin herramientas de apoyo basadas en datos.
Ahí entra el Machine Learning, no como moda, sino como necesidad. Christian mostró cómo técnicas basadas en datos pueden detectar anomalías, predecir patrones y sugerir acciones donde los enfoques clásicos ya no alcanzan. Entre las aplicaciones más maduras o prometedoras que mencionó, se destacan por ejemplo la detección de intrusiones y comportamientos anómalos, la clasificación de tráfico según tipo de aplicación, la ingeniería de tráfico y predicción de congestión, optimización de políticas BGP, streaming de video adaptativo, XR y VR y control de congestión en endpoints.
Es válido destacar que muchas de estas tareas no son nuevas pero lo nuevo es el enfoque: aprender de los datos, en vez de intentar adivinar con reglas.
Una parte que me pareció especialmente valiosa fue cuando propuso una forma simple de empezar con IA en redes. No hay una única aplicación estrella (“killer app”) en redes con IA. “Hay, en cambio, múltiples pequeños dolores operativos que pueden abordarse si tenemos datos bien recolectados y una intención clara de experimentar”, puntualizó.
En la segunda parte de su presentación, Christian se adentró en el “cómo” detrás del uso de la inteligencia artificial en redes. Sin caer en una clase teórica, explicó con claridad las tres grandes familias de técnicas de Machine Learning que hoy se aplican al análisis y gestión de redes: por un lado, las técnicas supervisadas son aquellas donde contamos con datos ya etiquetados. Por ejemplo, sabemos que ciertos registros corresponden a tráfico normal y otros a eventos sospechosos. Con esos ejemplos, el modelo “aprende” a clasificar nuevos eventos que nunca vio, basándose en patrones previos. Esta técnica es ideal cuando tenemos registros históricos confiables y bien estructurados, algo que no siempre sucede en el mundo real.
Por otro lado, las no supervisadas donde no le decimos al modelo lo que está viendo: simplemente lo alimentamos con datos y esperamos que identifique agrupaciones o comportamientos similares (clusters). Puede detectar, por ejemplo, usuarios con patrones de consumo atípicos, flujos de tráfico anómalos o segmentos de aplicaciones que merecen tratamiento especial dentro de la red. Un ejemplo simple que me quedó grabado: si tenemos flujos de red que se repiten con ciertas características, podemos crear grupos (rojo, azul, verde) y redirigirlos por paths distintos según su perfil. Es una forma de optimizar recursos sin intervención humana directa.
Finalmente, el aprendizaje por refuerzo donde el sistema aprende por prueba y error, recibiendo recompensas o castigos según el resultado de sus decisiones. Christian lo ilustró con un ejemplo clásico: un niño que toca una superficie caliente y no lo repite. Trasladado a redes, puede ser un agente que elige rutas de tráfico, observa el resultado (congestión, latencia, pérdida) y ajusta sus decisiones con el tiempo. Lo interesante es que, bien entrenado, este tipo de modelo puede aprender a “jugar” con la red de forma óptima, sin haber recibido instrucciones explícitas.
Todo empieza con los datos
Una idea que Christian repitió con énfasis -y que comparto plenamente- es que, sin buenos datos, no hay inteligencia posible. Este punto es especialmente relevante para nuestra región. Muchas redes operan sin una política clara de observabilidad y almacenamiento de datos históricos, lo que limita su capacidad futura de aplicar modelos inteligentes.
Por otro lado, las técnicas presentadas por Christian permiten enfrentar una variedad enorme de situaciones de red, desde lo más reactivo hasta lo más predictivo: detección de intrusos o comportamientos anómalos, clasificación de tráfico según aplicación o tipo de usuario, predicción de calidad de experiencia (QoE) en servicios críticos como video u optimización de políticas de enrutamiento o asignación de recursos en tiempo real.
Lo fascinante es que estas herramientas ya están disponibles, muchas en open source y respaldadas por comunidades académicas y técnicas. Pero requieren no solo datos, sino también una colaboración estrecha entre quienes entienden el negocio y quienes dominan las herramientas.
En la última parte de su exposición, Christian fue muy claro al mencionar que los modelos de aprendizaje automático tienen limitaciones importantes, especialmente en redes. Por ejemplo, mencionó que cada red es única (“un snowflake”), por lo tanto, los modelos no siempre son transferibles entre entornos. También, si los datos son imperfectos, están fragmentados o carecen de formato estandarizado, la performance de los modelos cambia en el tiempo, y deben reentrenarse continuamente. Por último y lo más importante: los resultados deben ser interpretables y confiables, algo que no siempre ocurre con modelos complejos como las redes neuronales profundas. “No es suficiente con que el modelo funcione: también tenemos que entender por qué tomó esa decisión”, señaló, en referencia a la importancia de la transparencia en entornos operativos.
Los dos ejemplos finales fueron potentes porque cerraron el círculo entre teoría, academia e impacto real.
Primero, relató un estudio en el que su equipo logró predecir -con hasta 7 segundos de anticipación- cuándo una conexión móvil iba a degradarse y cortar la reproducción de video. Datos de red, posición GPS y observaciones de calidad de experiencia (QoE) fueron suficientes para entrenar un modelo que hoy podría ser útil para operadores o incluso plataformas de streaming.
El segundo caso, más robusto aún, mostró cómo lograron construir un Network Digital Twin (gemelo digital de una red óptica) para predecir fallas suaves en amplificadores antes de que ocurrieran. Este desarrollo no solo se publicó y patentó, sino que ya fue incorporado por un fabricante internacional de equipamiento de red. Fue el ejemplo perfecto del sueño de todo investigador: llevar la innovación desde el laboratorio hasta el campo.
Lo que deja claro la exposición -y que resuena profundamente con lo que vemos en la región- es que la inteligencia artificial y el aprendizaje automático ya no son opciones futuristas ni tendencias pasajeras: son herramientas necesarias para gestionar redes que han crecido en complejidad al punto de volverse, en muchos casos, inabarcables para una gestión manual.
No hay soluciones mágicas, se trata de reconocer que, con datos adecuados, colaboración técnica genuina y foco en los problemas reales del negocio, es posible construir soluciones medibles, escalables y útiles.
Desde LACNIC lo vemos a diario: Latinoamérica tiene con qué. Tenemos talento técnico, universidades activas, operadores comprometidos y una comunidad que conoce bien su territorio. Lo que muchas veces falta no es capacidad, sino puentes entre la academia y la operación, entre el dato y la acción, entre el problema y la prueba de concepto.