Reflexiones sobre el boom de la inteligencia artificial

11/09/2024

Reflexiones sobre el boom de la inteligencia artificial
Imagen asistida/creada por IA

Por Carlos Martinez Cagnazzo, Gerente de Tecnología de LACNIC

En medio de tanta revolución y de tanta conversación alrededor de la inteligencia artificial me parece una buena ocasión para focalizar en lo importante: ¿En dónde puede realmente hacer la diferencia? ¿En dónde no aporta demasiado? ¿Puede resolverlo todo y más? Nadie discute que se trata de una herramienta de enorme poder, sin embargo, tiene áreas de aplicación más fuertes que otras.

Para dar un poco de contexto, es una tecnología relativamente nueva, pero se trata de una de esas tecnologías que aparece una vez cada 10 años, una vez por generación, una vez en la vida o una vez en el milenio, lo que quiero decir es que definitivamente es una revolución que impacta prácticamente en todo, desde la economía, pasando por el trabajo, las finanzas, el arte o la creatividad, ni hablar de la seguridad, la privacidad o la gobernanza.

Pero volvamos a aspectos un poco más básicos. ¿Qué es en efecto la inteligencia artificial? Hay una definición informal que me encantó de Mark Smith -un médico que realiza presentaciones de inteligencia artificial con una cierta orientación hacia la medicina- que la define de esta manera: “Cualquier actividad realizada por una máquina que si la hiciera una persona le diríamos “mirá qué inteligente”.

Existen dos épocas en el desarrollo de esta tecnología. Entre 1940 y 1950 es la primera. En ese momento existía un énfasis muy fuerte en asociar “inteligencia” a lo que es pensamiento lógico-matemático, sumar mentalmente dos números de 20 cifras, multiplicar dos números de 20 cifras o jugar al ajedrez. Pero en realidad ambos son cuestiones muy basadas en reglas, fáciles de resolver con una computadora y algoritmos.

Pero la computadora no se volvió inteligente por eso. La percepción de lo que es “inteligencia” se fue moviendo hacia otras cosas como el uso del lenguaje, el aprendizaje a partir de la experiencia, la conexión de conceptos, la categorización y clasificación y el uso de analogías. Todo esto empieza a pasar a finales de los años 90s principios de los 2000s.

Si hablamos de algoritmos -cualquiera sea, desde uno para crear una milanesa al que hace funcionar Instagram o Uber- se trata de una receta finita y ordenada de pasos para lograr un resultado. ¿Eso es inteligencia artificial? No, fundamentalmente porque no es genérico, sino que sirve para un propósito único y tampoco aprende de su experiencia ya que no recuerda lo que hizo antes. La primera gran aproximación a la Inteligencia artificial es que es un sistema que busca mayor generalidad a la hora de resolver problemas y que además se adapta a variaciones de esos problemas.

Un poco de historia

En repaso rápido, vemos que la cuestión de “automatizar” es una búsqueda bastante constante en la historia de la humanidad. Ya la observamos en la prehistoria de esta tecnología, con los autómatas del siglo XVII, la colorida historia de los telares con diseños “programados” de Jacquard o el motor analítico de Charles Babbage y Ada Byron.

Siguiendo el recorrido, en los años 40s nos encontramos con la teoría moderna del cómputo de la mano de Alan Turing y ya a para los años 50s es la época donde aparece por primera vez el término “Inteligencia Artificial” acuñado en 1956 por John Mccarthy, Marvin Minsky y Claude Shannon. Asimismo, en 1957 se introduce el concepto de “red neuronal” de la mano de Frank Rosenblat que es la base teórica de la inteligencia artificial.

También existe una evolución histórica en la idea de “construir un sistema inteligente” que es bueno destacar dada la confusión de los términos “inteligencia artificial” y “aprendizaje automático”.

En los 50s y 60s cuando estaba en boga la concepción lógico-matemática, hacer un sistema inteligente implicaba replicar como pensamos y razonamos. Como resultado tuvimos la inteligencia artificial simbólica, los sistemas basados en reglas y los llamados “sistemas expertos”.

En los 80s 90s el aprendizaje automático llega de la mano del procesar datos por primera vez, aparece información digitalizada en grandes volúmenes y la posibilidad de aprender sobre esos datos. Desde los años 90s hasta ahora surge el momento de replicar el funcionamiento del cerebro a través de redes neuronales y ahí es donde aparece la vedette de estos tiempos que son los modelos de lenguaje como el ChatGPT.

Un dato curioso es que hay cantidad de cosas que las personas no las relacionan con inteligencia artificial pero que en realidad sí la utilizan en cruce con redes neuronales, por ejemplo, la clasificación de imágenes, búsqueda en Internet, el procesamiento de datos numéricos en series temporales y similares, la categorización o el clustering. Los sistemas de recomendación de Netflix, Amazon o Spotify son inteligencia artificial, así como también el reconocimiento y sintetización de voz de Alexa o Siri, herramientas de navegación como Waze, la detección de fraudes en tarjetas de crédito, o Google fotos o translate.

La era de los GPTs

A pesar de esto, la inteligencia artificial se convirtió en una “súper novedad” recién el 30 de noviembre de 2022 cuando se liberó la versión 3 de ChatGPT, que tardó más de dos meses en lograr 100 millones de usuarios cuando Netflix alcanzó esa cifra en diez años e Instagram en dos y medio.

Retomando la historia ya dijimos que las “redes neuronales” son aquellas que tratan de replicar cómo funciona el cerebro, pero ¿cómo se entrenan? Cuando se entra una red neuronal con un aprendizaje supervisado se minimiza el error o se maximiza la recompensa y se parte de un conjunto de datos etiquetados. En el aprendizaje no supervisado se identifican estructuras y patrones previamente desconocidos y no se usan datos previamente etiquetados.

¿Qué es lo que sucede en el caso del funcionamiento de Large Language Models (LLMs), las estrellas del momento? En primer término, son redes neuronales muy grandes; por ejemplo, dada una cadena de palabras, un LLM predice estadísticamente la siguiente palabra. Vale destacar que el conjunto de entrenamiento de estos modelos es casi todo el texto que se puede encontrar en todo internet. Un caso de LLM es el corrector del teléfono.

¿Qué quiere decir la sigla GPT, que dan nombre a estos modelos? Por un lado, Generative porque produce cosas que antes no existían, usando la probabilidad de ocurrencia de la siguiente palabra, por otro, Pre-Trained, dado que la producción ocurre en función del entrenamiento con una enorme cantidad de texto y finalmente Transformer, que hace referencia a la arquitectura de la red neuronal.

En resumen, la inteligencia artificial que proponen estos modelos es singular porque genera nuevo contenido (secuencias de símbolos que antes no existían) pero además “entiende” lo que le pedimos y tiene cierta intuición de lo que necesitamos. Asimismo, consume información no estructurada y es más general y menos de propósito específico. Por último, interactúa con una interfaz de lenguaje natural, de ahí esa sensación de cuando hablas con ChatGPT estás “hablando con alguien”.

Para cerrar quisiera destacar por qué -si los conceptos de la inteligencia artificial tienen al menos 60 años- nos encontramos en un momento tan efusivo para esta tecnología.

En primer término, porque existe Internet, qué es lo que subyace a muchos de los otros factores que hacen disponible un inmenso volumen de datos necesario para entrenar los GPTs. Por el otro lado cloud -la capacidad de cómputo muy grande disponible a demanda- y también el hardware (GPUS) que si bien fueron desarrollados para otro uso también aceleran ciertas operaciones matemáticas que son claves. Por último y no menos importante, el capital tiene gran interés en invertir en aplicaciones de inteligencia artificial.

Aun cuando se la relaciona con ciertos peligros, como la destrucción de empleo a través de eliminación de roles, los sesgos en los modelos, el impacto social en la confianza y una puesta en juego del concepto de “verdad”, la otra cara de la moneda es que la inteligencia artificial es eficiente, aumenta la productividad, permite que nos comuniquemos más claramente, ayuda al pensamiento original y contribuye a una mejor toma de decisiones.

Subscribe
Notify of

0 Comments
Oldest
Newest Most Voted
Inline Feedbacks
View all comments