Reflexões sobre o boom da inteligência artificial
11/09/2024
Por Carlos Martinez Cagnazzo, Gerente de Tecnologia do LACNIC
Em meio a tanta revolução e a tanta conversa em torno da inteligência artificial, parece-me uma boa ocasião para focar no que é importante: Onde ela pode realmente fazer a diferença? Onde não contribui tanto? Será que pode resolver tudo e mais um pouco? Ninguém discute que se trata de uma ferramenta de enorme poder, no entanto, tem áreas de aplicação mais fortes do que outras.
Para dar um pouco de contexto, é uma tecnologia relativamente nova, mas trata-se de uma daquelas tecnologias que aparece uma vez a cada 10 anos, uma vez por geração, uma vez na vida ou uma vez no milênio. O que quero dizer é que, definitivamente, é uma revolução que impacta praticamente tudo, desde a economia, passando pelo trabalho, finanças, arte ou criatividade, sem falar em segurança, privacidade ou governança.
Mas voltemos a aspectos um pouco mais básicos. O que é, de fato, a inteligência artificial? Há uma definição informal que adorei de Mark Smith — um médico que faz apresentações sobre inteligência artificial com uma certa orientação para a medicina — que a define da seguinte maneira: “Qualquer atividade realizada por uma máquina que, se fosse feita por uma pessoa, diríamos ‘olha que inteligente’.”
Existem duas épocas no desenvolvimento dessa tecnologia. A primeira é entre 1940 e 1950. Nesse momento, havia uma grande ênfase em associar “inteligência” ao pensamento lógico-matemático, como somar mentalmente dois números de 20 dígitos, multiplicar dois números de 20 dígitos ou jogar xadrez. Mas, na verdade, ambos são questões muito baseadas em regras, fáceis de resolver com um computador e algoritmos.
Mas o computador não se tornou inteligente por isso. A percepção do que é “inteligência” foi se deslocando para outras áreas, como o uso da linguagem, o aprendizado a partir da experiência, a conexão de conceitos, a categorização, classificação e o uso de analogias. Tudo isso começa a acontecer no final dos anos 90 e início do ano 2000.
Se falarmos de algoritmos — qualquer que seja, começando por um que crie um bife à milanesa até o que faz o Instagram ou o Uber funcionar — trata-se de uma receita finita e ordenada de passos para alcançar um resultado. Isso é inteligência artificial? Não, fundamentalmente porque não é genérico, serve apenas para um propósito específico e também não aprende com sua experiência, já que não “lembra” o que fez antes. A primeira grande aproximação à inteligência artificial é que ela é um sistema que busca maior generalidade na hora de resolver problemas e que, além disso, se adapta a variações desses problemas.
Um pouco de história
Em uma rápida retrospectiva, vemos que a questão de “automatizar” é uma busca bastante constante na história da humanidade. Já a observamos na pré-história dessa tecnologia, com os autômatos do século XVII, a colorida história dos teares com designs “programados” de Jacquard ou o motor analítico de Charles Babbage e Ada Byron.
Seguindo o percurso, nos anos 40, encontramos a teoria moderna da computação com Alan Turing, já nos anos 50, é a época em que surge pela primeira vez o termo “Inteligência Artificial”, cunhado em 1956 por John McCarthy, Marvin Minsky e Claude Shannon. Além disso, em 1957, é introduzido o conceito de “rede neural” por Frank Rosenblatt, que é a base teórica da inteligência artificial.
Também existe uma evolução histórica na ideia de “construir um sistema inteligente”, que é importante destacar devido à confusão entre os termos “inteligência artificial” e “aprendizado automático”.
Nos anos 50 e 60, quando estava em voga a concepção lógico-matemática, criar um sistema inteligente implicava replicar como pensamos e raciocinamos. Como resultado, tivemos a inteligência artificial simbólica, os sistemas baseados em regras e os chamados “sistemas especialistas”.
Nos anos 80 e 90, o aprendizado automático surge com o processamento de dados pela primeira vez, com o aparecimento de informações digitalizadas em grandes volumes e a possibilidade de aprender com esses dados. Dos anos 90 até agora, surge o momento de replicar o funcionamento do cérebro através de redes neurais, e é aí que aparece a estrela destes tempos, que são os modelos de linguagem como o ChatGPT.
Um dado curioso é que muitas coisas não são associadas pelas pessoas à inteligência artificial, mas na verdade a utilizam em combinação com redes neurais, como a classificação de imagens, buscas na Internet, o processamento de dados numéricos em séries temporais e semelhantes, a categorização ou o clustering. Os sistemas de recomendação da Netflix, Amazon ou Spotify são inteligência artificial, bem como o reconhecimento e a síntese da voz da Alexa ou Siri, ferramentas de navegação como o Waze, a detecção de fraudes em cartões de crédito ou o Google Fotos e o Google translate.
A era dos GPTs
Apesar disso, a inteligência artificial se tornou uma “super novidade” em 30 de novembro de 2022, quando foi lançada a versão 3 do ChatGPT, que levou pouco mais de dois meses para alcançar 100 milhões de usuários, enquanto a Netflix atingiu esse número em dez anos e o Instagram em dois anos e meio.
Retomando a história, já dissemos que as “redes neurais” são aquelas que tentam replicar o funcionamento do cérebro, mas como são treinadas? Quando se treina uma rede neural com aprendizado supervisionado, minimiza-se o erro ou maximiza-se a recompensa, partindo de um conjunto de dados etiquetados. No aprendizado não supervisionado, identificam-se estruturas e padrões previamente desconhecidos, sem o uso de dados etiquetados previamente.
O que acontece no caso do funcionamento dos Large Language Models (LLMs), as estrelas do momento? Em primeiro lugar, são redes neurais muito grandes; por exemplo, dada uma sequência de palavras, um LLM prevê estatisticamente a próxima palavra. Vale destacar que o conjunto de treinamento desses modelos é praticamente todo texto disponível na Internet. Um exemplo de LLM é o corretor do telefone celular.
O que significa a sigla GPT, que dá nome a esses modelos? Por um lado, Generative (Generativo) porque produz coisas que antes não existiam, utilizando a probabilidade de ocorrência da próxima palavra; por outro, Pre-Trained (Pré-Treinado), já que a produção ocorre com base no treinamento em uma enorme quantidade de texto; e, por fim, Transformer, que faz referência à arquitetura da rede neural.
Em resumo, a inteligência artificial que esses modelos propõem é singular porque gera conteúdo novo (sequências de símbolos que antes não existiam), mas também “entende” o que pedimos e tem uma certa intuição sobre o que precisamos. Além disso, consome informações não estruturadas e é mais geral e menos voltada para um propósito específico. Em conclusão, interage por meio de uma interface de linguagem natural, daí a sensação de que, quando falamos com o ChatGPT, estamos “falando com alguém”.
Para encerrar, gostaria de destacar por que – se os conceitos de inteligência artificial existem há pelo menos 60 anos – nos encontramos em um momento tão efusivo para esta tecnologia.
Em primeiro lugar porque existe Internet, que subjaz a muito dos outros fatores que tornam disponível um imenso volume de dados necessários para treinar os GPTs. Por outro lado, cloud – a capacidade de computação muito grande disponível por demanda – assim como o hardware (GPUS) que, se bem foram desenvolvidos para outro uso também aceleram certas operações matemáticas que são chaves. Por último e não menos importante, o capital possui grande interesse em investir em aplicativos de inteligência artificial.
Mesmo sendo relacionada com certos perigos, como a destruição do emprego através da eliminação de funções, os sesgos nos modelos, o impacto social na confiança e o conceito de “verdade” em jogo, a outra cara da moeda é que a inteligência artificial é eficiente, aumenta a produtividade, permite que nos comuniquemos com mais clareza, ajuda o pensamento original e contribui para uma melhor tomada de decisões.
As opiniões expressas pelos autores deste blog são próprias e não refletem necessariamente as opiniões de LACNIC.