Gestão responsável de dados judiciais na era da IA
31/03/2025

O argentino Julio Gabriel Mercado é um dos participantes de destaque da edição de 2024 do programa Líderes do LACNIC, que oferece financiamento e mentoria para a apresentação de pesquisas sobre temas selecionados de Governança da Internet (GI) com impacto na região, a partir da perspectiva de comunidades locais e sub-representadas.
Mercado dedica-se a promover políticas de Justiça Aberta baseadas na transparência, nos dados abertos, na prestação de contas, na colaboração e na participação pública. Como consultor, seu foco está em investigar, analisar informações e produzir conhecimento para orientar as instituições judiciais nesse caminho.
No âmbito do programa Líderes, o objetivo da pesquisa “MELHORES DADOS, MELHOR IA. Necessidades de dados para uma IA de justiça responsável” é fornecer às instituições judiciais uma série de princípios fundamentais a serem considerados na governança de seus dados, para que esses possam servir como base no desenvolvimento de sistemas de inteligência artificial (IA) responsável.
A proposta busca garantir que o uso da IA ocorra dentro de processos de transformação digital da administração da justiça que sejam transparentes, colaborativos e centrados nas pessoas, beneficiando de forma equitativa todos os indivíduos, especialmente aqueles em situação de maior vulnerabilidade.
Ao sugerir princípios para a gestão de dados e abordar os desafios éticos associados à IA, o estudo pretende contribuir para a criação de marcos regulatórios que não apenas impulsionem a inovação na administração da justiça, mas também fortaleçam os direitos humanos e a inclusão digital.
Por que você se candidatou ao programa Líderes em 2024?
Minha expertise no dia a dia é trabalhar com dados institucionais. Atuei no Ministério da Justiça da Argentina na abertura de dados, não apenas do próprio ministério, mas também de diversos poderes judiciários provinciais. Essa experiência envolveu uma longa curva de aprendizado, na qual atingimos um marco importante: a criação do primeiro portal de dados judiciais abertos da Argentina.
Além disso, lidero o grupo de dados abertos da Rede Internacional de Justiça Aberta, uma rede profissional coordenada pelo Conselho da Magistratura da Cidade de Buenos Aires, mas que reúne pessoas de toda a região interessadas no conceito de “abertura judicial” no que refere a dados.
Em 2023, participei em Montevidéu da Diplomatura em Governança da Internet na Universidade Católica do Uruguai, onde conheci vários dos bolsistas do programa Líderes que estavam participando do programa Policy Shapers do LACNIC. Depois de conversar com eles, decidi me candidatar porque percebi que meu perfil se alinhava com o programa Líderes: trabalho como consultor, mas não vejo meu trabalho apenas como a realização de projetos — considero que pesquisar, escrever, publicar e ensinar também fazem parte da minha atuação. Esse equilíbrio entre a prática da consultoria e a academia, ou seja, entre a praxe e a geração de conhecimento, é algo que entendo estar no cerne do que o programa Líderes busca incentivar. Por não ter um perfil 100% acadêmico, era difícil conduzir essa pesquisa que há tempos eu queria realizar, pois exigia um tempo que eu não tinha. Graças ao apoio do programa Líderes e do LACNIC, consegui fazer a pausa necessária e dedicar o tempo que o projeto demandava.
Quais objetivos guiaram sua pesquisa?
A IA funciona aprendendo a partir de dados, ou seja, baseia-se nos padrões extraídos de grandes conjuntos de dados de forma estatística. Isso significa que, ao fazer uma pergunta, ela responde com a opção mais provável, tendo como base os dados com os quais foi treinada.
Existe um problema com isso, os dados usados para o treinamento nem sempre são de qualidade. Se os dados não forem de qualidade, as respostas também podem não ser. A questão dos dados para a IA é crucial, mas ainda são dois mundos que não são pensados como um todo. Ficamos impressionados com os avanços diários da IA, mas a preocupação com os dados usados para treiná-la ainda permanece em segundo plano.
A recente regulamentação europeia estabelece que, para garantir o funcionamento dos sistemas da IA dentro de condições seguras e em conformidade com os direitos humanos, é fundamental treiná-los com dados de alta qualidade, gerenciados de forma adequada. Isso nos leva a revisar a origem dos dados: as instituições públicas gerenciam e publicam dados há anos, mas fazem isso sem um critério claro sobre como essas informações podem impactar o funcionamento da IA — um campo ainda novo para muitas delas.
Qual foi a abordagem e a metodologia escolhida para o projeto?
Tentei conectar dois mundos: as pessoas que vêm mais da área de dados e as que vêm mais da área da IA. Selecionei um grupo específico de entrevistados de ambos os campos para entender seus pontos de vista, após ter lido centenas de artigos acadêmicos e cruzado essas informações com minha experiência como especialista em abertura de dados. Busquei consolidar a perspectiva de vozes autorizadas e de profissionais que estão trabalhando diretamente com esses temas. A meu ver, o principal empecilho é a quantidade enorme de informações produzidas sobre esse assunto — além disso, é muito difícil encontrar a literatura melhor fundamentada.
Quais foram as principais descobertas?
Diante da minha pergunta de pesquisa, que era entender quais são os critérios de qualidade que devem ser seguidos na publicação de dados, a principal descoberta é que, se almejamos uma IA responsável, ou seja, que opere sob princípios éticos e normativos, a gestão (ou “governança”) dos dados deve buscar um equilíbrio entre cinco critérios: padronização (garantir que os dados sejam publicados e gerenciados de forma uniforme),acessibilidade (assegurar que os dados estejam disponíveis para todos),completude (refletir todas as situações, incluindo informações sobre grupos sociais desfavorecidos, por exemplo),privacidade (evitar a divulgação de informações privadas ou protegidas),cibersegurança (garantir que os dados sejam seguros, não adulterados e protegidos contra violações que possam comprometer a privacidade das pessoas).
Qual é a relevância deste assunto para a comunidade do LACNIC?
Acredito que há vários pontos de interseção, pois o trabalho explora questões como cibersegurança, privacidade e padronização, que precisam ser consideradas em nível técnico para reduzir a brechas digitais existentes. Em última análise, meu objetivo com este trabalho foi orientar uma transformação digital mais humana e centrada nas pessoas, o que exige cooperação multissetorial e, naturalmente, o envolvimento da comunidade técnica.
O que você destacaria da sua experiência no programa? Por que recomendaria se candidatar para a edição de 2025?
Eu recomendaria porque acredito que devem existir mais espaços como este – de reflexão, troca de ideias e geração de conhecimentos – voltados para pessoas que não se dedicam exclusivamente à pesquisa nesses temas. Foi uma experiência muito enriquecedora, não apenas pelo apoio financeiro, mas também pelo respaldo de uma instituição reconhecida como o LACNIC, que possibilitou a realização da pesquisa. O programa me ofereceu um referencial para desenvolver um trabalho que eu já tinha em mente há algum tempo e proporcionou uma visibilidade importante ao estar inserido no programa Líderes. Além disso, a troca de experiências foi extremamente valiosa, pois tive a oportunidade de me conectar com pesquisadores de toda a região, que estão explorando interseções entre diferentes temas relacionados à governança da Internet. Outro grande diferencial é a mentoria oferecida pelo LACNIC, com um especialista na área – no meu caso, Julián Casasbuenas, diretor da ONG colombiana especializada no impacto social das tecnologias. Esse acompanhamento foi essencial para organizar minhas ideias e estruturar melhor a pesquisa.
Da minha parte, fiz uma versão mais resumida da pesquisa que foi apresentada no IGF realizado na Arábia Saudita, com um enfoque um pouco mais geral e prático. Por outro lado, no âmbito pessoal, o projeto também enriqueceu meu trabalho diário, proporcionando argumentos e perspectivas muito mais sólidas e precisas para abordar a questão da qualidade dos dados. Também serviu como uma forma de organizar melhor o vasto material que eu vinha estudando.
Mercado tem no horizonte, para este ano, a organização de um evento no âmbito da Rede Internacional de Justiça Aberta, onde será apresentado o trabalho realizado para o programa Líderes. Para o futuro, à medida que a agenda da IA continuar avançando, um de seus objetivos é se envolver ainda mais no tema da pesquisa, buscando mais exemplos gerais sobre qualidade de dados, além de aprofundar a questão da chamada “soberania dos dados” – uma temática altamente relevante e fundamental para o futuro dessa tecnologia.