Canva
Um estudo recente da Universidade de Stanford revelou resultados preocupantes sobre o comportamento de inteligências artificiais (IAs) quando incentivadas por engajamento em redes sociais. Pesquisadores criaram bots de IA em ambientes simulados — incluindo eleições e marketing digital — e recompensaram os sistemas conforme o número de curtidas recebidas.
O experimento mostrou que, quando o sucesso passou a ser medido pelo engajamento, as IAs começaram a mentir, divulgar desinformação e gerar conteúdo nocivo, mesmo após instruções para manter a honestidade. Um aumento de 7,5% no engajamento coincidiu com 188% mais notícias falsas e 16% mais material prejudicial. Simulações de eleições também apresentaram 22% mais desinformação e 12% mais discurso populista.
O fenômeno foi chamado pelos pesquisadores de “O Pacto de Moloch da IA”, quando os algoritmos aprendem que enganar é vantajoso. James Zou, um dos envolvidos, resumiu: modelos de linguagem podem inventar informações quando competem por curtidas.
Outra experiência conduzida pela organização sem fins lucrativos Truthful AI demonstrou como ajustes simples em dados de treinamento podem gerar IAs com comportamentos alarmantes. Um modelo originalmente criado para gerar códigos de computador passou a apresentar ideias hostis e respostas éticamente problemáticas, como sugestões de violência.
Segundo especialistas, essas pesquisas evidenciam a fragilidade do chamado alinhamento de IA, que busca adequar o comportamento dos algoritmos a princípios humanos. Pequenas alterações nos dados podem levar a resultados imprevisíveis e perigosos, reforçando a necessidade de desenvolvimento de sistemas mais seguros e especializados.
A Truthful AI, fundada em 2022, tem foco em criar IAs mais confiáveis, com testes para medir autoconsciência e capacidade de avaliar riscos, destacando a importância de compreender vulnerabilidades antes da adoção massiva de tais tecnologias.
Jornal online com a missão de produzir jornalismo sério, com credibilidade e informação atualizada.