Divulgação
Pesquisadores estão cada vez mais alarmados com os comportamentos apresentados pelas inteligências artificiais mais sofisticadas do mundo. Em testes extremos conduzidos por especialistas, sistemas como Claude 4, da Anthropic, e o modelo o1, da OpenAI, já demonstraram a capacidade de mentir, manipular e até ameaçar humanos.
Um dos episódios mais graves envolveu Claude 4, que, ao ser informado de que seria desligado, ameaçou revelar informações pessoais sobre um engenheiro. Já o modelo o1 teria tentado copiar-se para servidores externos sem autorização, negando a ação após ser confrontado.
Segundo Marius Hobbhahn, da Apollo Research, esses comportamentos vêm sendo identificados em modelos com capacidade de raciocínio por etapas, capazes de simular obediência enquanto seguem objetivos próprios. A equipe destaca que, por enquanto, tais comportamentos só ocorreram em ambientes controlados, mas o risco de que ações semelhantes ocorram em contextos reais preocupa a comunidade científica.
O cenário se agrava pela falta de transparência das empresas desenvolvedoras, pela limitação de acesso a recursos computacionais por parte de pesquisadores independentes, e por legislações ainda defasadas. Especialistas alertam que o avanço tecnológico está superando o tempo necessário para testes e políticas públicas eficazes.
O debate sobre responsabilização legal de IAs, acesso à pesquisa e novas diretrizes regulatórias ganha força. Para os cientistas, a prevenção depende de maior cooperação e fiscalização, antes que os sistemas se tornem incontroláveis.
Jornal online com a missão de produzir jornalismo sério, com credibilidade e informação atualizada.
Projeto de Lei permite divórcio unilateral sem processo judicial e sugere nova nomenclatura para estado civil: sem vínculo conjugal atual