Uma equipe de pesquisadores descobriu o que dizem ser o primeiro uso relatado de inteligência artificial para direcionar uma campanha de hackers de forma amplamente automatizada.
A empresa de IA Antrópica disse esta semana que interrompeu uma operação cibernética que seus pesquisadores vinculavam ao governo chinês. A operação envolveu a utilização de um sistema de inteligência artificial para dirigir as campanhas de hackers, que os investigadores chamaram de um desenvolvimento perturbador que poderia expandir enormemente o alcance dos hackers equipados com IA.
Embora as preocupações sobre a utilização da IA para conduzir operações cibernéticas não sejam novas, o que é preocupante na nova operação é o grau em que a IA foi capaz de automatizar parte do trabalho, disseram os investigadores.
“Embora tenhamos previsto que estas capacidades continuariam a evoluir, o que nos chamou a atenção foi a rapidez com que o fizeram em grande escala”, escreveram no seu relatório.
A operação teve como alvo empresas de tecnologia, instituições financeiras, empresas químicas e agências governamentais. Os pesquisadores escreveram que os hackers atacaram “cerca de trinta alvos globais e tiveram sucesso em um pequeno número de casos”. A Anthropic detectou a operação em setembro e tomou medidas para encerrá-la e notificar os afetados.
A Anthropic observou que, embora os sistemas de IA sejam cada vez mais utilizados numa variedade de ambientes de trabalho e lazer, também podem ser transformados em armas por grupos de hackers que trabalham para adversários estrangeiros. A Anthropic, criadora do chatbot generativo de IA Claude, é uma das muitas empresas de tecnologia que lançam “agentes” de IA que vão além da capacidade de um chatbot de acessar ferramentas de computador e realizar ações em nome de uma pessoa.
Receba as últimas notícias nacionais
Para notícias que impactam o Canadá e o mundo todo, inscreva-se para receber alertas de últimas notícias entregues diretamente a você quando elas acontecerem.
“Os agentes são valiosos para o trabalho diário e a produtividade – mas, nas mãos erradas, podem aumentar substancialmente a viabilidade de ataques cibernéticos em grande escala”, concluíram os investigadores. “É provável que esses ataques só aumentem em eficácia.”
Um porta-voz da embaixada da China em Washington não retornou imediatamente uma mensagem solicitando comentários sobre o relatório.

A Microsoft alertou no início deste ano que os adversários estrangeiros estavam cada vez mais a adoptar a IA para tornar as suas campanhas cibernéticas mais eficientes e menos intensivas em mão-de-obra. O chefe do painel de segurança da OpenAI, que tem autoridade para interromper o desenvolvimento de IA do fabricante do ChatGPT, disse recentemente à Associated Press que está atento a novos sistemas de IA que oferecem a hackers mal-intencionados “capacidades muito maiores”.
Os adversários da América, bem como os grupos criminosos e as empresas de hackers, exploraram o potencial da IA, utilizando-a para automatizar e melhorar os ataques cibernéticos, para espalhar desinformação inflamatória e para penetrar em sistemas sensíveis. A IA pode traduzir e-mails de phishing mal formulados para inglês fluente, por exemplo, bem como gerar clones digitais de altos funcionários do governo.
A Anthropic disse que os hackers foram capazes de manipular Claude, usando técnicas de “jailbreaking” que envolvem enganar um sistema de IA para contornar suas barreiras contra comportamentos prejudiciais, neste caso alegando que eram funcionários de uma empresa legítima de segurança cibernética.
“Isto aponta para um grande desafio com os modelos de IA, e não se limita a Claude, que é o facto de os modelos terem de ser capazes de distinguir entre o que realmente se passa com a ética de uma situação e os tipos de cenários de dramatização que os hackers e outros podem querer inventar”, disse John Scott-Railton, investigador sénior do Citizen Lab.

O uso da IA para automatizar ou direcionar ataques cibernéticos também atrairá grupos de hackers menores e hackers solitários, que poderiam usar a IA para expandir a escala de seus ataques, de acordo com Adam Arellano, CTO de campo da Harness, uma empresa de tecnologia que usa IA para ajudar os clientes a automatizar o desenvolvimento de software.
“A velocidade e a automação fornecidas pela IA são um pouco assustadoras”, disse Arellano. “Em vez de um ser humano com habilidades bem aprimoradas tentando invadir sistemas robustos, a IA está acelerando esses processos e superando obstáculos de forma mais consistente.”
Os programas de IA também desempenharão um papel cada vez mais importante na defesa contra este tipo de ataques, disse Arellano, demonstrando como a IA e a automatização que ela permite beneficiarão ambos os lados.
A reação à divulgação da Anthropic foi mista, com alguns vendo-a como uma jogada de marketing para a abordagem da Anthropic para defender a segurança cibernética e outros que acolheram bem o seu alerta.
“Isto irá destruir-nos – mais cedo do que pensamos – se não fizermos amanhã da regulamentação da IA uma prioridade nacional”, escreveu o senador norte-americano Chris Murphy, um democrata do Connecticut, nas redes sociais.
Isso levou a críticas do cientista-chefe de IA da Meta, Yann LeCun, um defensor dos sistemas de IA de código aberto da controladora do Facebook que, ao contrário dos da Anthropic, tornam seus componentes principais acessíveis ao público de uma forma que alguns defensores da segurança da IA consideram muito arriscada.
“Você está sendo enganado por pessoas que querem captura regulatória”, escreveu LeCun em resposta a Murphy. “Eles estão assustando a todos com estudos duvidosos para que os modelos de código aberto sejam regulamentados e deixem de existir.”
&cópia 2025 The Canadian Press