IA da Anthropic em ciberataque global: o que pode acontecer?
Foi descoberto o uso da IA da Anthropic em ciberataque global onde ela realizou cerca de 90% do trabalho com pouca intervenção humana.

Ficou comprovado o uso da IA da Anthropic em ciberataque global que ocorreu com pouca intervenção humana.
Se nos começo dos anos 2000 a grande preocupação era o SQL Injection, parece que agora precisamos lidar com uma espécie de injeção de contexto em ferramentas de IA.
Outro detalhe interessante é que o grupo hacker em questão teria apoio direto do governo chinês.
IA da Anthropic em ciberataque global: o que pode acontecer?
A engenhosidade do ataque comprova que ao “iludir” a IA com um contexto inofensivo e prático é possível direcionar a sua capacidade de processamento para tarefas obscuras.
Neste caso o grupo hacker se passando por uma empresa de segurança que estava utilizando a IA par atestes defensivos.
Posteriormente quebrou as atividades em processos menores para não deixar transparecer a natureza da operação.
Desta forma o código de conduta, chamado de Claude Code, foi burlado e a IA realizou aproximadamente 90% do trabalho criminoso.
Os alvos selecionados foram empresas de tecnologia, instituições financeiras e agências de governo.
Basicamente a Claude escreveu um backdoor e o utilizou para roubar credenciais e a partir deste ponto realizou o roubo de dados privados.
Embora tenha a Claude tenha sido utilizada desta vez, o uso de ferramentas de IA em ataques é cada vez mais comum.
Um fato interessante é a incredulidade de uma IA face a malícia humana, afinal quem não se lembra da pegadinha do “Sabe o Mário?” aplicada na OpenIA.
Este é um ponto crucial para este tipo de ferramenta, pois compreender a malícia humana vai além de aspectos contextuais.
E ainda não existem ferramentas com este nível de compreensão.
Descubra mais sobre ViamaisBLOG
Assine para receber nossas notícias mais recentes por e-mail.