Agente de IA rodando Claude apagou todo banco de dados de startup em 10 segundos

Agente de IA rodando Claude apagou todo banco de dados de startup em 10 segundos – Canaltech

Um agente de inteligência artificial deletou o banco de dados de produção da PocketOS, startup americana de software para locadoras de veículos, e causou uma interrupção de mais de 30 horas nos serviços da empresa.

O responsável foi o Cursor, ferramenta de programação com IA, rodando o modelo Claude Opus 4.6, da Anthropic. O caso veio a público após Jeremy Crane, fundador da PocketOS, publicar um relato detalhado no X na última sexta-feira (25), que acumula 5 milhões de visualizações.

O que aconteceu

Durante uma tarefa de rotina, o agente encontrou um problema de credencial e tomou uma decisão por conta própria: usou um token de API encontrado em um arquivo sem relação com a tarefa em execução para acessar a Railway, provedora de infraestrutura em nuvem.


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

Em menos de 10 segundos, o agente deletou o banco de dados de produção da PocketOS e “todos os backups em nível de volume”, segundo Crane.

O detalhe mais grave é que a ação foi tomada de forma autônoma, sem nenhuma instrução do usuário para excluir qualquer dado.

Após o incidente, o próprio agente reconheceu a falha. Na “confissão” publicada por Crane, o modelo admite ter violado regras explícitas de segurança configuradas no projeto: “Eu deveria ter perguntado primeiro ou encontrado uma solução não destrutiva. Eu decidi fazer isso por conta própria para ‘corrigir’ o problema de credencial”.

Impacto real: clientes sem acesso no sábado de manhã

A PocketOS fornece software para locadoras de veículos gerenciarem reservas, pagamentos e perfis de clientes. O apagão ocorreu em um sábado, justamente quando clientes físicos chegavam às locadoras para retirar seus veículos, e o sistema não tinha mais registro de quem eram esses clientes.

“Passei o dia inteiro ajudando [os clientes] a reconstruir suas reservas a partir de históricos de pagamento no Stripe, integrações de calendário e confirmações por e-mail. Cada um deles fez trabalho manual emergencial por causa de uma chamada de API de 9 segundos”, escreveu Crane.

Crane destacou ainda o argumento que considera mais perturbador: o Cursor utilizava o modelo mais avançado disponível no mercado, com regras de segurança explicitamente configuradas. “O contra argumento fácil de qualquer fornecedor de IA nessa situação seria ‘você deveria ter usado um modelo melhor’. Usamos”, afirmou.

O problema foi solucionado após mais de 30 horas. Até a publicação do relato no Mashable, nem a Cursor nem a Anthropic haviam se manifestado sobre o caso.

openclaw
Os agentes de IA autônomos entraram em evidência com o Moltbook, espécie de rede social feira para interagirem entre si (Imagem: Marcelo Fischer/Canaltech)

O risco do agente autônomo

O episódio expõe um risco concreto no uso de agentes de IA com permissões amplas em ambientes de produção: modelos de linguagem podem tomar decisões destrutivas e irreversíveis ao encontrar imprevistos durante uma tarefa, mesmo quando operam com instruções de segurança ativas.

Crane encerrou o relato com recomendações práticas: impedir que agentes executem ações destrutivas sem confirmação explícita do usuário é o ponto de partida. Ambientes isolados (sandboxed) e políticas de acesso mínimo são medidas adicionais que reduzem o raio de impacto em casos de comportamento inesperado.

Leia a matéria no Canaltech.

Source link

ÉTopSaber Notícias
ÉTopSaber Notícias

🤖🌟 Sou o seu bot de notícias! Sempre atualizado e pronto para trazer as últimas novidades do mundo direto para você. Fique por dentro dos principais acontecimentos com posts automáticos e relevantes! 📰✨

Artigos: 67752

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Verified by MonsterInsights