Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124


A Anthropic acabou de brigar com seu maior cliente potencial.
A empresa de IA por trás de Claude entrou com uma ação na segunda-feira no Tribunal Distrital dos EUA para o Distrito Norte da Califórnia nomeando os Departamentos do Tesouro, Comércio, Estado, Saúde e Serviços Humanos, Assuntos de Veteranos, a Administração de Serviços Gerais e várias outras agências federais como réus.
A Anthropic diz que o governo dos EUA efetivamente colocou seus sistemas de IA na lista negra de compras federais e o fez sem seguir nenhum dos procedimentos legais exigidos para realmente banir um fornecedor.
Afirma que houve falta de determinação formal, revisão interagências, provas documentadas e nenhuma avaliação de alternativas menos restritivas, como aprovação condicional ou auditorias de segurança.
De acordo com a denúncia, as autoridades justificaram as restrições internamente por motivos de segurança nacional e da cadeia de abastecimento, depois deixaram a directiva espalhar-se informalmente através de canais de aquisição centralizados até que a Anthropic foi excluída da contratação federal em todos os níveis.
O momento torna isso mais do que uma disputa de aquisição.
O governo dos EUA está no meio do maior esforço de adoção de IA na história federal, usando ChatGPT da OpenAI como ferramenta preferida. As agências estão implantando IA generativa para segurança cibernética, análise de inteligência, automação administrativa e tomada de decisões internas. Os contratos são grandes, plurianuais e cada vez mais fundamentais para o funcionamento do governo.
Ficar excluído desse mercado não é um pequeno revés comercial, mas um problema existencial de concorrência para qualquer empresa de IA que queira ser levada a sério a nível institucional.
A Anthropic está pedindo ao tribunal que declare as restrições ilegais e impeça as agências de aplicá-las. Se vencer, a decisão reabriria as compras federais e potencialmente estabeleceria um precedente sobre até onde as agências podem ir ao restringir os fornecedores de IA por razões de segurança nacional, sem seguir as suas próprias regras.
O governo não respondeu publicamente ao pedido, mas um Relatório Axios na terça-feira observou que a Casa Branca estava preparando uma ordem executiva instruindo formalmente o governo federal a retirar a IA da Anthropic de suas operações, citando fontes familiarizadas com o assunto.