A chefe de robótica da OpenAI deixou o cargo devido a um acordo com o Pentágono - ForkLog: criptomoedas, IA, singularidade, futuro

ИИ-военщина AI war# Chefe de Robótica da OpenAI demite-se devido a acordo com o Pentágono

Em resposta ao controverso acordo da OpenAI com o Departamento de Defesa dos EUA, Caitlin Kalinowski deixou o cargo de chefe de hardware da empresa.

«Foi uma decisão difícil. A inteligência artificial desempenha um papel importante na segurança nacional. Mas a vigilância aos americanos sem autorização judicial e a autonomia letal sem aprovação humana são questões que merecem uma atenção mais detalhada do que recebem atualmente», escreveu ela.

Kalinowski trabalhou na Apple no hardware dos computadores Mac, depois passou para a Meta, tornando-se uma das engenheiras principais no departamento Reality Labs. Em 2024, juntou-se à OpenAI, assumindo a direção de robótica e hardware de consumo.

Em sua declaração, destacou que a decisão foi «sobre princípios, não sobre pessoas», expressando «profundo respeito» pelo CEO da OpenAI, Sam Altman, e pela equipa do startup.

«Na minha opinião, o anúncio foi feito de forma precipitada, sem definir limites. São questões de gestão que são demasiado importantes para serem resolvidas às pressas», acrescentou Kalinowski.

Um representante da OpenAI destacou que o acordo com o Pentágono «cria um caminho para o uso responsável de IA em segurança nacional, ao mesmo tempo que define linhas vermelhas claras: nenhuma vigilância interna e nenhuma arma autónoma».

«Entendemos que as pessoas têm convicções firmes sobre estas questões, e continuaremos a discuti-las com funcionários, governo e sociedade em todo o mundo», acrescentou.

O acordo entre a OpenAI e o Pentágono foi assinado no final de fevereiro, pouco depois de negociações entre a Anthropic e o Defesa terem chegado a um impasse.

Logo após, Altman admitiu que o negócio foi «apressado» e, do ponto de vista da imagem do startup, «não ficou muito bem».

A situação afetou a popularidade do ChatGPT e do Claude. O número de exclusões do primeiro chatbot aumentou 295%, enquanto o segundo atingiu o topo da classificação na App Store.

Downloads dos aplicativos Claude e ChatGPT nos EUA. Fonte: Appfigures.## Conflito das autoridades com a Anthropic

Em julho de 2025, o Departamento de Defesa dos EUA assinou contratos de até 200 milhões de dólares com a Anthropic, Google, OpenAI e xAI para desenvolver soluções de IA na área de segurança.

Em janeiro de 2026, o WSJ relatou o risco de rompimento do acordo com a Anthropic. As divergências surgiram devido à rígida política ética do startup. As regras proíbem o uso do modelo Claude para vigilância em massa e operações autônomas letais.

Em fevereiro de 2026, o exército dos EUA utilizou o Claude na operação de captura do presidente venezuelano Nicolás Maduro, o que agravou o conflito.

O CEO da empresa, Dario Amodei, reuniu-se com o ministro da Defesa, Pít Hegset, para discutir a situação. O departamento deu um ultimato: a Anthropic deve aceitar as condições do governo até 27 de fevereiro.

Dario Amodei afirmou que prefere não colaborar com o Pentágono do que aceitar o uso de suas tecnologias, o que poderia «minar, em vez de proteger, os valores democráticos».

No final de fevereiro, o presidente dos EUA, Donald Trump, ordenou que todos os órgãos federais abandonassem completamente o uso das tecnologias da Anthropic em seis meses.

Ele chamou o startup de «empresa fora de controle», dirigida por pessoas que «não têm ideia do que é o mundo real».

O Pentágono reconheceu oficialmente a Anthropic como «risco para a cadeia de fornecimento» — o que coloca em risco os negócios da empresa com outros contratantes do governo. Microsoft e Google afirmaram que continuarão a fornecer produtos da empresa.

Vai parar na justiça

Amodei afirmou que sua empresa contestará judicialmente a decisão do Departamento de Defesa de reconhecer a empresa como risco para a cadeia de fornecimento. Ele considera a decisão «juridicamente infundada».

Na declaração, afirma que a decisão do Pentágono não afeta a maioria dos clientes do Claude.

Segundo Amodei, a empresa manteve negociações produtivas com o Departamento de Defesa por vários dias, mas elas fracassaram após um vazamento de uma nota interna. Nela, o CEO descreveu a relação com o departamento como «mais uma demonstração de segurança do que uma proteção real contra riscos».

Amodei pediu desculpas pelo vazamento, afirmando que a empresa inadvertidamente revelou o conteúdo do memorando e que não deu instruções para que alguém o fizesse.

«Não nos é vantajoso agravar a situação», escreveu ele.

O líder do startup destacou que o documento foi escrito em poucas horas após uma série de anúncios de que a Anthropic seria removida dos sistemas federais. Ele pediu desculpas pelo tom, chamando aquele dia de «difícil para a empresa».

Amodei acrescentou que o memorando é uma «avaliação desatualizada» e não reflete uma «opinião atenta e ponderada». Segundo ele, o principal objetivo da empresa é garantir que soldados americanos e especialistas em segurança nacional tenham acesso às ferramentas essenciais durante operações militares em grande escala.

A Anthropic continuará fornecendo ao Departamento de Defesa seus modelos «ao custo nominal» pelo tempo que for necessário.

O ex-conselheiro de inteligência artificial da Casa Branca, Dean Ball, afirmou que será difícil para a empresa contestar a decisão do Pentágono.

«Os tribunais são bastante relutantes em questionar decisões do governo sobre o que constitui uma questão de segurança nacional e o que não é. É preciso superar uma barreira muito alta. Mas não é impossível», destacou o especialista.

Lembre-se, em fevereiro, a Anthropic suavizou sua política de segurança principal, justificando a mudança pela necessidade de manter a competitividade.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar