Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
A disputa de defesa dos EUA aprofunda-se à medida que a Anthropic apresenta uma ação judicial contra o Pentágono, contestando a lista negra de...
Num aumento acentuado de tensões com Washington, a empresa de IA Anthropic entrou com uma ação judicial devido à sua súbita inclusão na lista negra pelo establishment de defesa dos EUA.
Anthropic processa o Pentágono por etiqueta de “risco na cadeia de abastecimento”
Na segunda-feira, a Anthropic entrou com duas ações contra o Departamento de Defesa (DoD), argumentando que a decisão do governo de classificar a empresa como “risco na cadeia de abastecimento” é ilegal e viola os seus direitos de Primeira Emenda. A disputa tem vindo a ferver há meses, enquanto a empresa procurava salvaguardas que limitassem o uso militar da sua IA para vigilância doméstica em massa ou armas letais totalmente autônomas.
Os novos processos, apresentados no tribunal do distrito norte da Califórnia e no tribunal de apelações dos EUA para o Circuito de Washington DC, seguem a emissão formal da designação de risco pelo Pentágono na última quinta-feira. Notavelmente, é a primeira vez que esta ferramenta de blacklisting foi usada contra uma empresa dos EUA. Além disso, a designação instrui efetivamente qualquer contratante que faça negócios com o governo a cortar todos os laços com a Anthropic, representando uma ameaça séria ao modelo de negócio da empresa.
Reclamações de liberdade de expressão e retaliação contra a administração Trump
A queixa da Anthropic afirma que a administração Trump está a punir a empresa por se recusar a cumprir o que ela descreve como as exigências ideológicas do governo. Segundo o documento, essa suposta retaliação viola a liberdade de expressão protegida e tenta forçar a empresa a mudar a sua posição sobre aplicações militares de IA.
“Estas ações são sem precedentes e ilegais. A constituição não permite que o governo use seu enorme poder para punir uma empresa por sua liberdade de expressão,” afirmou a Anthropic na sua ação na Califórnia. No entanto, o governo ainda não detalhou publicamente a sua justificativa para a designação.
Integração profunda de Claude nos sistemas de defesa dos EUA
Ao longo do último ano, o modelo de IA principal da Anthropic, Claude, tornou-se profundamente integrado no Departamento de Defesa. Até recentemente, dizia-se que Claude era o único modelo de IA aprovado para uso em sistemas classificados, destacando a sua importância estratégica. O DoD teria utilizado extensivamente o sistema em operações militares, incluindo na decisão de onde direcionar ataques de mísseis na sua guerra contra o Irã.
A Anthropic destacou nos seus documentos que continua comprometida em fornecer IA para fins de segurança nacional. Além disso, a empresa afirmou na ação na Califórnia que já colaborou anteriormente com o Pentágono para modificar os seus sistemas para casos de uso específicos, adaptando a tecnologia às exigências sensíveis de defesa.
Empresa busca revisão judicial e diálogo contínuo
A empresa insiste que buscar revisão judicial não significa recuar do trabalho de defesa. Pelo contrário, ela vê a ação legal como uma salvaguarda necessária. Em uma declaração ao The Guardian, um porta-voz afirmou: “Buscar revisão judicial não altera o nosso compromisso de longa data de usar IA para proteger a nossa segurança nacional, mas é um passo necessário para proteger o nosso negócio, os nossos clientes e os nossos parceiros.”
A Anthropic acrescentou que deseja continuar as negociações com o governo dos EUA, apesar do litígio. No entanto, a empresa prometeu explorar todas as vias possíveis para resolver a disputa, incluindo ações legais adicionais e diálogo direto com funcionários federais.
Reclamações de prejuízo económico e sinais mistos
Nos seus documentos judiciais, a Anthropic alega que as ações punitivas da administração Trump e do Pentágono estão a “prejudicar irreparavelmente” a Anthropic ao cortá-la de negócios críticos com o governo. A empresa argumenta que a designação de risco na cadeia de abastecimento pode inibir parcerias no ecossistema de defesa e tecnologia mais amplo.
No entanto, essas alegações parecem entrar em conflito com as declarações do CEO Dario Amodei numa entrevista recente à CBS News. Na semana passada, Amodei afirmou que “o impacto desta designação é relativamente pequeno” e insistiu que a empresa “vai ficar bem.” Observadores notam que esse contraste pode tornar-se um ponto focal à medida que os casos avançam.
Um caso-teste para IA, segurança nacional e liberdade de expressão
A Anthropic enquadra a disputa como um confronto de alto risco sobre inovação e liberdade de expressão. “Os réus procuram destruir o valor económico criado por uma das empresas privadas de crescimento mais rápido do mundo, que lidera o desenvolvimento responsável de uma tecnologia emergente de importância vital para a nossa Nação,” afirma a empresa na sua ação. A ação judicial da Anthropic também levanta questões mais amplas sobre como Washington irá regular fornecedores estratégicos de IA.
De forma mais geral, o caso deve testar até que ponto o governo dos EUA pode blacklistar uma empresa de IA por divergências políticas sobre o uso de IA para segurança nacional. Pode também influenciar futuras orientações sobre alegações de censura governamental e os limites do poder executivo sobre fornecedores de tecnologia emergente.
Pentágono mantém silêncio por enquanto
O Departamento de Defesa não respondeu imediatamente a um pedido de comentário sobre os processos ou o seu processo de decisão. Por ora, o desafio legal da Anthropic acrescenta um novo ponto de tensão ao debate sobre como os EUA devem equilibrar imperativos de segurança, liberdades civis e a rápida implementação de sistemas avançados de IA em operações militares e de inteligência.
Resumindo, as duas ações judiciais da Anthropic marcam um confronto decisivo entre uma desenvolvedora de IA de rápido crescimento e o establishment de defesa dos EUA, com resultados que podem reverberar na segurança nacional, na política tecnológica e nas batalhas de liberdade de expressão corporativa em 2024 e além.