Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
A chefe de robótica da OpenAI deixou o cargo devido a um acordo com o Pentágono - ForkLog: criptomoedas, IA, singularidade, futuro
Em resposta ao controverso acordo da OpenAI com o Departamento de Defesa dos EUA, Caitlin Kalinowski deixou o cargo de chefe de hardware da empresa.
Kalinowski trabalhou na Apple no hardware dos computadores Mac, depois passou para a Meta, tornando-se uma das engenheiras principais no departamento Reality Labs. Em 2024, juntou-se à OpenAI, assumindo a direção de robótica e hardware de consumo.
Em sua declaração, destacou que a decisão foi «sobre princípios, não sobre pessoas», expressando «profundo respeito» pelo CEO da OpenAI, Sam Altman, e pela equipa do startup.
Um representante da OpenAI destacou que o acordo com o Pentágono «cria um caminho para o uso responsável de IA em segurança nacional, ao mesmo tempo que define linhas vermelhas claras: nenhuma vigilância interna e nenhuma arma autónoma».
O acordo entre a OpenAI e o Pentágono foi assinado no final de fevereiro, pouco depois de negociações entre a Anthropic e o Defesa terem chegado a um impasse.
Logo após, Altman admitiu que o negócio foi «apressado» e, do ponto de vista da imagem do startup, «não ficou muito bem».
A situação afetou a popularidade do ChatGPT e do Claude. O número de exclusões do primeiro chatbot aumentou 295%, enquanto o segundo atingiu o topo da classificação na App Store.
Em julho de 2025, o Departamento de Defesa dos EUA assinou contratos de até 200 milhões de dólares com a Anthropic, Google, OpenAI e xAI para desenvolver soluções de IA na área de segurança.
Em janeiro de 2026, o WSJ relatou o risco de rompimento do acordo com a Anthropic. As divergências surgiram devido à rígida política ética do startup. As regras proíbem o uso do modelo Claude para vigilância em massa e operações autônomas letais.
Em fevereiro de 2026, o exército dos EUA utilizou o Claude na operação de captura do presidente venezuelano Nicolás Maduro, o que agravou o conflito.
O CEO da empresa, Dario Amodei, reuniu-se com o ministro da Defesa, Pít Hegset, para discutir a situação. O departamento deu um ultimato: a Anthropic deve aceitar as condições do governo até 27 de fevereiro.
Dario Amodei afirmou que prefere não colaborar com o Pentágono do que aceitar o uso de suas tecnologias, o que poderia «minar, em vez de proteger, os valores democráticos».
No final de fevereiro, o presidente dos EUA, Donald Trump, ordenou que todos os órgãos federais abandonassem completamente o uso das tecnologias da Anthropic em seis meses.
Ele chamou o startup de «empresa fora de controle», dirigida por pessoas que «não têm ideia do que é o mundo real».
O Pentágono reconheceu oficialmente a Anthropic como «risco para a cadeia de fornecimento» — o que coloca em risco os negócios da empresa com outros contratantes do governo. Microsoft e Google afirmaram que continuarão a fornecer produtos da empresa.
Vai parar na justiça
Amodei afirmou que sua empresa contestará judicialmente a decisão do Departamento de Defesa de reconhecer a empresa como risco para a cadeia de fornecimento. Ele considera a decisão «juridicamente infundada».
Na declaração, afirma que a decisão do Pentágono não afeta a maioria dos clientes do Claude.
Segundo Amodei, a empresa manteve negociações produtivas com o Departamento de Defesa por vários dias, mas elas fracassaram após um vazamento de uma nota interna. Nela, o CEO descreveu a relação com o departamento como «mais uma demonstração de segurança do que uma proteção real contra riscos».
Amodei pediu desculpas pelo vazamento, afirmando que a empresa inadvertidamente revelou o conteúdo do memorando e que não deu instruções para que alguém o fizesse.
O líder do startup destacou que o documento foi escrito em poucas horas após uma série de anúncios de que a Anthropic seria removida dos sistemas federais. Ele pediu desculpas pelo tom, chamando aquele dia de «difícil para a empresa».
Amodei acrescentou que o memorando é uma «avaliação desatualizada» e não reflete uma «opinião atenta e ponderada». Segundo ele, o principal objetivo da empresa é garantir que soldados americanos e especialistas em segurança nacional tenham acesso às ferramentas essenciais durante operações militares em grande escala.
A Anthropic continuará fornecendo ao Departamento de Defesa seus modelos «ao custo nominal» pelo tempo que for necessário.
O ex-conselheiro de inteligência artificial da Casa Branca, Dean Ball, afirmou que será difícil para a empresa contestar a decisão do Pentágono.
«Os tribunais são bastante relutantes em questionar decisões do governo sobre o que constitui uma questão de segurança nacional e o que não é. É preciso superar uma barreira muito alta. Mas não é impossível», destacou o especialista.
Lembre-se, em fevereiro, a Anthropic suavizou sua política de segurança principal, justificando a mudança pela necessidade de manter a competitividade.