Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Pre-IPOs
Desbloqueie o acesso completo a IPO de ações globais
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Acabei de perceber que tanto Anthropic quanto OpenAI ajustaram bastante suas promessas de segurança. Na Anthropic, uma promessa central da diretriz de crescimento responsável foi simplesmente omitida — especificamente: o compromisso de pausar o treinamento de IA se as medidas de mitigação de risco não forem suficientes. Jared Kaplan, Diretor Científico da Anthropic, justifica isso com a realidade de um mercado altamente competitivo. Uma pausa unilateral, sob pressão da concorrência, simplesmente não é viável.
De forma semelhante na OpenAI: a missão foi reformulada e a palavra 'seguro' foi omitida. Em vez disso, o foco agora está em que a IA deve beneficiar a humanidade. Isso, é claro, atende às expectativas de investidores e políticos, mas também mostra como essas empresas estão pensando de forma mais pragmática agora.
O timing é interessante: a Anthropic acaba de fechar uma rodada de financiamento de 30 bilhões de dólares e é avaliada em 380 bilhões. A OpenAI busca até 100 bilhões, com apoio da Amazon, Microsoft e Nvidia. Fica claro por que essas formulações de segurança estão sendo omitidas — a pressão é enorme.
Outro ponto: a Anthropic negou ao Pentágono acesso total ao Claude, o que gerou tensões com o Secretário de Defesa dos EUA, Pete Hegseth. Isso levanta questões sobre contratos de defesa e mostra que preocupações de segurança e a realidade geopolítica às vezes entram em conflito. É interessante observar como esse setor está se redefinindo neste momento.