Acabei de perceber que tanto Anthropic quanto OpenAI ajustaram bastante suas promessas de segurança. Na Anthropic, uma promessa central da diretriz de crescimento responsável foi simplesmente omitida — especificamente: o compromisso de pausar o treinamento de IA se as medidas de mitigação de risco não forem suficientes. Jared Kaplan, Diretor Científico da Anthropic, justifica isso com a realidade de um mercado altamente competitivo. Uma pausa unilateral, sob pressão da concorrência, simplesmente não é viável.



De forma semelhante na OpenAI: a missão foi reformulada e a palavra 'seguro' foi omitida. Em vez disso, o foco agora está em que a IA deve beneficiar a humanidade. Isso, é claro, atende às expectativas de investidores e políticos, mas também mostra como essas empresas estão pensando de forma mais pragmática agora.

O timing é interessante: a Anthropic acaba de fechar uma rodada de financiamento de 30 bilhões de dólares e é avaliada em 380 bilhões. A OpenAI busca até 100 bilhões, com apoio da Amazon, Microsoft e Nvidia. Fica claro por que essas formulações de segurança estão sendo omitidas — a pressão é enorme.

Outro ponto: a Anthropic negou ao Pentágono acesso total ao Claude, o que gerou tensões com o Secretário de Defesa dos EUA, Pete Hegseth. Isso levanta questões sobre contratos de defesa e mostra que preocupações de segurança e a realidade geopolítica às vezes entram em conflito. É interessante observar como esse setor está se redefinindo neste momento.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar