Porque é que a OpenAI está, afinal, a tentar acompanhar o Claude Code?

Inside OpenAI』s Race to Catch Up to Claude Code Corrida da OpenAI para alcançar o Claude Code

Maxwell Zeff, Wired Tradução: Peggy, BlockBeats

Maxwell Zeff, Wired Tradução: Peggy, BlockBeats

Fonte original:

Reprodução: Mars Finance

Fonte original:

Reprodução: Mars Finance

Editor: Num momento em que a revolução na programação com IA está em rápido crescimento, a OpenAI, que liderou a onda de IA generativa com o ChatGPT, tornou-se inesperadamente uma “perdedora” nesta corrida crucial. Em contraste, a Anthropic, fundada por ex-membros da OpenAI, ganhou destaque rapidamente na comunidade de desenvolvedores e no mercado empresarial com o Claude Code, tornando-se uma das principais líderes no campo de ferramentas de programação com IA.

Este artigo, baseado em entrevistas com executivos, engenheiros e diversos desenvolvedores da OpenAI, revela o verdadeiro processo por trás desta competição: desde a divisão do projeto Codex, a realocação de recursos para o ChatGPT e modelos multimodais, até a reestruturação interna e o lançamento acelerado de produtos de programação com IA. A OpenAI está passando por uma transformação de negligência estratégica para uma corrida de recuperação total. Em certo sentido, isso não é uma questão de capacidade técnica inferior, mas de desalinhamento no ritmo estratégico: a explosão do ChatGPT mudou as prioridades da empresa, e a parceria com a Microsoft limitou o caminho do produto, enquanto a Anthropic apostou cedo na corrida de programação com IA.

Por trás desta competição, surgem questões mais profundas: à medida que os agentes de IA assumem cada vez mais tarefas cognitivas, o próprio fluxo de trabalho de desenvolvimento de software e até o trabalho de escritório podem ser redefinidos.

A seguir, o texto original:

O CEO da OpenAI, Sam Altman, senta-se com as pernas cruzadas na cadeira de escritório, olhando para o teto, como se estivesse refletindo sobre uma resposta ainda por formar. Em certa medida, isso também tem a ver com o ambiente.

A sede da OpenAI, localizada em Mission Bay, São Francisco, é um edifício moderno de vidro e madeira clara, quase um “templo da tecnologia”. Na vitrine atrás do balcão, há manuais sobre as “Eras of AI”, como se traçassem um caminho para revelações tecnológicas. Nas paredes das escadas, posters de marcos do desenvolvimento da IA cobrem as paredes, incluindo uma que registra um momento: milhares de espectadores assistindo ao vivo enquanto uma máquina derrota uma equipe de eSports de elite em “Dota 2”. No corredor, pesquisadores com camisetas de equipe com slogans, um deles dizendo: “Boa pesquisa leva tempo.” Claro, idealmente, não precisa demorar muito.

Estamos numa grande sala de reuniões. A minha pergunta para Altman diz respeito à revolução na programação com IA que está varrendo a indústria, e por que a OpenAI parece não estar na liderança dessa onda.

Hoje, milhões de engenheiros de software começaram a delegar parte do trabalho de programação para a IA, forçando muitos na Silicon Valley a enfrentarem uma realidade: a automação pode afetar seus próprios empregos. Agentes de codificação tornaram-se um dos poucos cenários em que empresas estão dispostas a pagar altos valores por IA. Por lógica, esse momento poderia — e deveria — ser o próximo “momento de vitória” nas paredes da escada da OpenAI. Mas, atualmente, o nome que ocupa as manchetes não é o dela.

A concorrente é a Anthropic, uma startup de IA fundada por ex-membros da OpenAI. Com seu produto de agentes de programação, Claude Code, a Anthropic cresceu exponencialmente. Em fevereiro, a empresa revelou que esse produto já representava quase um quinto de sua receita, equivalente a uma receita anual superior a US$ 2,5 bilhões. Em comparação, uma fonte familiarizada revelou que, até o final de janeiro, a receita anual do produto de programação próprio da OpenAI, o Codex, era pouco acima de US$ 1 bilhão.

A questão é: por que, nesta corrida de programação com IA, a OpenAI ficou para trás?

“Vantagem de ser o primeiro é muito valiosa”, disse Altman após uma pausa, “e já experimentamos isso com o ChatGPT.”

No entanto, na visão dele, agora é o momento de a OpenAI intensificar sua atuação na programação com IA. Ele acredita que os modelos atuais da empresa já são suficientemente poderosos para suportar agentes de programação altamente complexos. Claro, essa capacidade não é por acaso; a empresa investiu bilhões de dólares no treinamento desses modelos.

“Isso será um negócio enorme”, disse Altman, “não só pelo valor econômico que traz, mas também pelo potencial de liberar produtividade geral através da programação.” Ele fez uma pausa e acrescentou: “Raramente uso essa palavra, mas acho que esse mercado pode chegar a dezenas de trilhões de dólares.”

Mais adiante, ele acredita que o Codex talvez seja o caminho mais provável para a inteligência artificial geral (AGI). Segundo a definição da OpenAI, uma AGI é um sistema de IA capaz de superar os humanos na maioria das tarefas de valor econômico.

Apesar de Altman fazer essa avaliação com calma e confiança, a realidade interna da empresa nos últimos anos é muito mais complexa. Para entender melhor essa história, entrevistei mais de 30 pessoas com conhecimento interno, incluindo atuais executivos e funcionários que aceitaram falar sob condição de anonimato, além de ex-funcionários que compartilharam detalhes sobre o funcionamento interno. Com base nessas narrativas, surge uma situação incomum: a OpenAI está realmente correndo atrás.

Voltando a 2021, quando Altman e outros executivos convidaram o jornalista Steven Levy, da WIRED, para visitar seu escritório inicial em Mission, São Francisco, para uma demonstração de uma nova tecnologia. Era um projeto derivado do GPT-3, treinado com uma grande quantidade de código aberto do GitHub.

Na demonstração, os executivos mostraram como a ferramenta chamada Codex podia receber comandos em linguagem natural e gerar trechos de código simples.

“Ela realmente pode executar operações no mundo do computador por você”, explicou Greg Brockman, presidente e cofundador da OpenAI, na época, “você tem um sistema que realmente executa comandos.” Mesmo naquela época, os pesquisadores da OpenAI já consideravam que o Codex seria a chave para construir um “super assistente”.

Naquele período, a agenda de Altman e Brockman estava quase toda ocupada com reuniões com a Microsoft — que era o maior investidor da OpenAI. A Microsoft planejava usar o Codex para suportar um de seus primeiros produtos de IA comercializados: o GitHub Copilot, uma ferramenta de autocompletar código que poderia ser integrada ao ambiente de desenvolvimento dos programadores.

Um ex-funcionário da OpenAI lembra que, naquela fase, o Codex “basicamente só fazia autocompletar”. Mas os executivos da Microsoft ainda viam isso como um sinal importante do advento da IA.

Em junho de 2022, quando o GitHub Copilot foi lançado oficialmente, em poucos meses, conquistou centenas de milhares de usuários.

A equipe responsável pelo Codex foi posteriormente realocada para outros projetos. Um ex-funcionário lembra que a avaliação na época era que, no futuro, os modelos já teriam capacidade de programação, então não fazia sentido manter uma equipe dedicada ao Codex por muito tempo. Alguns engenheiros foram transferidos para o desenvolvimento do DALL-E 2, outros focaram no treinamento do GPT-4. Naquela época, acreditava-se que esse era o caminho mais próximo para a AGI.

Depois, em novembro de 2022, o ChatGPT foi lançado e, em dois meses, atingiu mais de 100 milhões de usuários. Quase todos os outros projetos internos foram suspensos. Nos anos seguintes, a OpenAI praticamente não teve uma equipe dedicada exclusivamente a produtos de programação com IA. Um ex-membro que trabalhou no Codex relata que, após o sucesso do ChatGPT, a programação com IA deixou de fazer parte da nova estratégia de “prioridade de produtos de consumo”. Ao mesmo tempo, a indústria em geral acreditava que essa área já estava “coberta” pelo GitHub Copilot, que era, na essência, uma iniciativa da Microsoft. A OpenAI fornecia apenas o suporte de modelos subjacentes.

Assim, em 2023 e 2024, a OpenAI direcionou seus recursos para modelos multimodais de IA e agentes inteligentes. Esses sistemas foram projetados para entender texto, imagens, vídeos e áudio simultaneamente, além de manipular o cursor e o teclado como humanos. Essa direção parecia mais alinhada às tendências do setor na época: modelos de geração de imagens, como o Midjourney, rapidamente se tornaram populares nas redes sociais, e a indústria acreditava que grandes modelos de linguagem precisariam “ver” e “ouvir” o mundo para alcançar níveis mais avançados de inteligência.

Por outro lado, a Anthropic escolheu um caminho diferente. Embora também estivesse desenvolvendo chatbots e modelos multimodais, a empresa parece ter percebido mais cedo o potencial da capacidade de programação. Em um recente podcast, Brockman admitiu que a Anthropic desde cedo “foi altamente focada em habilidades de programação”. Ele destacou que, ao treinar seus modelos, a empresa usou não só problemas complexos de programação de competições acadêmicas, mas também uma grande quantidade de código “caótico” de repositórios reais.

“Essa foi uma lição que só percebemos depois”, disse Brockman.

No início de 2024, a Anthropic começou a treinar o Claude 3.5 Sonnet usando esses dados de repositórios de código reais. Quando o modelo foi lançado em junho, muitos usuários ficaram impressionados com suas habilidades de programação.

Esse desempenho foi especialmente validado por uma startup chamada Cursor, fundada por um grupo de jovens na faixa dos vinte anos, que desenvolveu uma ferramenta de programação com IA que permite aos desenvolvedores descrever suas necessidades em linguagem natural, e a IA modifica o código diretamente. Quando o Cursor integrou o novo modelo da Anthropic, sua base de usuários cresceu rapidamente, segundo uma fonte próxima à empresa.

Meses depois, a Anthropic começou a testar internamente seu agente de programação, o Claude Code.

Com a popularidade do Cursor crescendo, a OpenAI tentou adquirir essa startup. Mas, segundo várias fontes próximas, a equipe fundadora recusou a proposta antes mesmo de as negociações avançarem. Eles acreditam que o potencial da indústria de programação com IA é enorme e querem continuar independentes.

Naquela época, a OpenAI estava treinando seu primeiro “modelo de raciocínio”, o OpenAI o1. Esses modelos podiam fazer raciocínios passo a passo antes de dar uma resposta. A OpenAI afirmou que esse modelo se destacou especialmente na “geração precisa e depuração de códigos complexos”.

Mishchenko explica que uma razão importante para o avanço na capacidade de programação dos modelos de IA é que a programação é uma “tarefa verificável”. O código funciona ou não funciona, o que fornece um sinal de feedback muito claro para o modelo. Se há um erro, o sistema consegue identificar rapidamente onde está o problema. A OpenAI usou esse ciclo de feedback para treinar continuamente o o1 em problemas de programação cada vez mais complexos.

“Se não fosse a capacidade de explorar livremente os repositórios de código, implementar modificações e testar seus próprios resultados — que fazem parte do ‘raciocínio’ —, os agentes de programação atuais não atingiriam o nível que têm hoje”, afirmou.

Até dezembro de 2024, vários pequenos times dentro da OpenAI já estavam focados em agentes de programação com IA. Um desses times, liderado por Mishchenko e Thibault Sottiaux, que foi anteriormente na Google DeepMind e agora lidera o Codex, inicialmente tinha interesse na automação de tarefas repetitivas, como gerenciar treinamentos de modelos e monitorar clusters de GPUs.

Outro esforço paralelo, liderado por Alexander Embiricos, que foi responsável por projetos multimodais na OpenAI e agora lidera o produto do Codex, envolvia um projeto chamado Jam, que rapidamente se espalhou na empresa.

Diferente de controlar o computador com mouse e teclado, o Jam acessava diretamente o terminal do sistema. Em 2021, a demonstração do Codex mostrava IA gerando código para humanos, que depois era executado manualmente; a versão de Embiricos podia executar esses códigos por conta própria. Ele lembra de uma página que mostrava, em seu laptop, o registro em tempo real das ações do Jam, que o deixou quase impressionado.

“Por um tempo, achei que a interação multimodal poderia ser o caminho para realizar nossa missão. Como as pessoas passam o dia compartilhando telas e trabalhando junto com IA”, disse Embiricos. “Depois, ficou muito claro: talvez a verdadeira solução seja dar ao modelo acesso programático direto ao computador.”

Esses projetos dispersos levaram meses para se consolidar em uma direção unificada. Em início de 2025, quando a OpenAI treinou o o3, um modelo mais avançado para tarefas de programação do que o o1, a empresa finalmente tinha a base tecnológica para construir um produto de programação com IA de verdade. Mas, ao mesmo tempo, a Anthropic já estava pronta para lançar o Claude Code.

Antes do lançamento do Claude Code (em fevereiro de 2025, como uma “prévia de pesquisa limitada”, e em maio, de forma completa), o padrão dominante na área de programação com IA era o “vibe coding”. Desenvolvedores usavam ferramentas de IA para impulsionar projetos, com o humano controlando a direção e a IA ajudando na implementação. Essas ferramentas já atraíam investimentos de centenas de milhões de dólares.

Porém, o novo produto da Anthropic mudou esse padrão. Como o Jam, o Claude Code podia rodar diretamente na linha de comando do computador, acessando todos os arquivos e aplicativos do desenvolvedor. A programação deixou de ser apenas “assistida por IA” para ser uma tarefa entregue totalmente ao agente de IA.

Diante dessa mudança, a OpenAI acelerou o lançamento de produtos concorrentes. Sottiaux lembra que, em março de 2025, formou uma “equipe de sprint” para integrar rapidamente várias equipes internas e lançar um produto de programação com IA o mais rápido possível.

Ao mesmo tempo, Altman tentou adquirir uma startup de programação com IA, a Windsurf, por US$ 3 bilhões. A ideia era obter um produto maduro, uma equipe experiente e uma base de clientes já estabelecida.

No entanto, a aquisição foi interrompida. Segundo o Wall Street Journal, o problema foi a parceria com a Microsoft, que queria acesso à propriedade intelectual da Windsurf. Desde 2021, a Microsoft usa os modelos da OpenAI para suportar o GitHub Copilot, que se tornou destaque nas chamadas de resultados financeiros da Microsoft. Mas, com o lançamento de novos agentes de programação, como o Claude Code, o Copilot parece estar estagnado na geração de código de uma geração anterior. Para a Microsoft, lançar um novo produto de programação da OpenAI poderia não ser uma boa notícia.

A negociação ocorreu justamente num momento de tensão máxima entre a OpenAI e a Microsoft, que estavam renegociando seus acordos de parceria, com a OpenAI tentando reduzir o controle da Microsoft sobre seus produtos de IA e recursos computacionais. No final, a aquisição da Windsurf foi abandonada em julho. Depois, a Google contratou a equipe fundadora da Windsurf, enquanto os demais funcionários foram adquiridos por outra startup de IA de programação, a Cognition.

“Claro que eu queria que a transação fosse concluída”, disse Altman. “Mas nem toda negociação está sob nosso controle.” Ele afirmou que, embora esperasse que a aquisição da Windsurf acelerasse seu progresso, também ficou impressionado com o avanço da equipe do Codex. Enquanto as negociações continuavam, Sottiaux e Embiricos continuaram desenvolvendo produtos e lançando atualizações.

Em agosto, Altman decidiu acelerar ainda mais o ritmo.

Greg Brockman costuma avaliar as capacidades de IA com um jogo que ele mesmo criou, chamado “Teste de Turing reverso”. Há alguns anos, ele escreveu o código do jogo, e agora deixa que uma IA o implemente do zero.

As regras são simples: dois humanos sentam-se em computadores diferentes, cada um com duas janelas de chat. Uma janela conecta-se a outro humano, a outra, à IA. O objetivo é descobrir qual janela é a IA, enquanto tenta fazer o oponente pensar que você também é uma IA.

Brockman conta que, na maior parte do ano passado, o modelo mais avançado da OpenAI levava horas para montar esse jogo, e ainda precisava de muitas instruções humanas claras. Mas, em dezembro, o Codex já conseguia gerar uma versão totalmente funcional com um prompt bem elaborado, usando o novo modelo GPT-5.2.

Essa mudança chamou atenção de desenvolvedores ao redor do mundo, que perceberam que a capacidade de agentes de programação com IA tinha dado um salto evidente. As discussões sobre IA de programação, inicialmente centradas no Claude Code, rapidamente ultrapassaram o círculo técnico de Silicon Valley e se tornaram pauta da mídia mainstream.

Até mesmo usuários comuns, sem experiência em programação, começaram a usar IA para criar seus próprios projetos de software.

Esse aumento no uso não foi por acaso. Durante esse período, tanto a Anthropic quanto a OpenAI investiram pesado para atrair mais usuários de agentes de programação com IA. Vários desenvolvedores disseram à WIRED que seus planos de assinatura de US$ 200 por mês para Codex ou Claude Code, na prática, oferecem mais de US$ 1.000 em créditos de uso. Essa política de limites generosos é, na essência, uma estratégia de mercado: fazer os desenvolvedores se acostumarem a usar IA na rotina, antes de cobrar pelo uso em ambientes empresariais.

Fontes próximas revelaram que, em setembro de 2025, o uso do Codex era cerca de 5% do do Claude Code. Mas, em janeiro de 2026, a base de usuários do Codex já representava cerca de 40% da do Claude Code.

Um desenvolvedor com 10 anos de experiência em startups, George Pickett, começou a organizar encontros presenciais focados no Codex.

“Está claro que estamos usando agentes de IA para substituir o trabalho de escritório”, disse Pickett. “Quanto ao impacto social, ninguém sabe ao certo. Vai causar um impacto enorme, mas, no geral, sou bastante otimista.”

Ao mesmo tempo, Simon Last, cofundador de uma empresa de software de eficiência avaliada em cerca de US$ 110 bilhões, Notion, afirmou que, após o lançamento do GPT-5.2, sua equipe de engenharia passou a usar principalmente o Codex, por sua maior estabilidade.

“Percebi que o Claude Code muitas vezes ‘me engana’”, disse Last. “Ele diz que a tarefa está em andamento, mas, na verdade, não está.”

Katy Shi, responsável por estudar o comportamento do Codex na OpenAI, afirmou que, embora alguns descrevam o estilo padrão do Codex como “pão seco”, cada vez mais usuários passaram a apreciar essa comunicação mais direta e sem rodeios. “Muita do trabalho de engenharia envolve receber feedback crítico sem se sentir ofendido”, explicou.

Empresas maiores também começaram a adotar o Codex. Fidji Simo, CEO de aplicações na OpenAI, afirmou: “ChatGPT já virou sinônimo de IA, o que nos dá uma vantagem enorme no mercado B2B. As empresas preferem implantar tecnologias que seus funcionários já conhecem.” Ela acrescentou que a estratégia principal de vendas do Codex é empacotá-lo junto com o ChatGPT e outros produtos da OpenAI.

Jeetu Patel, presidente e diretor de produtos da Cisco, deixou claro para os funcionários que não precisam se preocupar com o custo de usar o Codex, pois o mais importante é que eles se familiarizem rapidamente com a ferramenta. Quando questionado se o uso dessas ferramentas poderia levar ao desemprego, Patel respondeu: “Não. Mas posso garantir que, se você não usá-las, ficará para trás, pois perderá competitividade.”

Hoje, a ansiedade em torno dos agentes de programação com IA ultrapassa o círculo técnico de Silicon Valley. O Wall Street Journal, no mês passado, atribuiu uma rodada de vendas de ações de tecnologia, avaliada em US$ 1 trilhão, à preocupação de que o desenvolvimento de software possa ser rapidamente substituído por IA em larga escala. Algumas semanas depois, após a Anthropic anunciar que o Claude Code poderia ser usado para modernizar sistemas legados em COBOL — comum em máquinas IBM —, as ações da IBM tiveram seu pior dia em 25 anos.

Ao mesmo tempo, a OpenAI trabalha para colocar os agentes de programação com IA na discussão pública. A empresa gastou milhões de dólares em um anúncio durante o Super Bowl, promovendo o Codex, em vez de focar no ChatGPT.

No escritório da sede da OpenAI em Mission Bay, quase ninguém precisa ser convencido a usar o Codex. Muitos engenheiros que entrevistei disseram que, atualmente, raramente escrevem código manualmente, passando a maior parte do tempo conversando com o Codex. Às vezes, até fazem “comunicação coletiva”.

Na sede, assisti a um hackathon do Codex. Cerca de 100 engenheiros estavam em uma sala grande, cada um com quatro horas para criar o melhor projeto de demonstração usando o Codex. Um executivo da OpenAI ficava na frente, olhando seu laptop, anunciando o nome da equipe pelo microfone. Os representantes das equipes subiam nervosos ao palco, apresentando seus projetos de IA com vozes trêmulas. O vencedor ganhou uma mochila Patagonia.

Muitos desses projetos foram feitos com o Codex ou visam ajudar engenheiros a usá-lo melhor. Por exemplo, uma equipe criou uma ferramenta que organiza automaticamente mensagens do Slack em relatórios semanais; outra desenvolveu um guia interno de IA semelhante à Wikipedia, explicando os serviços internos da OpenAI. Antes, esses protótipos levavam dias ou semanas para ficar prontos; agora, uma tarde é suficiente.

Na saída, encontrei Kevin Weil, ex-executivo do Instagram, agora responsável pelo departamento “OpenAI for Science”. Ele me contou que o Codex está ajudando a realizar tarefas durante a noite, e ele revisa os resultados na manhã seguinte. Essa rotina já é comum para ele e centenas de outros funcionários da OpenAI. Uma das metas da empresa para 2026 é criar um “estagiário automatizado” para pesquisa em IA.

Simo afirmou que, no futuro, o Codex não será apenas uma ferramenta de programação, mas um motor de execução de tarefas para o ChatGPT e outros produtos da OpenAI, realizando diversas tarefas práticas para os usuários. Altman também quer lançar uma versão geral do Codex, mas ainda se preocupa com riscos de segurança.

Ele contou que, em janeiro de 2026, um amigo sem background técnico pediu ajuda para instalar um agente de programação de IA muito popular, o OpenClaw. Altman recusou, achando que “ainda não é uma boa ideia”, pois o OpenClaw poderia excluir arquivos importantes por engano.

De forma irônica, algumas semanas depois, a OpenAI anunciou que contratou os desenvolvedores do OpenClaw.

Muitos desenvolvedores disseram que a competição entre Codex e Claude Code nunca foi tão acirrada. Mas, à medida que essas ferramentas evoluem e são cada vez mais incorporadas às rotinas empresariais, os problemas sociais vão além de simplesmente escolher qual ferramenta usar.

Alguns órgãos reguladores temem que, na corrida para alcançar o Claude Code, a OpenAI possa negligenciar questões de segurança. Uma organização sem fins lucrativos, o Midas Project, acusou a OpenAI de enfraquecer suas promessas de segurança ao lançar o GPT-5.3-Codex, sem divulgar adequadamente os riscos de segurança cibernética do modelo.

A OpenAI rebateu, afirmando que não sacrificou segurança para avançar o Codex, e que o Midas Project interpretou mal seus compromissos de segurança.

Até mesmo Greg Brockman, cofundador da OpenAI, que doou US$ 25 milhões para apoiar o desenvolvimento de IA por meio de um comitê político pró-IA e uma organização pró-Trump, e que permanece otimista ao afirmar que “estamos no caminho para a AGI”, tem sentimentos ambíguos sobre essa nova realidade.

Na comunidade de engenheiros do Vale do Silício, Brockman é conhecido por seu estilo de gestão “extremamente dedicado”: aquele que revisa detalhes de código na véspera de lançamentos de produtos. Em certa medida, esse estilo mais “solto” atualmente o deixa mais relaxado. “Você percebe que, no passado, sua mente ficava presa a muitos detalhes desnecessários”, disse.

Por outro lado, ao se tornar “CEO de uma frota de centenas de milhares de agentes de IA” que executam seus objetivos e visões, fica difícil mergulhar nos detalhes de cada problema.

“De certa forma, isso faz você sentir que está perdendo o pulso do problema”, concluiu Brockman.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar