DeepSeek lançou dois novos modelos em 12/2, que são o DeepSeek-V3.2 e o DeepSeek-V3.2-Speciale, que se especializa em raciocínio matemático. A empresa afirmou que esses dois modelos continuam na direção experimental inicial, com o objetivo de atualizar completamente suas capacidades de raciocínio, uso de ferramentas e habilidades de pensamento prolongado. A DeepSeek também enfatizou que a versão oficial V3.2 já pode ser comparada ao GPT-5 e Gemini-3 Pro em vários testes de raciocínio, enquanto a versão Speciale alcançou um nível de medalha de ouro internacional em competições de matemática e informática.
Versão experimental a liderar, versão oficial V3.2 a assumir o comando.
A DeepSeek, ao lançar a versão V3.2-Exp em setembro, posicionou-a como uma plataforma experimental rumo à próxima geração de IA. A versão oficial lançada agora, DeepSeek-V3.2, não possui mais a designação “Exp”, simbolizando funcionalidades mais maduras.
A explicação oficial indica que o novo V3.2 apresenta um desempenho semelhante ao GPT-5 e Gemini-3 Pro em vários testes de raciocínio, enfatizando que esta é a primeira vez que eles integram de forma estreita o “modo de pensamento” com a “aplicação de ferramentas” em um modelo, e que suporta simultaneamente modos de pensamento e não pensamento. A partir da imagem abaixo, pode-se concluir:
“DeepSeek-V3.2 provou, através de testes de referência, que a sua capacidade de utilização de ferramentas é comparável a modelos de topo como o GPT-5 e o Gemini-3 Pro.”
Capacidade de raciocínio aprimorada, ferramentas integradas como o maior destaque
A DeepSeek afirma que o grande destaque da V3.2 é a capacidade de combinar o processo de raciocínio com o uso de ferramentas. Em outras palavras, o modelo pode chamar motores de busca, calculadoras, executores de código e outras ferramentas externas enquanto pensa sobre algo, tornando o processo de tratamento da tarefa mais completo, mais autônomo e mais próximo da maneira como os humanos lidam com problemas.
Speciale foca em raciocínio de longo prazo, desempenho matemático alcançando nível de medalha de ouro.
Além da versão padrão V3.2, a DeepSeek lançou simultaneamente outra versão, DeepSeek-V3.2-Speciale. Esta versão foi projetada especificamente para raciocínio matemático de alta dificuldade e para longos períodos de reflexão.
A posição oficial é a de explorar os limites da capacidade de raciocínio de modelos de código aberto, e até mesmo ver até onde o próprio modelo pode chegar. Em termos de desempenho, o Speciale alcançou o nível de medalha de ouro em competições como a Olimpíada Internacional de Matemática (IMO) e a Olimpíada Internacional de Informática (IOI), e seu desempenho de raciocínio é comparável ao mais recente Gemini-3 Pro do Google. A partir da imagem abaixo, podemos concluir:
“A capacidade de raciocínio do DeepSeek-V3.2-Speciale atingiu o nível de medalha de ouro em competições internacionais de matemática e informação, superando ou igualando o desempenho do GPT-5, Gemini-3 Pro e Kimi-K2 em vários testes de benchmark de raciocínio e programação.”
Novo método de treinamento revelado, capacidade de agente de IA reforçada
Para além do modelo, a DeepSeek também divulgou uma nova pesquisa, na qual desenvolveram um novo método para treinar agentes de IA. Esses agentes conseguem interagir com o ambiente externo, analisar dados e tomar decisões sem a necessidade de instruções humanas contínuas.
A DeepSeek enfatiza que esta é a tecnologia básica que eles projetaram para permitir que a IA opere com maior eficiência e reaja mais rapidamente.
Continua um mês de volume de voz, o ritmo de desenvolvimento continua a acelerar
A DeepSeek chamou a atenção global em janeiro deste ano devido a um modelo revolucionário. A série V3.2, que é o mais recente resultado da continuidade de sua pesquisa após aquele sucesso. Antes do lançamento da V3.2, a DeepSeek lançou na semana passada o DeepSeekMath-V2, um modelo de código aberto focado na prova de teoremas matemáticos, mostrando que eles estão continuamente fortalecendo suas capacidades nas áreas de raciocínio e matemática.
Relatório técnico publicado, V3.2 com capacidade de inferência próxima do GPT-5 e Kimi
A DeepSeek também lançou o relatório técnico “DeepSeek-V3.2: Pushing the Frontier of Open Large Language Models”, apontando que a V3.2 apresenta desempenho semelhante ao GPT-5 e Kimi-k2-thinking em vários testes de referência de raciocínio.
Este relatório também enfatiza que a competitividade dos modelos de código aberto locais da China na área de inferência continua a estar no mesmo nível que os modelos de topo internacionais.
Este artigo DeepSeek lançou V3.2 e Speciale, com raciocínio e desempenho que se aproximam do GPT-5 e Gemini 3, apareceu pela primeira vez na Chain News ABMedia.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
DeepSeek lança V3.2 e Speciale, com inferência e desempenho quase iguais ao GPT-5 e Gemini 3
DeepSeek lançou dois novos modelos em 12/2, que são o DeepSeek-V3.2 e o DeepSeek-V3.2-Speciale, que se especializa em raciocínio matemático. A empresa afirmou que esses dois modelos continuam na direção experimental inicial, com o objetivo de atualizar completamente suas capacidades de raciocínio, uso de ferramentas e habilidades de pensamento prolongado. A DeepSeek também enfatizou que a versão oficial V3.2 já pode ser comparada ao GPT-5 e Gemini-3 Pro em vários testes de raciocínio, enquanto a versão Speciale alcançou um nível de medalha de ouro internacional em competições de matemática e informática.
Versão experimental a liderar, versão oficial V3.2 a assumir o comando.
A DeepSeek, ao lançar a versão V3.2-Exp em setembro, posicionou-a como uma plataforma experimental rumo à próxima geração de IA. A versão oficial lançada agora, DeepSeek-V3.2, não possui mais a designação “Exp”, simbolizando funcionalidades mais maduras.
A explicação oficial indica que o novo V3.2 apresenta um desempenho semelhante ao GPT-5 e Gemini-3 Pro em vários testes de raciocínio, enfatizando que esta é a primeira vez que eles integram de forma estreita o “modo de pensamento” com a “aplicação de ferramentas” em um modelo, e que suporta simultaneamente modos de pensamento e não pensamento. A partir da imagem abaixo, pode-se concluir:
“DeepSeek-V3.2 provou, através de testes de referência, que a sua capacidade de utilização de ferramentas é comparável a modelos de topo como o GPT-5 e o Gemini-3 Pro.”
Capacidade de raciocínio aprimorada, ferramentas integradas como o maior destaque
A DeepSeek afirma que o grande destaque da V3.2 é a capacidade de combinar o processo de raciocínio com o uso de ferramentas. Em outras palavras, o modelo pode chamar motores de busca, calculadoras, executores de código e outras ferramentas externas enquanto pensa sobre algo, tornando o processo de tratamento da tarefa mais completo, mais autônomo e mais próximo da maneira como os humanos lidam com problemas.
Speciale foca em raciocínio de longo prazo, desempenho matemático alcançando nível de medalha de ouro.
Além da versão padrão V3.2, a DeepSeek lançou simultaneamente outra versão, DeepSeek-V3.2-Speciale. Esta versão foi projetada especificamente para raciocínio matemático de alta dificuldade e para longos períodos de reflexão.
A posição oficial é a de explorar os limites da capacidade de raciocínio de modelos de código aberto, e até mesmo ver até onde o próprio modelo pode chegar. Em termos de desempenho, o Speciale alcançou o nível de medalha de ouro em competições como a Olimpíada Internacional de Matemática (IMO) e a Olimpíada Internacional de Informática (IOI), e seu desempenho de raciocínio é comparável ao mais recente Gemini-3 Pro do Google. A partir da imagem abaixo, podemos concluir:
“A capacidade de raciocínio do DeepSeek-V3.2-Speciale atingiu o nível de medalha de ouro em competições internacionais de matemática e informação, superando ou igualando o desempenho do GPT-5, Gemini-3 Pro e Kimi-K2 em vários testes de benchmark de raciocínio e programação.”
Novo método de treinamento revelado, capacidade de agente de IA reforçada
Para além do modelo, a DeepSeek também divulgou uma nova pesquisa, na qual desenvolveram um novo método para treinar agentes de IA. Esses agentes conseguem interagir com o ambiente externo, analisar dados e tomar decisões sem a necessidade de instruções humanas contínuas.
A DeepSeek enfatiza que esta é a tecnologia básica que eles projetaram para permitir que a IA opere com maior eficiência e reaja mais rapidamente.
Continua um mês de volume de voz, o ritmo de desenvolvimento continua a acelerar
A DeepSeek chamou a atenção global em janeiro deste ano devido a um modelo revolucionário. A série V3.2, que é o mais recente resultado da continuidade de sua pesquisa após aquele sucesso. Antes do lançamento da V3.2, a DeepSeek lançou na semana passada o DeepSeekMath-V2, um modelo de código aberto focado na prova de teoremas matemáticos, mostrando que eles estão continuamente fortalecendo suas capacidades nas áreas de raciocínio e matemática.
Relatório técnico publicado, V3.2 com capacidade de inferência próxima do GPT-5 e Kimi
A DeepSeek também lançou o relatório técnico “DeepSeek-V3.2: Pushing the Frontier of Open Large Language Models”, apontando que a V3.2 apresenta desempenho semelhante ao GPT-5 e Kimi-k2-thinking em vários testes de referência de raciocínio.
Este relatório também enfatiza que a competitividade dos modelos de código aberto locais da China na área de inferência continua a estar no mesmo nível que os modelos de topo internacionais.
Este artigo DeepSeek lançou V3.2 e Speciale, com raciocínio e desempenho que se aproximam do GPT-5 e Gemini 3, apareceu pela primeira vez na Chain News ABMedia.