DeepSeek 2 декабря представил две новые модели: DeepSeek-V3.2 и специализированную DeepSeek-V3.2-Speciale, ориентированную на математическое мышление. Официальные представители заявили, что эти две модели продолжают изначальный экспериментальный подход, нацеленный на полное улучшение навыков рассуждения, использования инструментов и способности к длительному мышлению. DeepSeek также подчеркивает, что финальная версия V3.2 уже демонстрирует результаты в нескольких тестах на рассуждение, сопоставимые с GPT-5 и Gemini-3 Pro, а версия Speciale достигла международного уровня золотой медали в математических и информационных конкурсах.
Экспериментальная версия ведёт, официальная версия V3.2 вступает в игру
DeepSeek в сентябре запустил V3.2-Exp, позиционируя его как экспериментальную платформу для следующего поколения ИИ. Официальная версия DeepSeek-V3.2, которая была выпущена на этот раз, больше не имеет в названии «Exp», символизируя более зрелые функции.
Официальное заявление: новая версия V3.2 показывает результаты, близкие к GPT-5 и Gemini-3 Pro в нескольких тестах на рассуждение, и особенно подчеркивается, что это первый раз, когда они тесно интегрировали «модель мышления» и «применение инструментов» в модель, которая одновременно поддерживает как модель мышления, так и не-модель мышления. Из нижеприведенного изображения можно увидеть:
«DeepSeek-V3.2 доказал свою способность к использованию инструментов через бенчмаркинг, сопоставимый с ведущими моделями, такими как GPT-5 и Gemini-3 Pro.»
Способности к анализу улучшены, инструменты объединены в главный акцент.
DeepSeek сообщает, что основная особенность V3.2 заключается в возможности объединять процесс рассуждения с использованием инструментов. Иными словами, модель может одновременно обдумывать что-то и вызывать внешние инструменты, такие как поисковые системы, калькуляторы, исполняемые программы и т.д., что делает общий процесс выполнения задач более полным, более автономным и более близким к способу, которым люди решают проблемы.
Speciale сосредоточен на длинных рассуждениях, математические показатели достигают уровня золотой медали
Помимо стандартной версии V3.2, DeepSeek также выпустил другую версию DeepSeek-V3.2-Speciale. Эта версия предназначена для сложных математических рассуждений и длительного мышления.
Официальная цель заключается в том, чтобы исследовать пределы возможностей вывода открытых моделей и даже посмотреть, какие границы может достичь сама модель. Судя по результатам, Speciale достиг уровня золотой медали на международной математической олимпиаде (IMO), международной олимпиаде по информатике (IOI) и других конкурсах, а его способности вывода сопоставимы с последней версией Gemini-3 Pro от Google. Из нижеприведенной диаграммы видно:
«DeepSeek-V3.2-Speciale достигла уровня золотой медали на международных математических и информационных конкурсах, демонстрируя производительность, превосходящую или сопоставимую с GPT-5, Gemini-3 Pro и Kimi-K2 в нескольких тестах на вывод и программирование.»
Новый метод тренировки раскрыт, возможности AI-агента снова усилены
Вне модели DeepSeek также обнародовал новое исследование, а именно они разработали новый метод обучения AI-агентов. Эти агенты могут самостоятельно взаимодействовать с внешней средой, анализировать данные и принимать решения, не требуя постоянных указаний от человека.
DeepSeek подчеркивает, что это базовая технология, разработанная для повышения эффективности работы ИИ и более быстрого реагирования.
Продолжая месяцовой объем, темп разработки продолжает ускоряться
DeepSeek привлек внимание всего мира в январе этого года благодаря своей прорывной модели. Серия V3.2 — это их最新ий результат, продолжение исследовательской динамики после того успеха. Накануне запуска V3.2, DeepSeek на прошлой неделе выпустил DeepSeekMath-V2, открытую модель, нацеленную на доказательство математических теорем, что демонстрирует их продолжающееся усиление в области логики и математики.
Технический отчет готов, мощность V3.2 близка к GPT-5 и Kimi
DeepSeek также опубликовала технический отчет “DeepSeek-V3.2: Pushing the Frontier of Open Large Language Models”, в котором отмечается, что V3.2 показывает схожие результаты в нескольких тестах на вывод с GPT-5 и Kimi-k2-thinking.
Этот отчет также подчеркивает, что конкурентоспособность китайских локальных открытых моделей в области вывода по-прежнему находится на том же уровне, что и у международных ведущих моделей.
Эта статья о DeepSeek, который недавно выпустил V3.2 и Speciale, с производительностью и эффективностью, приближающейся к GPT-5 и Gemini 3, впервые появилась в Chain News ABMedia.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
DeepSeek новый V3.2 и Speciale, их вывод и производительность почти сравнимы с GPT-5, Gemini 3
DeepSeek 2 декабря представил две новые модели: DeepSeek-V3.2 и специализированную DeepSeek-V3.2-Speciale, ориентированную на математическое мышление. Официальные представители заявили, что эти две модели продолжают изначальный экспериментальный подход, нацеленный на полное улучшение навыков рассуждения, использования инструментов и способности к длительному мышлению. DeepSeek также подчеркивает, что финальная версия V3.2 уже демонстрирует результаты в нескольких тестах на рассуждение, сопоставимые с GPT-5 и Gemini-3 Pro, а версия Speciale достигла международного уровня золотой медали в математических и информационных конкурсах.
Экспериментальная версия ведёт, официальная версия V3.2 вступает в игру
DeepSeek в сентябре запустил V3.2-Exp, позиционируя его как экспериментальную платформу для следующего поколения ИИ. Официальная версия DeepSeek-V3.2, которая была выпущена на этот раз, больше не имеет в названии «Exp», символизируя более зрелые функции.
Официальное заявление: новая версия V3.2 показывает результаты, близкие к GPT-5 и Gemini-3 Pro в нескольких тестах на рассуждение, и особенно подчеркивается, что это первый раз, когда они тесно интегрировали «модель мышления» и «применение инструментов» в модель, которая одновременно поддерживает как модель мышления, так и не-модель мышления. Из нижеприведенного изображения можно увидеть:
«DeepSeek-V3.2 доказал свою способность к использованию инструментов через бенчмаркинг, сопоставимый с ведущими моделями, такими как GPT-5 и Gemini-3 Pro.»
Способности к анализу улучшены, инструменты объединены в главный акцент.
DeepSeek сообщает, что основная особенность V3.2 заключается в возможности объединять процесс рассуждения с использованием инструментов. Иными словами, модель может одновременно обдумывать что-то и вызывать внешние инструменты, такие как поисковые системы, калькуляторы, исполняемые программы и т.д., что делает общий процесс выполнения задач более полным, более автономным и более близким к способу, которым люди решают проблемы.
Speciale сосредоточен на длинных рассуждениях, математические показатели достигают уровня золотой медали
Помимо стандартной версии V3.2, DeepSeek также выпустил другую версию DeepSeek-V3.2-Speciale. Эта версия предназначена для сложных математических рассуждений и длительного мышления.
Официальная цель заключается в том, чтобы исследовать пределы возможностей вывода открытых моделей и даже посмотреть, какие границы может достичь сама модель. Судя по результатам, Speciale достиг уровня золотой медали на международной математической олимпиаде (IMO), международной олимпиаде по информатике (IOI) и других конкурсах, а его способности вывода сопоставимы с последней версией Gemini-3 Pro от Google. Из нижеприведенной диаграммы видно:
«DeepSeek-V3.2-Speciale достигла уровня золотой медали на международных математических и информационных конкурсах, демонстрируя производительность, превосходящую или сопоставимую с GPT-5, Gemini-3 Pro и Kimi-K2 в нескольких тестах на вывод и программирование.»
Новый метод тренировки раскрыт, возможности AI-агента снова усилены
Вне модели DeepSeek также обнародовал новое исследование, а именно они разработали новый метод обучения AI-агентов. Эти агенты могут самостоятельно взаимодействовать с внешней средой, анализировать данные и принимать решения, не требуя постоянных указаний от человека.
DeepSeek подчеркивает, что это базовая технология, разработанная для повышения эффективности работы ИИ и более быстрого реагирования.
Продолжая месяцовой объем, темп разработки продолжает ускоряться
DeepSeek привлек внимание всего мира в январе этого года благодаря своей прорывной модели. Серия V3.2 — это их最新ий результат, продолжение исследовательской динамики после того успеха. Накануне запуска V3.2, DeepSeek на прошлой неделе выпустил DeepSeekMath-V2, открытую модель, нацеленную на доказательство математических теорем, что демонстрирует их продолжающееся усиление в области логики и математики.
Технический отчет готов, мощность V3.2 близка к GPT-5 и Kimi
DeepSeek также опубликовала технический отчет “DeepSeek-V3.2: Pushing the Frontier of Open Large Language Models”, в котором отмечается, что V3.2 показывает схожие результаты в нескольких тестах на вывод с GPT-5 и Kimi-k2-thinking.
Этот отчет также подчеркивает, что конкурентоспособность китайских локальных открытых моделей в области вывода по-прежнему находится на том же уровне, что и у международных ведущих моделей.
Эта статья о DeepSeek, который недавно выпустил V3.2 и Speciale, с производительностью и эффективностью, приближающейся к GPT-5 и Gemini 3, впервые появилась в Chain News ABMedia.