Скануйте, щоб завантажити додаток Gate
qrCode
Більше варіантів завантаження
Не нагадувати сьогодні

DeepSeek новий V3.2 та Speciale, інтелектуальне моделювання та продуктивність наближаються до GPT-5, Gemini 3

DeepSeek представив дві моделі 2 грудня - DeepSeek-V3.2 та спеціалізовану модель DeepSeek-V3.2-Speciale, яка орієнтована на математичне мислення. Офіційні представники зазначили, що ці дві моделі продовжують початковий експериментальний напрямок, мета якого - повне оновлення в здатності до міркування, використанні інструментів та тривалому мисленні. DeepSeek також підкреслює, що офіційна версія V3.2 вже демонструє результати в декількох тестах на міркування, які можна порівняти з GPT-5 та Gemini-3 Pro, а версія Speciale досягла міжнародного рівня золотих медалей у математичних і інформаційних конкурсах.

Експериментальна версія веде, офіційна версія V3.2 виходить на сцену

DeepSeek у вересні представив V3.2-Exp, позиціонуючи його як експериментальну платформу для наступного покоління ШІ. Офіційна версія DeepSeek-V3.2, яка була випущена цього разу, більше не має в назві «Exp», що символізує більш зрілі функції.

Офіційне повідомлення, нова версія V3.2 демонструє схожі результати в декількох тестах на міркування з GPT-5 та Gemini-3 Pro, і особливо підкреслює, що це їх перша модель, яка тісно інтегрує “моделі мислення” та “використання інструментів”, а також підтримує як моделі мислення, так і немислення. З наведеного нижче малюнка можна дізнатися:

«DeepSeek-V3.2 через результати бенчмаркінгу доводить, що його інструменти можуть бути на одному рівні з провідними моделями, такими як GPT-5, Gemini-3 Pro.»

Покращена здатність до аналізу, інтеграція інструментів стала головною перевагою.

DeepSeek повідомляє, що великою перевагою V3.2 є можливість об'єднати процеси розумування та використання інструментів. Іншими словами, модель може одночасно здійснювати роздуми над певною справою, а також викликати зовнішні інструменти, такі як пошукові системи, калькулятори, виконувані коди тощо, що робить загальний процес обробки завдань більш повним, автономним і ближчим до способу, яким люди вирішують проблеми.

Speciale зосереджується на довгих міркуваннях, математичні показники досягають рівня золотої медалі

Окрім стандартної версії V3.2, DeepSeek також випустив іншу версію DeepSeek-V3.2-Speciale. Ця версія спеціально розроблена для складних математичних міркувань та тривалого мислення.

Офіційна позиція полягає в тому, щоб дослідити межі можливостей відкритого моделювання, а також подивитися, які межі може досягти модель сама. Судячи з результатів, Speciale досягла рівня золотої медалі на міжнародній математичній олімпіаді (IMO), міжнародній інформаційній олімпіаді (IOI) та інших конкурсах, а її інтерпретаційні показники є на рівні з новітнім Gemini-3 Pro від Google. З нижченаведеного зображення можна дізнатися:

«DeepSeek-V3.2-Speciale здатність до міркування досягла золотого рівня міжнародних математичних та інформаційних змагань, перевершуючи або зрівнюючи з результатами в багатьох тестах на міркування та програмування, такими як GPT-5, Gemini-3 Pro та Kimi-K2.»

Новий метод навчання розкрито, можливості AI-агента знову посилено

Поза моделлю DeepSeek також оприлюднила нове дослідження, яке полягає в тому, що вони вже розробили новий метод для навчання AI-агентів. Ці агенти можуть самостійно взаємодіяти з зовнішнім середовищем, аналізувати дані, приймати рішення без необхідності постійно отримувати вказівки від людини.

DeepSeek підкреслює, що це базова технологія, розроблена для підвищення ефективності виконання та швидкості реагування штучного інтелекту.

Продовжуючи обсяги в січні, темп розробки продовжує прискорюватися

DeepSeek привернув глобальну увагу в січні цього року завдяки проривній моделі. Серія V3.2, яка з'явилася цього разу, є їхнім останнім досягненням у продовженні дослідницької динаміки після того успіху. Напередодні релізу V3.2, DeepSeek минулого тижня випустив DeepSeekMath-V2, відкриту модель, що спеціалізується на доведеннях математичних теорем, що демонструє їхнє постійне посилення в області логіки та математики.

Технічний звіт вийшов, V3.2 здатність до міркування наближається до GPT-5 та Kimi

DeepSeek також опублікувала технічний звіт «DeepSeek-V3.2: Pushing the Frontier of Open Large Language Models», у якому зазначається, що V3.2 за багатьма тестами на виведення демонструє результати, схожі на GPT-5 та Kimi-k2-thinking.

Цей звіт також підкреслює, що конкурентоспроможність китайських місцевих моделей з відкритим кодом у сфері виведення даних залишається на тому ж рівні, що й у міжнародних провідних моделей.

Ця стаття про DeepSeek, який щойно випустив V3.2 та Speciale, його здатності та ефективність наближаються до GPT-5, Gemini 3, вперше з'явилася в ланцюгових новинах ABMedia.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Популярні активності Gate FunДізнатися більше
  • Рин. кап.:$3.6KХолдери:1
    0.00%
  • Рин. кап.:$3.83KХолдери:6
    0.99%
  • Рин. кап.:$3.86KХолдери:2
    1.97%
  • Рин. кап.:$3.62KХолдери:1
    0.00%
  • Рин. кап.:$3.63KХолдери:1
    0.20%
  • Закріпити