Mistral только что выпустила Mistral 3 — новое семейство из 10 моделей с открытым кодом, предназначенных для работы на всём: от облачных сервисов до ноутбуков, дронов и роботов.
Стартап в сфере искусственного интеллекта Mistral представил Mistral 3, последнее поколение своих моделей, включающее три компактные, высокопроизводительные плотные модели с 14B, 8B и 3B параметрами, а также Mistral Large 3 — свою самую продвинутую на сегодняшний день модель, являющуюся разреженной смесью экспертов, обученной с использованием 41B активных и 675B общих параметров. Все модели доступны по лицензии Apache 2.0, предоставляя разработчикам открытый доступ к исходному коду в различных сжатых форматах для поддержки распределённых AI-приложений.
Модели Ministral созданы для высокой эффективности соотношения производительности и стоимости, а Mistral Large 3 позиционируется среди ведущих open-source моделей, дообученных на инструкциях. Обученная с нуля на 3 000 видеокартах NVIDIA H200, Mistral Large 3 стала первой смесью экспертов компании после серии Mixtral и представляет собой значительный шаг вперёд в области предобучения. После постобучения она сравнивается с лучшими инструкционно-настроенными моделями с открытым весом по общим запросам и демонстрирует продвинутую обработку изображений, а также превосходные возможности мультиязычного общения.
Mistral Large 3 дебютировала на #2 in the OSS non-reasoning models category and #6 месте в общем зачёте на лидерборде LMArena. Базовые и инструкционно-настроенные версии выпущены под лицензией Apache 2.0, предоставляя мощную платформу для кастомизации корпоративными клиентами и разработчиками; версия для рассуждений запланирована к выпуску в будущем.
Партнёрство Mistral с NVIDIA, vLLM и Red Hat для повышения доступности и производительности Mistral 3
Mistral Large 3 стала максимально доступной для open-source сообщества благодаря сотрудничеству с vLLM и Red Hat. Контрольная точка в формате NVFP4, оптимизированная с помощью llm-compressor, позволяет эффективно запускать модель на системах Blackwell NVL72 или на одном узле с 8×A100 или 8×H100 с использованием vLLM.
Разработка продвинутых open-source AI-моделей требует глубокой оптимизации аппаратного и программного обеспечения, что достигается в партнёрстве с NVIDIA. Все модели Mistral 3, включая Large 3 и Ministral 3, были обучены на GPU NVIDIA Hopper с использованием высокоскоростной памяти HBM3e для масштабных задач. Ко-дизайн NVIDIA объединяет аппаратное обеспечение, софт и модели, чтобы обеспечить эффективный инференс с помощью TensorRT-LLM и SGLang для семейства Mistral 3 с поддержкой вычислений в низкой точности.
Для разреженной архитектуры смеси экспертов Large 3 компания NVIDIA реализовала Blackwell attention и MoE-ядра, добавила раздельную подачу/декодирование, а также сотрудничала по спекулятивному декодированию, что позволяет разработчикам обрабатывать длинные контексты и высокую нагрузку на системах GB200 NVL72 и не только. Модели Ministral также оптимизированы для развёртывания на DGX Spark, ПК и ноутбуках с RTX, а также на устройствах Jetson, обеспечивая стабильную высокую производительность от дата-центров до edge-приложений. Mistral выражает благодарность vLLM, Red Hat и NVIDIA за поддержку и сотрудничество.
Ministral 3: продвинутая производительность AI для edge- и локальных развёртываний
Серия Ministral 3 создана для edge- и локальных развёртываний и предлагается в трёх размерах — 3B, 8B и 14B параметров. Каждый вариант доступен в базовой, инструкционной и reasoning-версиях, все поддерживают обработку изображений и выходят под лицензией Apache 2.0. Благодаря встроенной мультимодальности и мультиязычности, семейство Ministral 3 предлагает универсальные решения для корпоративных и разработческих задач.
Серия обеспечивает исключительное соотношение стоимости и производительности среди open-source моделей, а инструкционные варианты сравнимы с аналогами или превосходят их, генерируя при этом значительно меньше токенов. Для сценариев, где важна точность, reasoning-варианты могут выполнять длительные вычисления для достижения лидирующей точности в своём классе, например, 85% на AIME ’25 для модели 14B.
Mistral 3 уже доступна через Mistral AI Studio, Amazon Bedrock, Azure Foundry, Hugging Face (Large 3 & Ministral), Modal, IBM WatsonX, OpenRouter, Fireworks, Unsloth AI и Together AI. В ближайшее время появится на NVIDIA NIM и AWS SageMaker.
Mistral остаётся одним из ведущих участников AI-экосистемы и open-source инициатив Европы, хотя её последняя флагманская модель всё ещё отстаёт от топовых отраслевых конкурентов по производительности, скорости и стоимости. Меньшие варианты Ministral могут стать более практичной альтернативой, предоставляя гибкие решения для различных задач и развёртываний на разных устройствах.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Mistral представляет Mistral 3: модели следующего поколения с открытым исходным кодом для корпоративного и пограничного ИИ
Кратко
Mistral только что выпустила Mistral 3 — новое семейство из 10 моделей с открытым кодом, предназначенных для работы на всём: от облачных сервисов до ноутбуков, дронов и роботов.
Стартап в сфере искусственного интеллекта Mistral представил Mistral 3, последнее поколение своих моделей, включающее три компактные, высокопроизводительные плотные модели с 14B, 8B и 3B параметрами, а также Mistral Large 3 — свою самую продвинутую на сегодняшний день модель, являющуюся разреженной смесью экспертов, обученной с использованием 41B активных и 675B общих параметров. Все модели доступны по лицензии Apache 2.0, предоставляя разработчикам открытый доступ к исходному коду в различных сжатых форматах для поддержки распределённых AI-приложений.
Модели Ministral созданы для высокой эффективности соотношения производительности и стоимости, а Mistral Large 3 позиционируется среди ведущих open-source моделей, дообученных на инструкциях. Обученная с нуля на 3 000 видеокартах NVIDIA H200, Mistral Large 3 стала первой смесью экспертов компании после серии Mixtral и представляет собой значительный шаг вперёд в области предобучения. После постобучения она сравнивается с лучшими инструкционно-настроенными моделями с открытым весом по общим запросам и демонстрирует продвинутую обработку изображений, а также превосходные возможности мультиязычного общения.
Mistral Large 3 дебютировала на #2 in the OSS non-reasoning models category and #6 месте в общем зачёте на лидерборде LMArena. Базовые и инструкционно-настроенные версии выпущены под лицензией Apache 2.0, предоставляя мощную платформу для кастомизации корпоративными клиентами и разработчиками; версия для рассуждений запланирована к выпуску в будущем.
Партнёрство Mistral с NVIDIA, vLLM и Red Hat для повышения доступности и производительности Mistral 3
Mistral Large 3 стала максимально доступной для open-source сообщества благодаря сотрудничеству с vLLM и Red Hat. Контрольная точка в формате NVFP4, оптимизированная с помощью llm-compressor, позволяет эффективно запускать модель на системах Blackwell NVL72 или на одном узле с 8×A100 или 8×H100 с использованием vLLM.
Разработка продвинутых open-source AI-моделей требует глубокой оптимизации аппаратного и программного обеспечения, что достигается в партнёрстве с NVIDIA. Все модели Mistral 3, включая Large 3 и Ministral 3, были обучены на GPU NVIDIA Hopper с использованием высокоскоростной памяти HBM3e для масштабных задач. Ко-дизайн NVIDIA объединяет аппаратное обеспечение, софт и модели, чтобы обеспечить эффективный инференс с помощью TensorRT-LLM и SGLang для семейства Mistral 3 с поддержкой вычислений в низкой точности.
Для разреженной архитектуры смеси экспертов Large 3 компания NVIDIA реализовала Blackwell attention и MoE-ядра, добавила раздельную подачу/декодирование, а также сотрудничала по спекулятивному декодированию, что позволяет разработчикам обрабатывать длинные контексты и высокую нагрузку на системах GB200 NVL72 и не только. Модели Ministral также оптимизированы для развёртывания на DGX Spark, ПК и ноутбуках с RTX, а также на устройствах Jetson, обеспечивая стабильную высокую производительность от дата-центров до edge-приложений. Mistral выражает благодарность vLLM, Red Hat и NVIDIA за поддержку и сотрудничество.
Ministral 3: продвинутая производительность AI для edge- и локальных развёртываний
Серия Ministral 3 создана для edge- и локальных развёртываний и предлагается в трёх размерах — 3B, 8B и 14B параметров. Каждый вариант доступен в базовой, инструкционной и reasoning-версиях, все поддерживают обработку изображений и выходят под лицензией Apache 2.0. Благодаря встроенной мультимодальности и мультиязычности, семейство Ministral 3 предлагает универсальные решения для корпоративных и разработческих задач.
Серия обеспечивает исключительное соотношение стоимости и производительности среди open-source моделей, а инструкционные варианты сравнимы с аналогами или превосходят их, генерируя при этом значительно меньше токенов. Для сценариев, где важна точность, reasoning-варианты могут выполнять длительные вычисления для достижения лидирующей точности в своём классе, например, 85% на AIME ’25 для модели 14B.
Mistral 3 уже доступна через Mistral AI Studio, Amazon Bedrock, Azure Foundry, Hugging Face (Large 3 & Ministral), Modal, IBM WatsonX, OpenRouter, Fireworks, Unsloth AI и Together AI. В ближайшее время появится на NVIDIA NIM и AWS SageMaker.
Mistral остаётся одним из ведущих участников AI-экосистемы и open-source инициатив Европы, хотя её последняя флагманская модель всё ещё отстаёт от топовых отраслевых конкурентов по производительности, скорости и стоимости. Меньшие варианты Ministral могут стать более практичной альтернативой, предоставляя гибкие решения для различных задач и развёртываний на разных устройствах.