Ler para transferir a aplicação Gate
qrCode
Mais opções de transferência
Não me lembre disso novamente hoje.

Mistral Lança Mistral 3: Modelos Open-Source de Próxima Geração para Empresas e IA de Borda

Em Resumo

A Mistral acaba de lançar o Mistral 3, uma nova família de 10 modelos open-weight, desenhados para funcionar em tudo, desde cloud de consumo a portáteis, drones e robôs.

Mistral Introduces Mistral 3: Versatile Family Of 10 Open-Weight Models

A startup de IA Mistral revelou o Mistral 3, a mais recente geração dos seus modelos, composta por três modelos densos compactos e de alto desempenho com 14B, 8B e 3B parâmetros, juntamente com o Mistral Large 3, o seu modelo mais avançado até à data—um sistema sparse mixture-of-experts treinado com 41B ativos e 675B parâmetros totais. Todos os modelos estão disponíveis sob a licença Apache 2.0, proporcionando aos programadores acesso open-source em múltiplos formatos comprimidos para suportar aplicações de IA distribuídas.

Os modelos Ministral foram desenhados para uma forte eficiência de desempenho face ao custo, enquanto o Mistral Large 3 se posiciona entre os principais modelos open-source ajustados por instruções. Treinado de raiz em 3.000 GPUs NVIDIA H200, o Mistral Large 3 marca o primeiro lançamento mixture-of-experts da empresa desde a série Mixtral e representa um avanço significativo no pré-treinamento. Após o pós-treinamento, iguala os principais modelos open-weight ajustados por instruções em prompts gerais e demonstra compreensão avançada de imagens, bem como capacidades superiores de conversação multilingue.

O Mistral Large 3 estreou-se em #2 in the OSS non-reasoning models category and #6 na geral do ranking LMArena. Ambas as versões, base e ajustada por instruções, são lançadas sob Apache 2.0, oferecendo uma plataforma robusta para personalização empresarial e de programadores, estando prevista uma versão de reasoning para lançamento futuro.

Mistral Faz Parceria com NVIDIA, vLLM e Red Hat para Melhorar Acessibilidade e Desempenho do Mistral 3

O Mistral Large 3 foi tornado altamente acessível à comunidade open-source através de colaborações com a vLLM e a Red Hat. Um checkpoint em formato NVFP4, otimizado com llm-compressor, permite uma execução eficiente em sistemas Blackwell NVL72 ou num único nó 8×A100 ou 8×H100 usando vLLM.

O desenvolvimento de modelos avançados de IA open-source depende de uma otimização extensiva de hardware e software, conseguida em parceria com a NVIDIA. Todos os modelos Mistral 3, incluindo o Large 3 e o Ministral 3, foram treinados em GPUs NVIDIA Hopper, utilizando memória HBM3e de elevada largura de banda para workloads de larga escala. A abordagem de co-design da NVIDIA integra hardware, software e modelos para permitir inferência eficiente usando TensorRT-LLM e SGLang em toda a família Mistral 3, suportando execução de baixa precisão.

Para a arquitetura sparse mixture-of-experts do Large 3, a NVIDIA implementou Blackwell attention e kernels MoE, adicionou serving prefill/decode desagregado e colaborou em decoding especulativo, permitindo aos programadores lidar com workloads de contexto longo e alto throughput em sistemas GB200 NVL72 e além. Os modelos Ministral também estão otimizados para deployment em DGX Spark, PCs e portáteis RTX, e dispositivos Jetson, proporcionando uma experiência consistente e de alto desempenho desde centros de dados até aplicações edge. A Mistral agradece à vLLM, Red Hat e NVIDIA pelo apoio e colaboração.

Ministral 3: Desempenho de IA Avançado para Deployments Edge e Locais

A série Ministral 3 foi desenhada para deployments edge e locais, disponível em três tamanhos—3B, 8B e 14B parâmetros. Cada tamanho está disponível em variantes base, instruct e reasoning, todas com compreensão de imagem e lançadas sob a licença Apache 2.0. Combinada com capacidades multimodais e multilingues nativas, a família Ministral 3 oferece soluções versáteis tanto para aplicações empresariais como de programadores.

A série apresenta uma relação custo/desempenho excecional entre os modelos open-source, com variantes instruct a igualar ou superar modelos comparáveis enquanto geram significativamente menos tokens. Para cenários onde a precisão é fundamental, as variantes reasoning podem realizar cálculos prolongados para alcançar precisão líder dentro da sua classe de peso, como 85% no AIME ’25 com o modelo 14B.

O Mistral 3 está atualmente acessível através do Mistral AI Studio, Amazon Bedrock, Azure Foundry, Hugging Face (Large 3 & Ministral), Modal, IBM WatsonX, OpenRouter, Fireworks, Unsloth AI, e Together AI, estando brevemente disponível na NVIDIA NIM e AWS SageMaker.

A Mistral mantém-se como um dos principais contribuintes para o ecossistema europeu de modelos de IA e iniciativas open-source, embora o seu mais recente modelo de topo ainda fique atrás dos principais concorrentes da indústria em termos de desempenho, velocidade e custo. As variantes Ministral mais pequenas podem oferecer uma alternativa mais prática, proporcionando opções flexíveis para diferentes casos de uso e deployment em vários dispositivos.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)