Mistral vừa ra mắt Mistral 3, một dòng sản phẩm mới gồm 10 mô hình mã nguồn mở, được thiết kế để chạy trên mọi nền tảng từ đám mây tiêu dùng đến máy tính xách tay, máy bay không người lái và robot.
Startup AI Mistral vừa giới thiệu Mistral 3, thế hệ mới nhất của các mô hình của họ, bao gồm ba mô hình dense nhỏ gọn, hiệu suất cao với 14 tỷ, 8 tỷ và 3 tỷ tham số, cùng với Mistral Large 3, mô hình tiên tiến nhất đến thời điểm hiện tại—một hệ thống mixture-of-experts thưa được huấn luyện với 41 tỷ tham số hoạt động và tổng cộng 675 tỷ tham số. Tất cả các mô hình đều được phát hành theo giấy phép Apache 2.0, cung cấp quyền truy cập mã nguồn mở cho các nhà phát triển ở nhiều định dạng nén để hỗ trợ các ứng dụng AI phân tán.
Các mô hình Ministral được thiết kế để tối ưu hiệu suất trên chi phí, trong khi Mistral Large 3 định vị mình là một trong những mô hình mã nguồn mở được tinh chỉnh hướng dẫn hàng đầu. Được huấn luyện từ đầu trên 3.000 GPU NVIDIA H200, Mistral Large 3 đánh dấu lần phát hành mixture-of-experts đầu tiên của công ty kể từ dòng Mixtral và là bước tiến lớn trong pretraining. Sau giai đoạn post-training, nó sánh ngang với các mô hình open-weight hàng đầu được tinh chỉnh theo hướng dẫn về các prompt tổng quát và thể hiện khả năng hiểu hình ảnh nâng cao cũng như khả năng hội thoại đa ngôn ngữ vượt trội.
Mistral Large 3 ra mắt ở vị trí #2 in the OSS non-reasoning models category and #6 tổng thể trên bảng xếp hạng LMArena. Cả phiên bản cơ bản lẫn phiên bản tinh chỉnh hướng dẫn đều được phát hành theo Apache 2.0, cung cấp nền tảng vững chắc cho doanh nghiệp và tùy chỉnh của nhà phát triển, với một phiên bản reasoning dự kiến sẽ phát hành trong tương lai.
Mistral hợp tác với NVIDIA, vLLM và Red Hat để nâng cao khả năng tiếp cận và hiệu suất của Mistral 3
Mistral Large 3 đã được cộng đồng mã nguồn mở tiếp cận dễ dàng thông qua hợp tác với vLLM và Red Hat. Một checkpoint ở định dạng NVFP4, được tối ưu hóa với llm-compressor, cho phép chạy hiệu quả trên hệ thống Blackwell NVL72 hoặc một node 8×A100 hoặc 8×H100 sử dụng vLLM.
Sự phát triển của các mô hình AI mã nguồn mở tiên tiến dựa vào tối ưu hóa phần cứng-phần mềm chuyên sâu, đạt được nhờ hợp tác với NVIDIA. Tất cả các mô hình Mistral 3, bao gồm Large 3 và Ministral 3, đã được huấn luyện trên GPU NVIDIA Hopper, sử dụng bộ nhớ HBM3e băng thông cao cho các khối lượng công việc quy mô lớn. Phương pháp đồng thiết kế của NVIDIA tích hợp phần cứng, phần mềm và mô hình nhằm kích hoạt suy luận hiệu quả bằng TensorRT-LLM và SGLang trên toàn bộ dòng Mistral 3, hỗ trợ thực thi độ chính xác thấp.
Đối với kiến trúc mixture-of-experts thưa của Large 3, NVIDIA đã triển khai attention Blackwell và các kernel MoE, bổ sung phục vụ prefill/decode tách rời, đồng thời hợp tác về speculative decoding, cho phép các nhà phát triển xử lý các khối lượng công việc ngữ cảnh dài, thông lượng cao trên hệ thống GB200 NVL72 và hơn thế nữa. Các mô hình Ministral cũng được tối ưu hóa để triển khai trên DGX Spark, PC và laptop RTX, cũng như thiết bị Jetson, mang lại trải nghiệm hiệu suất cao nhất quán từ trung tâm dữ liệu đến ứng dụng biên. Mistral gửi lời cảm ơn đến vLLM, Red Hat, và NVIDIA vì sự hỗ trợ và hợp tác của họ.
Ministral 3: Hiệu suất AI tiên tiến cho triển khai biên và cục bộ
Dòng sản phẩm Ministral 3 được thiết kế cho triển khai biên và cục bộ, cung cấp ba kích thước—3B, 8B và 14B tham số. Mỗi kích thước đều có các biến thể base, instruct và reasoning, tất cả đều có khả năng hiểu hình ảnh và phát hành theo giấy phép Apache 2.0. Kết hợp với khả năng đa phương thức và đa ngôn ngữ nguyên bản, dòng Ministral 3 cung cấp các giải pháp đa dạng cho cả doanh nghiệp lẫn ứng dụng phát triển.
Dòng sản phẩm này mang lại tỷ lệ chi phí-hiệu suất xuất sắc so với các mô hình mã nguồn mở khác, với các biến thể instruct sánh ngang hoặc vượt trội các mô hình tương đương trong khi sinh ra ít token hơn đáng kể. Trong các trường hợp yêu cầu độ chính xác cao, các biến thể reasoning có thể thực hiện tính toán mở rộng để đạt độ chính xác hàng đầu trong phân khúc, như 85% trên AIME ’25 với mô hình 14B.
Mistral 3 hiện đã có thể truy cập qua Mistral AI Studio, Amazon Bedrock, Azure Foundry, Hugging Face (Large 3 & Ministral), Modal, IBM WatsonX, OpenRouter, Fireworks, Unsloth AI, và Together AI, với sự xuất hiện trên NVIDIA NIM và AWS SageMaker trong thời gian tới.
Mistral vẫn là một trong những đóng góp hàng đầu cho hệ sinh thái mô hình AI và các sáng kiến mã nguồn mở của châu Âu, mặc dù mô hình chủ lực mới nhất của họ vẫn tụt hậu so với các đối thủ hàng đầu về hiệu suất, tốc độ và chi phí. Các biến thể Ministral nhỏ hơn có thể là lựa chọn thực tế hơn, cung cấp các tùy chọn linh hoạt cho nhiều trường hợp sử dụng và triển khai trên các thiết bị khác nhau.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Mistral ra mắt Mistral 3: Các mô hình mã nguồn mở thế hệ mới cho doanh nghiệp và AI biên
Tóm tắt
Mistral vừa ra mắt Mistral 3, một dòng sản phẩm mới gồm 10 mô hình mã nguồn mở, được thiết kế để chạy trên mọi nền tảng từ đám mây tiêu dùng đến máy tính xách tay, máy bay không người lái và robot.
Startup AI Mistral vừa giới thiệu Mistral 3, thế hệ mới nhất của các mô hình của họ, bao gồm ba mô hình dense nhỏ gọn, hiệu suất cao với 14 tỷ, 8 tỷ và 3 tỷ tham số, cùng với Mistral Large 3, mô hình tiên tiến nhất đến thời điểm hiện tại—một hệ thống mixture-of-experts thưa được huấn luyện với 41 tỷ tham số hoạt động và tổng cộng 675 tỷ tham số. Tất cả các mô hình đều được phát hành theo giấy phép Apache 2.0, cung cấp quyền truy cập mã nguồn mở cho các nhà phát triển ở nhiều định dạng nén để hỗ trợ các ứng dụng AI phân tán.
Các mô hình Ministral được thiết kế để tối ưu hiệu suất trên chi phí, trong khi Mistral Large 3 định vị mình là một trong những mô hình mã nguồn mở được tinh chỉnh hướng dẫn hàng đầu. Được huấn luyện từ đầu trên 3.000 GPU NVIDIA H200, Mistral Large 3 đánh dấu lần phát hành mixture-of-experts đầu tiên của công ty kể từ dòng Mixtral và là bước tiến lớn trong pretraining. Sau giai đoạn post-training, nó sánh ngang với các mô hình open-weight hàng đầu được tinh chỉnh theo hướng dẫn về các prompt tổng quát và thể hiện khả năng hiểu hình ảnh nâng cao cũng như khả năng hội thoại đa ngôn ngữ vượt trội.
Mistral Large 3 ra mắt ở vị trí #2 in the OSS non-reasoning models category and #6 tổng thể trên bảng xếp hạng LMArena. Cả phiên bản cơ bản lẫn phiên bản tinh chỉnh hướng dẫn đều được phát hành theo Apache 2.0, cung cấp nền tảng vững chắc cho doanh nghiệp và tùy chỉnh của nhà phát triển, với một phiên bản reasoning dự kiến sẽ phát hành trong tương lai.
Mistral hợp tác với NVIDIA, vLLM và Red Hat để nâng cao khả năng tiếp cận và hiệu suất của Mistral 3
Mistral Large 3 đã được cộng đồng mã nguồn mở tiếp cận dễ dàng thông qua hợp tác với vLLM và Red Hat. Một checkpoint ở định dạng NVFP4, được tối ưu hóa với llm-compressor, cho phép chạy hiệu quả trên hệ thống Blackwell NVL72 hoặc một node 8×A100 hoặc 8×H100 sử dụng vLLM.
Sự phát triển của các mô hình AI mã nguồn mở tiên tiến dựa vào tối ưu hóa phần cứng-phần mềm chuyên sâu, đạt được nhờ hợp tác với NVIDIA. Tất cả các mô hình Mistral 3, bao gồm Large 3 và Ministral 3, đã được huấn luyện trên GPU NVIDIA Hopper, sử dụng bộ nhớ HBM3e băng thông cao cho các khối lượng công việc quy mô lớn. Phương pháp đồng thiết kế của NVIDIA tích hợp phần cứng, phần mềm và mô hình nhằm kích hoạt suy luận hiệu quả bằng TensorRT-LLM và SGLang trên toàn bộ dòng Mistral 3, hỗ trợ thực thi độ chính xác thấp.
Đối với kiến trúc mixture-of-experts thưa của Large 3, NVIDIA đã triển khai attention Blackwell và các kernel MoE, bổ sung phục vụ prefill/decode tách rời, đồng thời hợp tác về speculative decoding, cho phép các nhà phát triển xử lý các khối lượng công việc ngữ cảnh dài, thông lượng cao trên hệ thống GB200 NVL72 và hơn thế nữa. Các mô hình Ministral cũng được tối ưu hóa để triển khai trên DGX Spark, PC và laptop RTX, cũng như thiết bị Jetson, mang lại trải nghiệm hiệu suất cao nhất quán từ trung tâm dữ liệu đến ứng dụng biên. Mistral gửi lời cảm ơn đến vLLM, Red Hat, và NVIDIA vì sự hỗ trợ và hợp tác của họ.
Ministral 3: Hiệu suất AI tiên tiến cho triển khai biên và cục bộ
Dòng sản phẩm Ministral 3 được thiết kế cho triển khai biên và cục bộ, cung cấp ba kích thước—3B, 8B và 14B tham số. Mỗi kích thước đều có các biến thể base, instruct và reasoning, tất cả đều có khả năng hiểu hình ảnh và phát hành theo giấy phép Apache 2.0. Kết hợp với khả năng đa phương thức và đa ngôn ngữ nguyên bản, dòng Ministral 3 cung cấp các giải pháp đa dạng cho cả doanh nghiệp lẫn ứng dụng phát triển.
Dòng sản phẩm này mang lại tỷ lệ chi phí-hiệu suất xuất sắc so với các mô hình mã nguồn mở khác, với các biến thể instruct sánh ngang hoặc vượt trội các mô hình tương đương trong khi sinh ra ít token hơn đáng kể. Trong các trường hợp yêu cầu độ chính xác cao, các biến thể reasoning có thể thực hiện tính toán mở rộng để đạt độ chính xác hàng đầu trong phân khúc, như 85% trên AIME ’25 với mô hình 14B.
Mistral 3 hiện đã có thể truy cập qua Mistral AI Studio, Amazon Bedrock, Azure Foundry, Hugging Face (Large 3 & Ministral), Modal, IBM WatsonX, OpenRouter, Fireworks, Unsloth AI, và Together AI, với sự xuất hiện trên NVIDIA NIM và AWS SageMaker trong thời gian tới.
Mistral vẫn là một trong những đóng góp hàng đầu cho hệ sinh thái mô hình AI và các sáng kiến mã nguồn mở của châu Âu, mặc dù mô hình chủ lực mới nhất của họ vẫn tụt hậu so với các đối thủ hàng đầu về hiệu suất, tốc độ và chi phí. Các biến thể Ministral nhỏ hơn có thể là lựa chọn thực tế hơn, cung cấp các tùy chọn linh hoạt cho nhiều trường hợp sử dụng và triển khai trên các thiết bị khác nhau.