Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Chris Davis
Nghiên cứu @MessariCrypto | Mua đỉnh, bán đáy từ năm 21 | NFA
Pháp đã tham gia cuộc trò chuyện

Artificial Analysis6 giờ trước
Mistral vừa ra mắt mô hình trọng số mở lớn mới của họ, Mistral Large 3 (675B tổng, 41B hoạt động), cùng với một bộ ba mô hình Ministral (3B, 8B, 14B)
Mistral đã phát hành các biến thể Instruct (không lý luận) của cả bốn mô hình, cũng như các biến thể lý luận của ba mô hình Ministral. Tất cả các mô hình đều hỗ trợ đầu vào đa phương thức và hiện có sẵn với giấy phép Apache 2.0 trên @huggingface. Chúng tôi đã đánh giá Mistral Large 3 và các biến thể Instruct của ba mô hình Ministral trước khi ra mắt.
Mô hình có điểm số cao nhất của Mistral trong Chỉ số Phân tích Trí tuệ Nhân tạo vẫn là Magistral Medium 1.2 độc quyền, được ra mắt cách đây vài tháng vào tháng 9 - điều này là do lý luận mang lại cho các mô hình một lợi thế đáng kể trong nhiều đánh giá mà chúng tôi sử dụng. Mistral tiết lộ rằng một phiên bản lý luận của Mistral Large 3 đã đang trong quá trình đào tạo và chúng tôi mong chờ được đánh giá nó sớm!
Những điểm nổi bật chính:
➤ Mô hình lớn và nhỏ: với 675B tổng và 41B hoạt động, Mistral Large 3 là mô hình hỗn hợp chuyên gia trọng số mở đầu tiên của Mistral kể từ Mixtral 8x7B và 8x22B vào cuối năm 2023 đến đầu năm 2024. Các phiên bản Ministral có mật độ cao với các biến thể tham số 3B, 8B và 14B
➤ Tăng cường trí tuệ đáng kể nhưng không nằm trong số các mô hình hàng đầu (bao gồm cả độc quyền): Mistral Large 3 đại diện cho một nâng cấp đáng kể so với Mistral Large 2 trước đó với mức tăng 11 điểm trên Chỉ số Trí tuệ lên 38. Tuy nhiên, Large 3 vẫn tụt lại phía sau các mô hình lý luận và không lý luận độc quyền hàng đầu
➤ Mô hình nhỏ đa năng: các mô hình Ministral được phát hành với trọng số biến thể Base, Instruct và Reasoning - chúng tôi chỉ thử nghiệm các biến thể Instruct trước khi phát hành, đạt được điểm số Chỉ số là 31 (14B), 28 (8B) và 22 (3B). Điều này đặt Ministral 14B đứng trước Mistral Small 3.2 trước đó với 40% số tham số ít hơn. Chúng tôi đang làm việc để đánh giá các biến thể lý luận và sẽ chia sẻ kết quả trí tuệ của chúng sớm.
➤ Khả năng đa phương thức: tất cả các mô hình trong bản phát hành đều hỗ trợ đầu vào văn bản và hình ảnh - đây là một yếu tố phân biệt đáng kể cho Mistral Large 3, vì rất ít mô hình trọng số mở trong lớp kích thước của nó có hỗ trợ đầu vào hình ảnh. Độ dài ngữ cảnh cũng tăng lên 256k, cho phép các nhiệm vụ đầu vào lớn hơn.
Những mô hình mới này từ Mistral không phải là một bước thay đổi từ sự cạnh tranh trọng số mở, nhưng chúng đại diện cho một nền tảng hiệu suất mạnh mẽ với khả năng thị giác. Các biến thể 8B và 14B của Ministral cung cấp hiệu suất đặc biệt hấp dẫn cho kích thước của chúng, và chúng tôi rất hào hứng để xem cộng đồng sử dụng và phát triển trên những mô hình này như thế nào.
Tại thời điểm ra mắt, các mô hình mới có sẵn cho suy diễn không máy chủ trên @MistralAI và một loạt các nhà cung cấp khác bao gồm @awscloud Bedrock, @Azure AI Foundry, @IBMwatsonx, @FireworksAI_HQ, @togethercompute, và @modal.

348
Hàng đầu
Thứ hạng
Yêu thích

