Mistral AI đã công bố NeMo, một mô hình 12B được tạo ra thông qua quan hệ đối tác với NVIDIA. Mô hình mới này tự hào có cửa sổ ngữ cảnh ấn tượng lên tới 128.000 Token và tuyên bố hiệu suất tiên tiến về lý luận, kiến thức thế giới và độ chính xác của Token hoá cho danh mục kích thước của nó.
Sự hợp tác giữa Mistral AI và NVIDIA đã tạo ra một mô hình không chỉ đẩy mạnh ranh giới hiệu suất mà còn ưu tiên tính dễ sử dụng. Mistral NeMo được thiết kế để thay thế hoàn toàn cho các hệ thống hiện đang sử dụng Mistral 7B, nhờ vào sự phụ thuộc vào kiến trúc tiêu chuẩn.
Trong một động thái nhằm khuyến khích việc áp dụng và nghiên cứu sâu hơn, Mistral AI đã cung cấp cả cơ sở được đào tạo trước và các điểm kiểm tra được điều chỉnh theo hướng dẫn theo license Apache 2.0. Phương pháp tiếp cận nguồn mở này có khả năng thu hút cả các nhà nghiên cứu và doanh nghiệp, có khả năng đẩy nhanh quá trình tích hợp mô hình vào nhiều ứng dụng khác nhau.
Một trong những tính năng chính của Mistral NeMo là khả năng nhận biết lượng tử trong quá trình đào tạo, cho phép suy luận FP8 mà không ảnh hưởng đến hiệu suất. Khả năng này có thể chứng minh là rất quan trọng đối với các tổ chức muốn triển khai các mô hình ngôn ngữ lớn một cách hiệu quả.
Mistral AI đã cung cấp các so sánh hiệu suất giữa mô hình cơ sở Mistral NeMo và hai mô hình được đào tạo trước nguồn mở gần đây: Gemma 2 9B và Llama 3 8B.
Mistral AI giải thích: “Mô hình này được thiết kế cho các ứng dụng toàn cầu, đa ngôn ngữ. Nó được đào tạo về chức năng gọi, có cửa sổ ngữ cảnh lớn và đặc biệt mạnh về tiếng Anh, tiếng Pháp, tiếng Đức, tiếng Tây Ban Nha, tiếng Ý, tiếng Bồ Đào Nha, tiếng Trung, tiếng Nhật, tiếng Hàn, tiếng Ả Rập và tiếng Hindi”.
“Đây là bước tiến mới hướng tới việc đưa các mô hình AI tiên tiến đến tay mọi người bằng mọi ngôn ngữ hình thành nên nền văn hóa nhân loại.”
Mistral NeMo giới thiệu Tekken, một tokeniser mới dựa trên Tiktoken. Được đào tạo trên hơn 100 ngôn ngữ, Tekken cung cấp hiệu quả nén được cải thiện cho cả văn bản ngôn ngữ tự nhiên và mã nguồn so với tokeniser SentencePiece được sử dụng trong các mô hình Mistral trước đây. Công ty báo cáo rằng Tekken hiệu quả hơn khoảng 30% trong việc nén mã nguồn và một số ngôn ngữ chính, với mức tăng đáng kể hơn nữa đối với tiếng Hàn và tiếng Ả Rập.
Mistral AI cũng tuyên bố rằng Tekken vượt trội hơn trình phân tích cú pháp Llama 3 trong việc nén văn bản cho khoảng 85% tất cả các ngôn ngữ, có khả năng mang lại cho Mistral NeMo lợi thế trong các ứng dụng đa ngôn ngữ.
Trọng số của mô hình hiện có sẵn trên HuggingFace cho cả phiên bản cơ sở và hướng dẫn. Các nhà phát triển có thể bắt đầu thử nghiệm với Mistral NeMo bằng cách sử dụng công cụ suy luận mistral và điều chỉnh nó bằng mistral-finetune. Đối với những người sử dụng nền tảng của Mistral, mô hình có thể truy cập được dưới tên open-mistral-nemo.
Để ghi nhận sự hợp tác với NVIDIA, Mistral NeMo cũng được đóng gói dưới dạng dịch vụ vi mô suy luận NVIDIA NIM, có sẵn thông qua ai.nvidia.com. Sự tích hợp này có thể hợp lý hóa việc triển khai cho các tổ chức đã đầu tư vào hệ sinh thái AI của NVIDIA.
Việc phát hành Mistral NeMo là một bước tiến đáng kể trong quá trình dân chủ hóa các mô hình AI tiên tiến. Bằng cách kết hợp hiệu suất cao, khả năng đa ngôn ngữ và tính khả dụng của mã nguồn mở, Mistral AI và NVIDIA đang định vị mô hình này như một công cụ đa năng cho nhiều ứng dụng AI trong nhiều ngành công nghiệp và lĩnh vực nghiên cứu khác nhau.
(Ảnh của David Clode)
Xem thêm: Meta tham gia cùng Apple trong việc giữ lại các mô hình AI khỏi người dùng EU
Bạn muốn tìm hiểu thêm về AI và dữ liệu lớn từ những người đi đầu trong ngành? Hãy xem Triển lãm AI & Big Data diễn ra tại Amsterdam, California và London. Sự kiện toàn diện này được tổ chức cùng với các sự kiện hàng đầu khác bao gồm Hội nghị Tự động hóa Thông minh, BlockX, Tuần lễ Chuyển đổi số và Triển lãm An ninh Mạng & Cloud.
Khám phá các sự kiện công nghệ doanh nghiệp sắp tới và hội thảo Online do TechForge hỗ trợ tại đây.