Mistral AI đã phát hành Mixtral 8x22B, thiết lập chuẩn mực mới cho các mô hình nguồn mở về hiệu suất và hiệu quả. Mô hình này tự hào có khả năng đa ngôn ngữ mạnh mẽ và khả năng Token hoá và toán học vượt trội.
Mixtral 8x22B hoạt động như mô hình Hỗn hợp chuyên gia thưa thớt (SMoE), chỉ sử dụng 39 tỷ trong số 141 tỷ tham số của nó khi hoạt động.
Ngoài tính hiệu quả, Mixtral 8x22B còn tự hào có khả năng thông thạo nhiều ngôn ngữ chính bao gồm tiếng Anh, tiếng Pháp, tiếng Ý, tiếng Đức và tiếng Tây Ban Nha. Sự thành thạo của nó mở rộng sang các lĩnh vực kỹ thuật với khả năng toán học và Token hoá mạnh mẽ. Đáng chú ý, mô hình này hỗ trợ chức năng gọi hàm gốc được ghép nối với ‘chế độ đầu ra bị ràng buộc’, tạo điều kiện thuận lợi cho việc phát triển ứng dụng và nâng cấp công nghệ quy mô lớn.
Với cửa sổ ngữ cảnh 64K Token đáng kể, Mixtral 8x22B đảm bảo thu hồi thông tin chính xác từ các tài liệu đồ sộ, hấp dẫn hơn nữa đối với việc sử dụng ở cấp doanh nghiệp nơi việc xử lý các tập dữ liệu mở rộng là thường xuyên.
Để thúc đẩy môi trường nghiên cứu AI hợp tác và đổi mới, Mistral AI đã phát hành Mixtral 8x22B theo license Apache 2.0. license nguồn mở có tính dễ dãi cao này đảm bảo việc sử dụng không hạn chế và cho phép áp dụng rộng rãi.
Theo thống kê, Mixtral 8x22B vượt trội hơn nhiều mẫu hiện có. Khi so sánh trực tiếp về các tiêu chuẩn tiêu chuẩn của ngành – từ nhận thức thông thường, lý luận đến kiến thức theo chủ đề cụ thể – cải tiến mới của Mistral vượt trội hơn. Các số liệu do Mistral AI công bố minh họa rằng Mixtral 8x22B vượt trội đáng kể so với mô hình LLaMA 2 70B trong các bối cảnh ngôn ngữ khác nhau trên các tiêu chuẩn kiến thức và lý luận phản biện:
Hơn nữa, trong lĩnh vực Token hoá và toán học, Mixtral tiếp tục thống trị các mô hình mở. Các kết quả cập nhật cho thấy sự cải thiện hiệu suất ấn tượng trong các tiêu chuẩn toán học, sau khi phát hành phiên bản hướng dẫn của mô hình:
Người dùng và nhà phát triển tiềm năng được khuyến khích khám phá Mixtral 8x22B trên La Plateforme, nền tảng tương tác của Mistral AI. Tại đây, họ có thể tương tác trực tiếp với mô hình.
Trong thời đại mà vai trò của AI ngày càng mở rộng, sự kết hợp giữa hiệu suất cao, hiệu quả và khả năng truy cập mở của Mixtral 8x22B đánh dấu một cột mốc quan trọng trong quá trình dân chủ hóa các công cụ AI tiên tiến.
(Ảnh của Joshua Golde)
Xem thêm: SAS đặt mục tiêu làm cho AI có thể truy cập được bất kể kỹ năng nào bằng các mô hình AI được đóng gói
Bạn muốn tìm hiểu thêm về AI và dữ liệu lớn từ các nhà lãnh đạo ngành? Hãy xem AI & Big Data Expo diễn ra ở Amsterdam, California và London. Sự kiện toàn diện này được tổ chức cùng với các sự kiện hàng đầu khác bao gồm BlockX, Tuần lễ Chuyển đổi số và An ninh mạng & Triển lãm đám mây.
Khám phá các sự kiện và hội thảo Online về công nghệ doanh nghiệp sắp tới khác do TechForge cung cấp tại đây.