Phòng thí nghiệm Endor đã bắt đầu chấm điểm các mô hình AI dựa trên tính bảo mật, mức độ phổ biến, chất lượng và hoạt động của chúng.
Được mệnh danh là ‘Điểm Endor cho Mô hình AI’, khả năng độc đáo này nhằm đơn giản hóa quy trình xác định các mô hình AI nguồn mở an toàn nhất hiện có trên Hugging Face – một nền tảng để chia sẻ Mô hình ngôn ngữ lớn (LLM), mô hình học máy và các mô hình khác các mô hình và bộ dữ liệu AI nguồn mở – bằng cách cung cấp điểm số đơn giản.
Thông báo này được đưa ra khi các nhà phát triển ngày càng chuyển sang các nền tảng như Ôm Mặt cho các mô hình AI làm sẵn, phản ánh những ngày đầu của phần mềm nguồn mở (OSS) sẵn có. Bản phát hành mới này cải thiện khả năng quản trị AI bằng cách cho phép các nhà phát triển “bắt đầu sạch” với các mô hình AI, một mục tiêu cho đến nay vẫn tỏ ra khó nắm bắt.
Varun Badhwar, Đồng sáng lập và Giám đốc điều hành của Endor Labs, cho biết: “Sứ mệnh của chúng tôi luôn là bảo mật mọi thứ mà mã của bạn phụ thuộc vào và các mô hình AI là biên giới tuyệt vời tiếp theo trong nhiệm vụ quan trọng đó.
“Mọi tổ chức đều đang thử nghiệm các mô hình AI, dù là để hỗ trợ các ứng dụng cụ thể hay xây dựng toàn bộ doanh nghiệp dựa trên AI. An ninh phải theo kịp tốc độ và có cơ hội hiếm có ở đây để bắt đầu sạch sẽ và tránh rủi ro cũng như chi phí bảo trì cao về sau.”
George Apostolopoulos, Kỹ sư sáng lập tại Endor Labs, nói thêm: “Mọi người hiện đang thử nghiệm các mô hình AI. Một số nhóm đang xây dựng các doanh nghiệp hoàn toàn mới dựa trên AI trong khi những nhóm khác đang tìm cách dán nhãn dán ‘được hỗ trợ bởi AI’ trên sản phẩm của họ. Một điều chắc chắn là các nhà phát triển của bạn đang chơi với các mô hình AI.”
Tuy nhiên, sự tiện lợi này không phải không có rủi ro. Apostolopoulos cảnh báo rằng bối cảnh hiện tại giống như “miền tây hoang dã”, với việc mọi người mua những mô hình phù hợp với nhu cầu của họ mà không tính đến các lỗ hổng tiềm ẩn.
Cách tiếp cận của Endor Labs coi các mô hình AI là phần phụ thuộc trong chuỗi cung ứng phần mềm
Apostolopoulos cho biết: “Nhiệm vụ của chúng tôi tại Endor Labs là ‘bảo mật mọi thứ mà mã của bạn phụ thuộc vào'”. Quan điểm này cho phép các tổ chức áp dụng các phương pháp đánh giá rủi ro tương tự cho các mô hình AI giống như cách họ làm với các thành phần nguồn mở khác.
Công cụ chấm điểm mô hình AI của Endor tập trung vào một số lĩnh vực rủi ro chính:
- Lỗ hổng bảo mật: Các mô hình được đào tạo trước có thể chứa mã độc hoặc lỗ hổng trong phạm vi trọng lượng mô hình, có khả năng dẫn đến vi phạm an ninh khi được tích hợp vào môi trường của tổ chức.
- Vấn đề pháp lý và cấp phép: Việc tuân thủ các điều khoản cấp phép là rất quan trọng, đặc biệt khi xem xét dòng dõi phức tạp của các mô hình AI và bộ đào tạo của chúng.
- Rủi ro hoạt động: Sự phụ thuộc vào các mô hình được đào tạo trước tạo ra một biểu đồ phức tạp có thể gây khó khăn cho việc quản lý và bảo mật.
Để giải quyết những vấn đề này, công cụ đánh giá của Endor Labs áp dụng 50 bước kiểm tra sẵn có cho các mô hình AI trên Ôm mặt. Hệ thống tạo ra “Điểm Endor” dựa trên các yếu tố như số lượng người bảo trì, tài trợ của công ty, tần suất phát hành và các lỗ hổng đã biết.
Các yếu tố tích cực trong hệ thống chấm điểm mô hình AI bao gồm việc sử dụng các định dạng trọng lượng an toàn, sự hiện diện của thông tin cấp phép cũng như các chỉ số tương tác và tải xuống cao. Các yếu tố tiêu cực bao gồm tài liệu không đầy đủ, thiếu dữ liệu hiệu suất và việc sử dụng các định dạng trọng lượng không an toàn.
Đặc điểm chính của Điểm Endor là cách tiếp cận thân thiện với người dùng. Các nhà phát triển không cần biết tên mẫu máy cụ thể; họ có thể bắt đầu tìm kiếm bằng những câu hỏi chung chung như “Tôi có thể sử dụng mô hình nào để phân loại cảm xúc?” hoặc “Các mô hình phổ biến nhất từ Meta là gì?” Sau đó, công cụ này cung cấp điểm số rõ ràng xếp hạng cả khía cạnh tích cực và tiêu cực của từng mô hình, cho phép các nhà phát triển chọn các tùy chọn phù hợp nhất cho nhu cầu của họ.
Apostolopoulos lưu ý: “Các nhóm của bạn đang được hỏi về AI mỗi ngày và họ sẽ tìm kiếm những mô hình mà họ có thể sử dụng để tăng tốc đổi mới”. “Đánh giá các mô hình AI nguồn mở bằng Endor Labs giúp bạn đảm bảo các mô hình bạn đang sử dụng thực hiện những gì bạn mong đợi và an toàn khi sử dụng.”
(Ảnh chụp bởi Yếu tố kỹ thuật số5)
Xem thêm: China Telecom đào tạo mô hình AI với 1 nghìn tỷ thông số trên chip nội địa
Bạn muốn tìm hiểu thêm về AI và dữ liệu lớn từ các nhà lãnh đạo ngành? Kiểm tra Triển lãm AI & Dữ liệu lớn diễn ra ở Amsterdam, California và London. Sự kiện toàn diện này được tổ chức cùng với các sự kiện hàng đầu khác bao gồm Hội nghị tự động hóa thông minh, BlockX, Tuần lễ Chuyển đổi sốVà An ninh mạng & Triển lãm Cloud.
Khám phá các sự kiện và hội thảo Online về công nghệ doanh nghiệp sắp tới khác do TechForge cung cấp đây.