ByteDance, người sáng tạo ra TikTok, gần đây đã gặp phải một vụ vi phạm an ninh liên quan đến một thực tập sinh bị cáo buộc đã phá hoại quá trình đào tạo mô hình AI. Vụ việc được báo cáo trên WeChat, làm dấy lên mối lo ngại về các giao thức bảo mật của công ty trong bộ phận AI.
Đáp lại, ByteDance đã làm rõ rằng mặc dù thực tập sinh này đã làm gián đoạn các nỗ lực thương mại hóa AI nhưng không có hoạt động Online hoặc dự án thương mại nào bị ảnh hưởng. Theo công ty, tin đồn rằng hơn 8.000 thẻ GPU bị ảnh hưởng và việc vi phạm dẫn đến thiệt hại hàng triệu đô la là không đáng kể.
Vấn đề thực sự ở đây không chỉ dừng lại ở việc một thực tập sinh lừa đảo – nó nhấn mạnh sự cần thiết phải có các biện pháp an ninh chặt chẽ hơn ở các công ty công nghệ, đặc biệt là khi các thực tập sinh được giao những trách nhiệm chính. Ngay cả những sai sót nhỏ trong môi trường áp suất cao cũng có thể gây ra hậu quả nghiêm trọng.
Khi điều tra, ByteDance phát hiện ra rằng thực tập sinh, một nghiên cứu sinh tiến sĩ, là thành viên của nhóm công nghệ thương mại hóa chứ không phải Phòng thí nghiệm AI. Cá nhân này đã bị sa thải vào tháng Tám.
Theo hãng truyền thông địa phương Jiemian, thực tập sinh này đã trở nên thất vọng với việc phân bổ nguồn lực và trả đũa bằng cách khai thác lỗ hổng trong nền tảng phát triển AI Ôm mặt. Điều này dẫn đến sự gián đoạn trong quá trình đào tạo người mẫu, mặc dù mô hình Doubao thương mại của ByteDance không bị ảnh hưởng.
Bất chấp sự gián đoạn, nhóm học máy tự động (AML) của ByteDance ban đầu gặp khó khăn trong việc xác định nguyên nhân. May mắn thay, cuộc tấn công chỉ ảnh hưởng đến các mô hình nội bộ, giảm thiểu thiệt hại trên phạm vi rộng hơn.
Trong bối cảnh đó, thị trường AI của Trung Quốc, ước tính trị giá 250 tỷ USD vào năm 2023, đang tăng quy mô nhanh chóng, với các công ty dẫn đầu ngành như Baidu AI Cloud, SenseRobot và Zhipu AI đang thúc đẩy sự đổi mới. Tuy nhiên, những sự cố như thế này gây ra rủi ro rất lớn cho việc thương mại hóa công nghệ AI, vì độ chính xác và độ tin cậy của mô hình có liên quan trực tiếp đến thành công của doanh nghiệp.
Tình hình này cũng đặt ra câu hỏi về quản lý thực tập sinh trong các công ty công nghệ. Thực tập sinh thường đóng những vai trò quan trọng trong môi trường có nhịp độ nhanh, nhưng nếu không có các giao thức bảo mật và giám sát thích hợp, vai trò của họ có thể gây ra rủi ro. Các công ty phải đảm bảo rằng thực tập sinh được đào tạo và giám sát đầy đủ để ngăn chặn các hành động vô ý hoặc ác ý có thể làm gián đoạn hoạt động.
Ý nghĩa đối với việc thương mại hóa AI
Vi phạm an ninh nêu bật những rủi ro có thể xảy ra đối với việc thương mại hóa AI. Sự gián đoạn trong quá trình đào tạo mô hình AI, chẳng hạn như mô hình này, có thể gây ra sự chậm trễ trong việc phát hành sản phẩm, làm mất lòng tin của khách hàng và thậm chí là tổn thất tài chính. Đối với một công ty như ByteDance, nơi AI điều khiển các chức năng cốt lõi, những sự cố kiểu này đặc biệt gây thiệt hại.
Vấn đề nhấn mạnh tầm quan trọng của việc phát triển AI có đạo đức và trách nhiệm kinh doanh. Các công ty không chỉ phải phát triển công nghệ AI tiên tiến mà còn phải đảm bảo an ninh và vận hành quản lý có trách nhiệm. Tính minh bạch và trách nhiệm giải trình là rất quan trọng để duy trì niềm tin trong thời đại mà AI đóng vai trò quan trọng trong hoạt động kinh doanh.
(Ảnh chụp bởi Jonathan Kemper)
Xem thêm: Microsoft có được khách hàng AI lớn khi TikTok chi 20 triệu USD mỗi tháng
Bạn muốn tìm hiểu thêm về AI và dữ liệu lớn từ các nhà lãnh đạo ngành? Kiểm tra Triển lãm AI & Dữ liệu lớn diễn ra ở Amsterdam, California và London. Sự kiện toàn diện này được tổ chức cùng với các sự kiện hàng đầu khác bao gồm Hội nghị tự động hóa thông minh, BlockX, Tuần lễ Chuyển đổi sốVà An ninh mạng & Triển lãm Cloud.
Khám phá các sự kiện và hội thảo Online về công nghệ doanh nghiệp sắp tới khác do TechForge cung cấp đây.