nhân loại đã đánh dấu những rủi ro tiềm ẩn của hệ thống AI và kêu gọi quy định có cấu trúc tốt để tránh những thảm họa tiềm ẩn. Tổ chức này lập luận rằng quy định có mục tiêu là điều cần thiết để khai thác lợi ích của AI đồng thời giảm thiểu những mối nguy hiểm của nó.
Khi các hệ thống AI phát triển về các khả năng như toán học, lý luận và Token hoá, khả năng lạm dụng chúng trong các lĩnh vực như an ninh mạng hoặc thậm chí các ngành sinh học và hóa học sẽ tăng lên đáng kể.
Anthropic cảnh báo 18 tháng tới là thời điểm quan trọng để các nhà hoạch định chính sách hành động vì cơ hội phòng ngừa chủ động đang thu hẹp. Đáng chú ý, Frontier Red Team của Anthropic nhấn mạnh cách các mô hình hiện tại có thể đóng góp vào các nhiệm vụ khác nhau liên quan đến tấn công mạng và hy vọng các mô hình trong tương lai sẽ hiệu quả hơn nữa.
Mối quan tâm đặc biệt là khả năng các hệ thống AI làm trầm trọng thêm việc lạm dụng hóa chất, sinh học, phóng xạ và hạt nhân (CBRN). Viện An toàn AI Vương quốc Anh thành lập rằng một số mô hình AI hiện có thể sánh ngang với chuyên môn của con người ở trình độ tiến sĩ trong việc đưa ra câu trả lời cho các câu hỏi liên quan đến khoa học.
Để giải quyết những rủi ro này, Anthropic đã trình bày chi tiết Chính sách mở rộng có trách nhiệm (RSP) được phát hành vào tháng 9 năm 2023 như một biện pháp đối phó mạnh mẽ. RSP yêu cầu tăng cường các biện pháp an toàn và bảo mật tương ứng với mức độ phức tạp của khả năng AI.
Khung RSP được thiết kế để có khả năng thích ứng và lặp lại, với các đánh giá thường xuyên về các mô hình AI cho phép sàng lọc kịp thời các giao thức an toàn. Anthropic nói rằng họ cam kết duy trì và tăng cường an toàn trong nhiều phạm vi mở rộng nhóm khác nhau, đặc biệt là trong các lĩnh vực bảo mật, khả năng diễn giải và tin cậy, đảm bảo sẵn sàng cho các tiêu chuẩn an toàn nghiêm ngặt do RSP đặt ra.
Anthropic tin rằng việc áp dụng rộng rãi RSP trong ngành AI, dù chủ yếu là tự nguyện, là điều cần thiết để giải quyết các rủi ro về AI.
Quy định minh bạch, hiệu quả là rất quan trọng để trấn an xã hội về việc các công ty AI tuân thủ những lời hứa về an toàn. Tuy nhiên, khuôn khổ pháp lý phải mang tính chiến lược, khuyến khích các hoạt động an toàn lành mạnh mà không tạo ra những gánh nặng không cần thiết.
Anthropic hình dung các quy định rõ ràng, tập trung và thích ứng với bối cảnh công nghệ đang phát triển, cho rằng những quy định này rất quan trọng trong việc đạt được sự cân bằng giữa giảm thiểu rủi ro và thúc đẩy đổi mới.
Tại Hoa Kỳ, Anthropic gợi ý rằng luật pháp liên bang có thể là câu trả lời cuối cùng cho quy định về rủi ro AI – mặc dù các sáng kiến do nhà nước điều hành có thể cần phải can thiệp nếu hành động của liên bang bị chậm trễ. Khung pháp lý do các quốc gia trên toàn thế giới phát triển sẽ cho phép tiêu chuẩn hóa và công nhận lẫn nhau để hỗ trợ chương trình nghị sự về an toàn AI toàn cầu, giảm thiểu chi phí tuân thủ quy định ở các khu vực khác nhau.
Hơn nữa, Anthropic giải quyết sự hoài nghi đối với việc áp đặt các quy định — nhấn mạnh rằng các quy định tập trung vào use case quá rộng sẽ không hiệu quả đối với các hệ thống AI nói chung vốn có các ứng dụng đa dạng. Thay vào đó, các quy định nên nhắm tới các đặc tính cơ bản và biện pháp an toàn của mô hình AI.
Trong khi đề cập đến những rủi ro rộng lớn, Anthropic thừa nhận rằng một số mối đe dọa trước mắt – như deepfake – không phải là trọng tâm trong các đề xuất hiện tại của họ vì các sáng kiến khác đang giải quyết những vấn đề ngắn hạn này.
Cuối cùng, Anthropic nhấn mạnh tầm quan trọng của việc thiết lập các quy định nhằm thúc đẩy sự đổi mới thay vì kìm hãm nó. Gánh nặng tuân thủ ban đầu, mặc dù không thể tránh khỏi, có thể được giảm thiểu thông qua các thử nghiệm an toàn linh hoạt và được thiết kế cẩn thận. Quy định phù hợp thậm chí có thể giúp bảo vệ cả lợi ích quốc gia và sự đổi mới của khu vực tư nhân bằng cách bảo vệ quyền sở hữu trí tuệ trước các mối đe dọa từ bên trong và bên ngoài.
Bằng cách tập trung vào các rủi ro được đo lường bằng thực nghiệm, Anthropic lập kế hoạch cho một bối cảnh pháp lý không thiên vị cũng như không ủng hộ các mô hình nguồn mở hoặc nguồn đóng. Mục tiêu vẫn rõ ràng: quản lý những rủi ro đáng kể của các mô hình AI tiên phong bằng quy định nghiêm ngặt nhưng có khả năng thích ứng.
(Nguồn Hình Ảnh: nhân loại)
Xem thêm: Tổng thống Biden ban hành Bản ghi nhớ an ninh quốc gia đầu tiên về AI
Bạn muốn tìm hiểu thêm về AI và dữ liệu lớn từ các nhà lãnh đạo ngành? Kiểm tra Triển lãm AI & Dữ liệu lớn diễn ra ở Amsterdam, California và London. Sự kiện toàn diện này được tổ chức cùng với các sự kiện hàng đầu khác bao gồm Hội nghị tự động hóa thông minh, BlockX, Tuần lễ Chuyển đổi sốVà An ninh mạng & Triển lãm Cloud.
Khám phá các sự kiện và hội thảo Online về công nghệ doanh nghiệp sắp tới khác do TechForge cung cấp đây.