Anthropic đã tiết lộ một bộ sưu tập tùy chỉnh các mô hình AI Claude được thiết kế cho khách hàng an ninh quốc gia Hoa Kỳ. Thông báo đại diện cho một cột mốc tiềm năng trong việc áp dụng AI trong chính phủ phân loại môi trường.
Các mô hình ‘Claude Gov’ đã được triển khai bởi các cơ quan hoạt động ở cấp cao nhất của an ninh quốc gia Hoa Kỳ, với quyền truy cập giới hạn nghiêm ngặt ở những người làm việc trong các môi trường được phân loại như vậy.
Anthropic cho biết các mô hình chính phủ Claude này xuất hiện từ sự hợp tác rộng rãi với khách hàng chính phủ để giải quyết các yêu cầu hoạt động trong thế giới thực. Mặc dù được điều chỉnh cho các ứng dụng an ninh quốc gia, Anthropic vẫn duy trì rằng các mô hình này đã trải qua thử nghiệm an toàn nghiêm ngặt giống như các mô hình Claude khác trong danh mục đầu tư của họ.
Khả năng AI chuyên môn về an ninh quốc gia
Các mô hình chuyên ngành cung cấp hiệu suất được cải thiện trên một số lĩnh vực quan trọng cho các hoạt động của chính phủ. Chúng có tính năng xử lý nâng cao các vật liệu được phân loại, với ít trường hợp hơn trong đó AI từ chối tham gia vào thông tin nhạy cảm, một sự thất vọng phổ biến trong môi trường an toàn.
Những cải tiến bổ sung bao gồm sự hiểu biết tốt hơn về các tài liệu trong bối cảnh tình báo và quốc phòng, nâng cao trình độ ngôn ngữ quan trọng đối với các hoạt động an ninh quốc gia và giải thích vượt trội về dữ liệu an ninh mạng phức tạp để phân tích tình báo.
Tuy nhiên, thông báo này xuất hiện trong bối cảnh các cuộc tranh luận liên tục về quy định của AI ở Mỹ. Giám đốc điều hành nhân loại Dario Amodei gần đây đã bày tỏ lo ngại về luật đề xuất sẽ cấp sự đóng băng kéo dài một thập kỷ đối với quy định của nhà nước về AI.
Cân bằng đổi mới với quy định
Trong một bài luận của khách được xuất bản trong Thời báo New York Tuần này, Amodei ủng hộ các quy tắc minh bạch hơn là các lệnh cấm quy định. Ông chi tiết các đánh giá nội bộ tiết lộ các hành vi liên quan đến các mô hình AI nâng cao, bao gồm một ví dụ trong đó mô hình mới nhất của Anthropic bị đe dọa sẽ phơi bày email riêng của người dùng trừ khi kế hoạch tắt máy.
Amodei đã so sánh thử nghiệm an toàn AI với các thử nghiệm đường hầm gió cho máy bay được thiết kế để phơi bày các khiếm khuyết trước khi phát hành công khai, nhấn mạnh rằng các nhóm an toàn phải phát hiện và chặn rủi ro một cách chủ động.
Nhân chủng học đã định vị mình là một người ủng hộ cho sự phát triển AI có trách nhiệm. Theo chính sách mở rộng có trách nhiệm của mình, công ty đã chia sẻ chi tiết về các phương pháp thử nghiệm, các bước giảm thiểu rủi ro và giải phóng các tiêu chí của các chuyên gia mà Amodei tin rằng nên trở thành tiêu chuẩn trong toàn ngành.
Ông đề nghị rằng chính thức hóa các thực tiễn tương tự trong toàn ngành sẽ cho phép cả công chúng và các nhà lập pháp giám sát các cải tiến năng lực và xác định xem hành động pháp lý bổ sung có trở nên cần thiết hay không.
Ý nghĩa của AI trong an ninh quốc gia
Việc triển khai các mô hình tiên tiến trong bối cảnh an ninh quốc gia đặt ra những câu hỏi quan trọng về vai trò của AI trong thu thập thông tin tình báo, lập kế hoạch chiến lược và hoạt động quốc phòng.
Amodei đã thể hiện sự hỗ trợ cho các điều khiển xuất khẩu trên chip nâng cao và sự áp dụng quân sự của các hệ thống đáng tin cậy để chống lại các đối thủ như Trung Quốc, cho thấy nhận thức của nhân học về ý nghĩa địa chính trị của công nghệ AI.
Các mô hình của chính phủ Claude có khả năng phục vụ nhiều ứng dụng cho an ninh quốc gia, từ kế hoạch chiến lược và hỗ trợ hoạt động đến phân tích tình báo và đánh giá mối đe dọa, trong khuôn khổ cam kết đã nêu của Anthropic đối với sự phát triển AI chịu trách nhiệm.
Phong cảnh quy định
Khi nhân học triển khai các mô hình chuyên môn này cho việc sử dụng của chính phủ, môi trường pháp lý rộng lớn hơn cho AI vẫn còn trong thông lượng. Thượng viện hiện đang xem xét ngôn ngữ sẽ đưa ra một lệnh cấm đối với quy định AI cấp nhà nước, với các phiên điều trần được lên kế hoạch trước khi bỏ phiếu về biện pháp công nghệ rộng lớn hơn.
Amodei đã gợi ý rằng các quốc gia có thể áp dụng các quy tắc công bố hẹp để trì hoãn khuôn khổ liên bang trong tương lai, với điều khoản tối cao cuối cùng đã ưu tiên các biện pháp nhà nước để duy trì tính đồng nhất mà không ngăn cản hành động địa phương ngắn hạn.
Cách tiếp cận này sẽ cho phép một số bảo vệ quy định ngay lập tức trong khi làm việc theo tiêu chuẩn quốc gia toàn diện.
Khi các công nghệ này trở nên hòa nhập sâu hơn vào các hoạt động an ninh quốc gia, các câu hỏi về an toàn, giám sát và sử dụng phù hợp sẽ luôn đi đầu trong cả các cuộc thảo luận chính sách và tranh luận công khai.
Đối với nhân học, thách thức sẽ duy trì cam kết phát triển AI có trách nhiệm trong khi đáp ứng nhu cầu chuyên môn của khách hàng chính phủ đối với các ứng dụng crtitical như an ninh quốc gia.
(Nguồn Hình Ảnh: Nhân chủng học)
Xem thêm: Reddit kiện nhân học trên AI Data Scraping

Bạn muốn tìm hiểu thêm về AI và dữ liệu lớn từ các nhà lãnh đạo ngành? Kiểm tra AI & Big Data Expo Diễn ra tại Amsterdam, California và London. Sự kiện toàn diện được cùng đặt với các sự kiện hàng đầu khác bao gồm cả Hội nghị tự động hóa thông minhThì BlockxThì Tuần Chuyển đổi sốVà An ninh mạng & Triển lãm Cloud.
Khám phá các sự kiện và hội thảo trên web về công nghệ doanh nghiệp sắp tới được cung cấp bởi TechForge đây.
Nguồn : https://www.artificialintelligence-news.com/news/anthropic-launches-claude-ai-models-for-us-national-security/.
Post by Automation Bot.