Khi AI ngày càng trở nên không thể thiếu trong hoạt động kinh doanh, các mối lo ngại về an toàn và mối đe dọa bảo mật mới xuất hiện với tốc độ chưa từng thấy—vượt xa khả năng của các giải pháp an ninh mạng truyền thống.
Cổ phần rất cao với những hậu quả tiềm tàng đáng kể. Theo Cisco Chỉ số sẵn sàng AI năm 2024chỉ 29% tổ chức được khảo sát cảm thấy được trang bị đầy đủ để phát hiện và ngăn chặn hành vi giả mạo trái phép đối với công nghệ AI.
Xác nhận mô hình liên tục
DJ Sampath, Trưởng bộ phận Phần mềm & Nền tảng AI tại Ciscocho biết: “Khi chúng ta nói về việc xác thực mô hình, đó không chỉ là chuyện xảy ra một lần, phải không? Bạn đang thực hiện xác thực mô hình một cách liên tục.
“Vì vậy, khi bạn thấy những thay đổi xảy ra với mô hình – nếu bạn đang thực hiện bất kỳ loại tinh chỉnh nào hoặc bạn phát hiện ra các cuộc tấn công mới bắt đầu xuất hiện mà bạn cần mô hình học hỏi – chúng tôi sẽ liên tục tìm hiểu tất cả thông tin đó và xác nhận lại mô hình để xem các mô hình này hoạt động như thế nào trước các cuộc tấn công mới mà chúng tôi đã phát hiện.
“Điểm rất quan trọng khác là chúng tôi có một nhóm nghiên cứu mối đe dọa thực sự tiên tiến, liên tục xem xét các cuộc tấn công AI này và hiểu cách thức các cuộc tấn công này có thể được tăng cường hơn nữa. Trên thực tế, chúng tôi đang đóng góp cho các nhóm làm việc bên trong các tổ chức tiêu chuẩn như MITER, OWASP và NIST.”
Ngoài việc ngăn chặn các kết quả đầu ra có hại, Cisco còn giải quyết các lỗ hổng của mô hình AI trước những ảnh hưởng độc hại bên ngoài có thể thay đổi hành vi của chúng. Những rủi ro này bao gồm các cuộc tấn công tiêm nhiễm kịp thời, Unlock và đầu độc dữ liệu huấn luyện — mỗi rủi ro đều yêu cầu các biện pháp phòng ngừa nghiêm ngặt.
Sự tiến hóa mang lại sự phức tạp mới
Frank Dickson, Phó Chủ tịch Nhóm An ninh & Tin cậy tại IDCđã đưa ra quan điểm về sự phát triển của an ninh mạng theo thời gian và những tiến bộ trong AI có ý nghĩa gì đối với ngành.
“Xu hướng vĩ mô đầu tiên là chúng tôi đã chuyển từ tại chỗ sang Cloud và điều đó đã đưa ra toàn bộ các báo cáo vấn đề mới mà chúng tôi phải giải quyết. Và sau đó, khi các ứng dụng chuyển từ nguyên khối sang vi dịch vụ, chúng tôi đã thấy toàn bộ loạt vấn đề mới này.
“AI và việc bổ sung LLM… điều tương tự, toàn bộ các vấn đề mới.”
Sự phức tạp của bảo mật AI càng tăng cao khi các ứng dụng trở nên đa mô hình. Lỗ hổng có thể phát sinh ở nhiều cấp độ khác nhau – từ mô hình đến ứng dụng – liên quan đến các bên liên quan khác nhau như nhà phát triển, người dùng cuối và nhà cung cấp.
“Khi một ứng dụng được chuyển từ tại chỗ sang Cloud, nó sẽ vẫn ở đó. Có, chúng tôi đã phát triển ứng dụng trên nhiều Cloud, nhưng khi bạn đưa một ứng dụng vào AWS hoặc Azure hoặc GCP, bạn sẽ không chuyển ứng dụng đó qua các môi trường Cloud khác nhau đó hàng tháng, hàng quý, Weekly, phải không?
“Khi bạn chuyển từ phát triển ứng dụng nguyên khối sang microservice, bạn sẽ ở lại đó. Sau khi cài đặt một ứng dụng vào Kubernetes, bạn sẽ không quay lại làm việc khác.
“Khi bạn tìm cách bảo mật LLM, điều quan trọng cần lưu ý là những thay đổi về mô hình. Và khi chúng ta nói về việc thay đổi mô hình, nó không giống như một bản sửa đổi… có lẽ trong tuần này [developers are] đang sử dụng Anthropic, tuần tới họ có thể sẽ sử dụng Gemini.
“Chúng hoàn toàn khác nhau và các vectơ đe dọa của mỗi mô hình cũng hoàn toàn khác nhau. Tất cả họ đều có điểm mạnh và đều có những điểm yếu đáng kể.”
Không giống như các biện pháp an toàn thông thường được tích hợp vào các mô hình riêng lẻ, Cisco cung cấp các biện pháp kiểm soát cho môi trường đa mô hình thông qua các giải pháp mới được công bố của mình. Phòng thủ AI. Giải pháp này là tự tối ưu hóa, sử dụng các thuật toán học máy độc quyền của Cisco để xác định các mối lo ngại ngày càng gia tăng về an toàn và bảo mật AI—được cung cấp bởi thông tin về mối đe dọa từ Cisco Talos.
Điều chỉnh theo trạng thái bình thường mới
Jeetu Patel, Phó chủ tịch điều hành kiêm Giám đốc sản phẩm của Cisco, đã chia sẻ quan điểm của mình rằng những tiến bộ lớn trong một khoảng thời gian ngắn luôn có vẻ mang tính cách mạng nhưng nhanh chóng trở nên bình thường.
“Waymo bạn biết đấy, là xe tự lái của Google. Bạn bước vào, không có ai ngồi trong xe và nó sẽ đưa bạn từ điểm A đến điểm B. Cảm giác thật tuyệt vời, giống như chúng ta đang sống trong tương lai. Lần thứ hai, bạn sẽ quen dần với nó. Lần thứ ba, bạn bắt đầu phàn nàn về chỗ ngồi.
“Ngay cả khi chúng ta đã quen với AI và ChatGPT nhanh đến mức nào trong vài năm qua, tôi nghĩ điều sẽ xảy ra là bất kỳ tiến bộ lớn nào cũng sẽ mang lại cảm giác tiến bộ đặc biệt trong một khoảng thời gian ngắn. Sau đó sẽ có một sự bình thường hóa xảy ra khi mọi người bắt đầu quen với nó.”
Patel tin rằng việc bình thường hóa cũng sẽ xảy ra với AGI. Tuy nhiên, ông lưu ý rằng “bạn không thể đánh giá thấp tiến độ mà các mô hình này đang bắt đầu đạt được” và cuối cùng là loại use case mà chúng sẽ mở khóa.
“Không ai nghĩ rằng chúng ta sẽ có một chiếc điện thoại thông minh có khả năng tính toán cao hơn máy tính lớn trong tầm tay và có thể thực hiện hàng nghìn việc trên đó vào bất kỳ thời điểm nào và giờ đây nó chỉ là một cách sống khác. Cô con gái 14 tuổi của tôi thậm chí còn không nghĩ đến điều đó.
“Chúng ta phải đảm bảo rằng chúng ta với tư cách là các công ty sẽ thích nghi với điều đó thật nhanh chóng.”
Xem thêm: Sam Altman, OpenAI: ‘Thật may mắn và khiêm tốn’ khi hướng tới siêu trí tuệ
Bạn muốn tìm hiểu thêm về AI và dữ liệu lớn từ các nhà lãnh đạo ngành? Kiểm tra Triển lãm AI & Dữ liệu lớn diễn ra ở Amsterdam, California và London. Sự kiện toàn diện này được tổ chức cùng với các sự kiện hàng đầu khác bao gồm Hội nghị tự động hóa thông minh, BlockX, Tuần lễ Chuyển đổi sốVà An ninh mạng & Triển lãm Cloud.
Khám phá các sự kiện và hội thảo Online về công nghệ doanh nghiệp sắp tới khác do TechForge cung cấp đây.