Một báo cáo gần đây của Trung tâm An ninh mạng Quốc gia (NCSC) đã nêu bật mối lo ngại về tác động ngày càng tăng của AI đối với các cuộc tấn công mạng trong hai năm tới. Báo cáo nhấn mạnh rằng AI đã được sử dụng cho các hoạt động mạng độc hại và dự kiến sẽ tăng tần suất cũng như mức độ nghiêm trọng của các mối đe dọa mạng, đặc biệt là ransomware.
NCSC cho biết việc sử dụng AI làm giảm rào cản gia nhập đối với tội phạm mạng kém tay nghề hơn, bao gồm cả tin tặc cho thuê và những kẻ tấn công mạng. Điều này cho phép họ tiến hành các hoạt động truy cập và thu thập thông tin hiệu quả hơn. Khả năng truy cập nâng cao, kết hợp với khả năng nhắm mục tiêu được cải thiện của AI, được dự đoán sẽ góp phần làm gia tăng mối đe dọa ransomware toàn cầu trong thời gian tới.
Lindy Cameron, cựu Giám đốc điều hành của NCSC cho biết: “Chúng ta phải đảm bảo rằng chúng ta vừa khai thác được tiềm năng to lớn của công nghệ AI vừa quản lý rủi ro của nó – bao gồm cả những tác động của nó đối với mối đe dọa mạng”.
“Việc sử dụng AI mới nổi trong các cuộc tấn công mạng là mang tính tiến hóa, không mang tính cách mạng, có nghĩa là nó tăng cường các mối đe dọa hiện có như ransomware nhưng không làm thay đổi bối cảnh rủi ro trong thời gian tới.”
Sự xuất hiện của AI tạo ra tội phạm
Báo cáo nhấn mạnh sự xuất hiện của Generative AI (Gen AI) và Gen AI-as-a-service, cho phép tội phạm mạng tiếp cận các khả năng được cải thiện. Tuy nhiên, hiệu quả của các mô hình Gen AI bị hạn chế bởi chất lượng và số lượng dữ liệu mà chúng được đào tạo.
Cơ quan Tội phạm Quốc gia (NCA) cảnh báo rằng những tiến bộ trong AI có thể làm tăng mối đe dọa ransomware trong những năm tới. NCA lưu ý rằng các dịch vụ AI làm giảm rào cản gia nhập, thu hút nhiều tội phạm mạng hơn và nâng cao khả năng của chúng bằng cách cải thiện quy mô, tốc độ và hiệu quả của các phương thức tấn công hiện có.
Oz Alashe MBE, Giám đốc điều hành của CybSafe, nói với Tạp chí AI: “Trong khi các tổ chức khám phá những cơ hội mà AI mang lại, điều cần thiết là phải xem xét mặt khác của đồng xu đó. Với việc các nhà lãnh đạo doanh nghiệp nêu bật sức mạnh mà công nghệ này mang lại cho tội phạm mạng để tạo ra các chiến dịch lừa đảo, giả mạo sâu và hơn thế nữa một cách thuyết phục hơn, trách nhiệm của các tổ chức là trang bị cho nhân viên của họ những công cụ để xác định và giảm thiểu một cách hiệu quả các mối đe dọa ngày càng tăng này.
“Chỉ với 21% số người tin rằng họ có thể phân biệt đoạn văn bản do AI tạo ra với văn bản do con người viết, các chuyên gia an ninh mạng đã phải làm việc rất vất vả. Khi chúng ta sử dụng công nghệ này ngày càng nhiều, ranh giới giữa hàng thật và hàng giả sẽ ngày càng mờ nhạt. Do đó, các tổ chức phải thu hút nhân viên của mình, vượt ra ngoài phạm vi tuân thủ để xây dựng và thúc đẩy các hành vi an ninh mạng tích cực nhằm chống lại làn sóng tội phạm mạng đang gia tăng.”
Báo cáo Triển vọng An ninh mạng Toàn cầu năm 2024
Trong báo cáo Triển vọng An ninh mạng Toàn cầu năm 2022 của Diễn đàn Kinh tế Thế giới, khoảng một nửa số nhà lãnh đạo cho rằng tự động hóa và học máy sẽ có ảnh hưởng lớn nhất đến an ninh mạng trong hai năm tới. Gần hai năm sau, các giám đốc điều hành vẫn cảm thấy như vậy – năm nay, khoảng một nửa số nhà lãnh đạo vẫn đồng ý rằng Gen AI sẽ có tác động đáng kể nhất đến an ninh mạng trong hai năm tới. Các ngành như an ninh mạng (65%), nông nghiệp (63%), ngân hàng (56%) và bảo hiểm (56%) đều có tỷ lệ lãnh đạo chọn Gen AI là tác nhân có ảnh hưởng lớn nhất đến an ninh mạng lớn nhất.
Kris Burkhardt, Giám đốc An ninh Thông tin Toàn cầu của Accenture, tuyên bố: “Chúng ta phải tăng cường khả năng phòng thủ trên diện rộng và điều này cũng có thể đúng với bất kỳ công nghệ mới nổi nào. Rất nhiều vectơ tấn công có vẻ giống nhau, chúng chỉ có xu hướng được khuếch đại.”
Các nhà lãnh đạo trong báo cáo Triển vọng An ninh mạng Toàn cầu năm 2024 cũng bày tỏ lo ngại về tác động đối với an ninh mạng trong thời gian tới. Năm nay, 56% các nhà lãnh đạo cho rằng Gen AI sẽ mang lại lợi thế cho những kẻ tấn công mạng hơn là những người phòng thủ trong hai năm tới.
Cụ thể hơn, mối quan tâm lớn nhất của họ về Gen AI là nó sẽ nâng cao khả năng của kẻ thù trong việc thực hiện các hành động mà những người bảo vệ đang chống lại như lừa đảo, phát triển phần mềm độc hại tùy chỉnh và truyền bá thông tin sai lệch.
Các vectơ tấn công tương tự đã được tội phạm mạng sử dụng vẫn đang được sử dụng; tuy nhiên, công nghệ mới mở đường cho hoạt động bất chính. Các chatbot thế hệ AI đang giúp tội phạm mạng tạo các email lừa đảo đáng tin cậy và viết phần mềm độc hại tùy chỉnh dễ dàng hơn nhiều. Mặc dù các chatbot thương mại phổ biến có bộ kiểm duyệt tích hợp và kiểm soát chủ động để ngăn chặn hành vi lạm dụng, nhưng tội phạm mạng đang áp dụng các mô hình ngôn ngữ lớn để thiết kế các dịch vụ dựa trên đăng ký độc hại. Các chatbot như FraudGPT và WormGPT đang hạ thấp các kỹ năng cần thiết để thực hiện các chiến dịch phức tạp và thuyết phục.
Làm thế nào các nhà lãnh đạo có thể giúp đảm bảo rằng AI được phát triển một cách an toàn?
Hướng dẫn Phát triển Hệ thống AI An toàn, do NCSC xuất bản và được phát triển cùng với Cơ quan An ninh Cơ sở hạ tầng và An ninh mạng (CISA) của Hoa Kỳ cũng như các cơ quan từ 17 quốc gia khác, tư vấn về thiết kế, phát triển, triển khai và vận hành hệ thống AI.
NCSC nói rằng, điều quan trọng nhất là giữ an toàn cho các hệ thống AI. tổ chức văn hóa, quy trình và giao tiếp như nó nói về kỹ thuật đo. “Bảo mật phải được tích hợp vào tất cả các dự án và quy trình làm việc AI trong tổ chức của bạn ngay từ khi thành lập. Điều này được biết đến như là cách tiếp cận ‘an toàn theo thiết kế’ và nó đòi hỏi sự lãnh đạo mạnh mẽ để đảm bảo an ninh là một việc kinh doanh ưu tiên chứ không chỉ là vấn đề kỹ thuật,” nó nói.
“Các nhà lãnh đạo cần hiểu hậu quả đối với tổ chức nếu tính toàn vẹn, tính khả dụng hoặc tính bảo mật của hệ thống AI bị xâm phạm. Có thể có những hậu quả về mặt hoạt động và danh tiếng và tổ chức của bạn nên có sẵn kế hoạch ứng phó phù hợp. Với tư cách là người quản lý, bạn cũng nên đặc biệt lưu ý đến các mối quan tâm cụ thể về AI xung quanh vấn đề bảo mật dữ liệu. Bạn nên hiểu liệu tổ chức của mình có tuân thủ pháp luật và tuân thủ các phương pháp hay nhất đã được thiết lập khi xử lý dữ liệu liên quan đến các hệ thống này hay không.”
NCSC cho biết gánh nặng sử dụng AI một cách an toàn sẽ không rơi vào người dùng cá nhân các sản phẩm AI; khách hàng thường không có chuyên môn để hiểu đầy đủ hoặc giải quyết các rủi ro liên quan đến AI. Nghĩa là, các nhà phát triển mô hình và hệ thống AI phải chịu trách nhiệm về kết quả bảo mật của khách hàng.
Đảm bảo sự phát triển và triển khai an toàn các hệ thống AI là điều tối quan trọng khi chúng ngày càng được tích hợp vào an ninh mạng. các nhà lãnh đạo đề xuất ưu tiên phát triển và triển khai an toàn các hệ thống AI trong an ninh mạng. Họ ủng hộ cách tiếp cận “an toàn theo thiết kế” khi bắt đầu các dự án AI và nhấn mạnh việc hiểu rõ hậu quả tiềm tàng của các lỗ hổng hệ thống AI và chuẩn bị các kế hoạch ứng phó mạnh mẽ. Các hướng dẫn, chẳng hạn như của NCSC, đưa ra các khuôn khổ hướng dẫn có giá trị. Bằng cách nâng cao nhận thức và cảnh giác về an ninh mạng, các nhà lãnh đạo có thể đề xuất các biện pháp hiệu quả nhằm giảm thiểu các mối đe dọa đang gia tăng do AI gây ra và bảo vệ tổ chức của họ.
*******
Hãy chắc chắn rằng bạn đã xem phiên bản mới nhất của Tạp chí AI và cũng có thể đăng ký chuỗi hội nghị toàn cầu của chúng tôi – Công nghệ & AI TRỰC TIẾP 2024
*******
Tạp chí AI là một BizClik thương hiệu
Nguồn : https://aimagazine.com/articles/navigating-the-impact-of-gen-ai-on-cybersecurity.