Hơn một nửa chúng ta hiện nay sử dụng AI để tìm kiếm thông tin trên web, tuy nhiên độ chính xác dữ liệu thấp một cách cố hữu của các công cụ phổ biến lại tạo ra những rủi ro mới cho doanh nghiệp.
Trong khi AI tạo sinh (Generative AI – GenAI) mang lại những cải tiến rõ rệt về hiệu quả, một cuộc điều tra mới đã làm nổi bật sự chênh lệch giữa mức độ tin tưởng của người dùng và độ chính xác kỹ thuật, điều này đặt ra các rủi ro cụ thể về tuân thủ doanh nghiệp, vị thế pháp lý và kế hoạch tài chính.
Đối với các lãnh đạo cấp cao, việc áp dụng những công cụ này giống như một thách thức điển hình của “công nghệ bóng tối” (shadow IT). Theo khảo sát với 4.189 người trưởng thành tại Anh thực hiện vào tháng 9 năm 2025, khoảng một phần ba người dùng tin rằng AI đã quan trọng hơn việc tìm kiếm web truyền thống. Nếu nhân viên tin dùng những công cụ này cho các câu hỏi cá nhân, thì gần như chắc chắn họ cũng đang sử dụng chúng cho nghiên cứu công việc.
Cuộc điều tra do Which? tiến hành cho thấy việc tin tưởng vô điều kiện vào các nền tảng này có thể gây tốn kém. Khoảng một nửa người dùng AI cho biết họ tin tưởng thông tin nhận được ở mức “hợp lý” hoặc “rất cao”. Tuy nhiên, khi xem xét chi tiết các câu trả lời của mô hình AI, thì sự tin tưởng này thường không đúng chỗ.
Khoảng cách về độ chính xác khi dùng AI để tìm kiếm web
Nghiên cứu đã kiểm tra sáu công cụ chính – ChatGPT, Google Gemini (cả phiên bản tiêu chuẩn và ‘AI Overviews’), Microsoft Copilot, Meta AI, và Perplexity – với 40 câu hỏi thông dụng liên quan đến tài chính, pháp luật và quyền lợi người tiêu dùng.
Perplexity đạt điểm tổng cao nhất với 71%, theo sát là Google Gemini AI Overviews với 70%. Trong khi đó, Meta đạt điểm thấp nhất chỉ 55%. ChatGPT, mặc dù được sử dụng rộng rãi, chỉ đạt 64%, là công cụ xếp thứ hai từ dưới lên trong số các công cụ được kiểm tra. Khoảng cách này giữa sự thống trị thị trường và độ tin cậy đầu ra nhấn mạnh nguy cơ khi cho rằng độ phổ biến đồng nghĩa với hiệu suất trong lĩnh vực GenAI.
Tuy nhiên, cuộc điều tra cũng cho thấy tất cả các công cụ AI này đều thường xuyên hiểu sai thông tin hoặc đưa ra các lời khuyên không đầy đủ, có thể gây rủi ro nghiêm trọng cho doanh nghiệp. Đối với các cán bộ tài chính và phòng pháp chế, bản chất các lỗi này khiến họ đặc biệt lo ngại.
Khi được hỏi về cách đầu tư khoản trợ cấp ISA hàng năm 25.000 bảng Anh, cả ChatGPT và Copilot đều không nhận ra lỗi cố ý trong câu hỏi liên quan đến giới hạn theo quy định. Thay vì sửa lỗi, các công cụ lại đưa ra lời khuyên có thể vi phạm quy định của HMRC.
Mặc dù Gemini, Meta và Perplexity phát hiện được lỗi, sự không đồng nhất giữa các nền tảng yêu cầu phải có quy trình “human-in-the-loop” nghiêm ngặt trong bất kỳ quy trình kinh doanh nào sử dụng AI nhằm đảm bảo độ chính xác.
Đối với các đội pháp lý, thói quen AI tổng quát hóa các quy định vùng miền khi dùng để tìm kiếm web mang lại rủi ro đặc thù cho doanh nghiệp. Kiểm tra cho thấy các công cụ thường không hiểu rằng luật pháp có thể khác nhau giữa các khu vực ở Anh, ví dụ như Scotland so với England và Wales.
Thêm vào đó, điều tra cũng chỉ ra khoảng cách đạo đức trong cách các mô hình xử lý các câu hỏi nhạy cảm. Trong những vấn đề pháp lý và tài chính, các công cụ hiếm khi khuyên người dùng tham khảo ý kiến chuyên gia đăng ký. Ví dụ, khi được hỏi về tranh chấp với thợ xây, Gemini khuyên nên giữ lại tiền thanh toán; chiến thuật này được các chuyên gia đánh giá có thể khiến người dùng vi phạm hợp đồng và làm suy yếu vị thế pháp lý của họ.
Lời khuyên “quá tự tin” này tạo ra những rủi ro vận hành. Nếu nhân viên dựa vào AI để kiểm tra tuân thủ sơ bộ hoặc xem xét hợp đồng mà không xác minh khu vực pháp lý hay các sắc thái luật pháp, tổ chức có thể đối mặt với nguy cơ vi phạm quy định.
Vấn đề minh bạch nguồn thông tin
Một mối quan ngại chính về quản trị dữ liệu doanh nghiệp là nguồn gốc thông tin. Cuộc điều tra chỉ ra rằng các công cụ tìm kiếm AI thường chịu trách nhiệm lớn về tính minh bạch nhưng lại thường dẫn nguồn không rõ ràng, không tồn tại hoặc có độ chính xác đáng ngờ, ví dụ như các chủ đề diễn đàn cũ. Tính mờ mịt này có thể dẫn đến sự kém hiệu quả về tài chính.
Trong một thử nghiệm liên quan đến mã số thuế, ChatGPT và Perplexity cung cấp các liên kết đến các công ty hoàn thuế thu phí cao thay vì hướng người dùng đến công cụ chính thức miễn phí của HMRC. Các dịch vụ bên thứ ba này thường đi kèm với phí cao.
Trong bối cảnh mua sắm doanh nghiệp, sự thiên vị thuật toán từ các công cụ AI khi dùng để tìm kiếm web có thể dẫn đến chi tiêu nhà cung cấp không cần thiết hoặc hợp tác với nhà cung cấp tiềm ẩn rủi ro do không đáp ứng tiêu chuẩn thẩm định doanh nghiệp.
Các nhà cung cấp công nghệ lớn đều thừa nhận những hạn chế này, đồng thời đặt trọng trách xác minh hoàn toàn lên người dùng – và do đó là doanh nghiệp.
Người phát ngôn Microsoft nhấn mạnh công cụ của họ đóng vai trò tổng hợp chứ không phải nguồn thông tin chính xác tuyệt đối. “Copilot trả lời câu hỏi bằng cách chắt lọc thông tin từ nhiều nguồn web để đưa ra một phản hồi tổng hợp,” công ty cho biết, đồng thời khuyến nghị “mọi người nên kiểm tra lại độ chính xác của nội dung.”
OpenAI, phản hồi về phát hiện này, cho biết: “Cải thiện độ chính xác là điều toàn ngành đang tập trung phát triển. Chúng tôi đang tiến bộ tốt và mô hình mặc định mới nhất của chúng tôi, GPT-5, là phiên bản thông minh và chính xác nhất từ trước tới nay.”
Giảm thiểu rủi ro AI cho doanh nghiệp qua chính sách và quy trình
Đối với các nhà lãnh đạo doanh nghiệp, hướng đi không phải là cấm công cụ AI – vì điều này thường làm tăng sử dụng trong bóng tối – mà là triển khai các khung quản trị vững chắc nhằm đảm bảo độ chính xác đầu ra khi dùng để tìm kiếm trên web:
- Yêu cầu cụ thể hóa truy vấn: Cuộc điều tra lưu ý AI vẫn đang học cách hiểu truy vấn. Đào tạo doanh nghiệp nên nhấn mạnh rằng các câu hỏi chung chung sẽ dẫn đến dữ liệu rủi ro. Nếu nhân viên tìm hiểu về quy định, họ phải chỉ rõ khu vực pháp lý (ví dụ: “quy định pháp luật tại England và Wales”) thay vì giả định công cụ sẽ tự ngầm hiểu ngữ cảnh.
- Bắt buộc xác minh nguồn: Tin tưởng một kết quả duy nhất là không an toàn trong vận hành. Nhân viên phải yêu cầu xem nguồn và kiểm tra thủ công. Nghiên cứu gợi ý rằng với các chủ đề rủi ro cao, người dùng nên xác minh kết quả qua nhiều công cụ AI hoặc “đánh giá chéo” thông tin. Các công cụ như Google Gemini AI Overviews, cho phép người dùng xem trực tiếp các liên kết web được trưng bày, đã thực hiện tốt hơn đôi chút nhờ hỗ trợ quá trình kiểm chứng.
- Vận hành “ý kiến thứ hai”: Ở giai đoạn này về mặt kỹ thuật, đầu ra GenAI chỉ nên xem là một trong nhiều ý kiến. Với các vấn đề phức tạp liên quan tài chính, pháp lý hay y tế, AI thiếu khả năng hiểu hết các sắc thái tinh vi. Chính sách doanh nghiệp phải quy định rằng ý kiến chuyên nghiệp của con người vẫn là quyết định cuối cùng đối với những vấn đề có hệ quả thực tế.
Các công cụ AI đang phát triển và độ chính xác tìm kiếm web đang dần cải thiện, nhưng như cuộc điều tra kết luận, quá phụ thuộc vào chúng vào thời điểm này có thể khiến doanh nghiệp phải trả giá. Đối với tổ chức, sự khác biệt giữa tăng hiệu quả kinh doanh nhờ AI và rủi ro thất bại trong tuân thủ nằm ở quy trình kiểm chứng.
Nguồn : https://www.artificialintelligence-news.com/



