Theo AWS tại sự kiện re:Invent 2025 tuần này, “cơn sốt” chatbot đã gần như kết thúc, nhường chỗ cho sự lên ngôi của các frontier AI agents.
Đây là thông điệp rõ ràng từ Las Vegas trong tuần này. Sự ám ảnh với giao diện trò chuyện của ngành công nghiệp đã nhường chỗ cho một nhiệm vụ đòi hỏi cao hơn nhiều: các “frontier agents” không chỉ biết trò chuyện mà còn có thể hoạt động tự chủ trong nhiều ngày liền.
Chúng ta đang chuyển từ giai đoạn mới mẻ của AI sinh tạo sang một kỷ nguyên nghiêm túc về kinh tế hạ tầng và vận hành hệ thống. Yếu tố “wow” của một chatbot biết viết thơ đã không còn hấp dẫn nữa; giờ đây, chi phí vận hành hạ tầng để chạy các hệ thống AI quy mô lớn mới là điều bắt buộc phải trả.
Giải quyết “khủng hoảng hạ tầng” tại AWS re:Invent 2025
Trước đây, xây dựng các frontier AI agents để thực hiện những tác vụ phức tạp, không xác định được kết quả một cách rõ ràng là một thử thách kỹ thuật vô cùng phức tạp. Các đơn vị tiên phong đã phải tốn rất nhiều nguồn lực để tạo ra các công cụ quản lý ngữ cảnh, bộ nhớ và bảo mật.
AWS đang cố gắng loại bỏ sự phức tạp đó với Amazon Bedrock AgentCore — một dịch vụ được quản lý như một hệ điều hành dành riêng cho AI agents, đảm nhận phần Logistics như quản lý trạng thái và truy xuất ngữ cảnh. Việc chuẩn hóa lớp này mang lại hiệu suất vượt trội khó có thể bỏ qua.
Hãy nhìn vào MongoDB. Nhờ loại bỏ hệ thống nội bộ tự phát triển, họ đã tích hợp dây chuyền công cụ và đưa ứng dụng dựa trên agent vào sản xuất chỉ trong tám tuần — một quy trình mà trước đó tiêu tốn hàng tháng để đánh giá và bảo trì. PGA TOUR còn thu về hiệu quả lớn hơn khi sử dụng nền tảng này xây dựng hệ thống tạo nội dung, tăng tốc độ viết lên đến 1000% đồng thời giảm chi phí tới 95%.
Đội ngũ phát triển phần mềm cũng có riêng lực lượng làm việc dành cho mình. Tại re:Invent 2025, AWS trình làng ba frontier AI agents chuyên biệt: Kiro (một nhà phát triển ảo), một AI agent chuyên về bảo mật, và một DevOps Agent. Kiro không chỉ đơn thuần là công cụ hoàn thiện mã lệnh; nó trực tiếp tích hợp vào quy trình làm việc với các “quyền năng” (tích hợp chuyên biệt các công cụ như Datadog, Figma, và Stripe), nhờ đó hoạt động dựa trên ngữ cảnh chứ không phải đoán mò cú pháp.
Các agent hoạt động liên tục trong nhiều ngày tiêu thụ lượng lớn tài nguyên tính toán. Nếu trả mức phí on-demand thông thường, lợi tức đầu tư của bạn gần như bay biến.
AWS hiểu rõ điều này, nên các thông báo phần cứng trong năm nay rất táo bạo. Các Trainium3 UltraServers mới, trang bị chip 3nm, tuyên bố hiệu năng tính toán tăng gấp 4,4 lần so với thế hệ trước. Với các tổ chức đào tạo những mô hình nền tảng khổng lồ, điều này rút ngắn thời gian đào tạo từ vài tháng xuống còn vài tuần.
Tuy nhiên, thay đổi thú vị hơn là vị trí đặt phần cứng này. Chủ quyền dữ liệu vẫn là bài toán khó với các doanh nghiệp toàn cầu, thường cản trở việc ứng dụng Cloud công cộng cho các workload AI nhạy cảm. AWS đáp trả bằng cách tạo ra ‘AI Factories’ — về cơ bản là lắp đặt các dãy máy Trainium và GPU NVIDIA ngay trong trung tâm dữ liệu hiện có của khách hàng. Đây là chiến lược hybrid nhằm thừa nhận một sự thật đơn giản: đối với một số loại dữ liệu, Cloud công cộng vẫn còn quá xa vời.
Giải quyết “núi nợ kỹ thuật” trong hệ thống cũ
Sự đổi mới với frontier AI agents là điều tuyệt vời, nhưng đa số ngân sách công nghệ lại bị bóp nghẹt bởi nợ kỹ thuật. Các đội ngũ thường dành khoảng 30% thời gian chỉ để duy trì vận hành hiện trạng.
Tại re:Invent 2025, Amazon đã cập nhật AWS Transform để tập trung xử lý vấn đề này bằng cách sử dụng AI agent để giải quyết các công việc nâng cấp mã nguồn cũ. Dịch vụ này hiện hỗ trợ hiện đại hóa toàn bộ stack trên Windows, bao gồm nâng cấp ứng dụng .NET và cơ sở dữ liệu SQL Server.
Air Canada đã tận dụng công cụ này để hiện đại hóa hàng nghìn hàm Lambda chỉ trong vài ngày. Nếu làm thủ công, họ sẽ tốn gấp năm lần chi phí và mất nhiều tuần.
Với những nhà phát triển muốn tự tay viết mã, hệ sinh thái cũng đang mở rộng. Bộ công cụ Strands Agents SDK, từng chỉ hỗ trợ Python, giờ đây đã tích hợp TypeScript. Là ngôn ngữ chuẩn trên web, TypeScript mang lại tính an toàn kiểu dữ liệu cho đầu ra hỗn độn của các mô hình ngôn ngữ lớn (LLM), là bước tiến cần thiết trong phát triển.
Quản trị hợp lý trong kỷ nguyên frontier AI agents
Có một rủi ro trong đó. Một agent hoạt động tự chủ trong “vài ngày không cần can thiệp” cũng là agent có thể gây hư hại cơ sở dữ liệu hoặc rò rỉ thông tin cá nhân (PII) mà không ai nhận ra cho đến khi quá muộn.
AWS nỗ lực kiểm soát rủi ro này bằng ‘AgentCore Policy’, một tính năng cho phép các nhóm đặt ra giới hạn bằng ngôn ngữ tự nhiên để quy định những gì agent có thể hoặc không thể làm. Kết hợp với ‘Evaluations’ — sử dụng các chỉ số được xây dựng sẵn để giám sát hiệu suất agent — đây là một lớp bảo vệ cần thiết.
Đội ngũ bảo mật cũng nhận được hỗ trợ với bản cập nhật Security Hub, giờ đây tổng hợp tín hiệu từ GuardDuty, Inspector, và Macie thành các “sự kiện” duy nhất thay vì làm loãng bảng điều khiển bằng cảnh báo rời rạc. GuardDuty cũng được mở rộng với khả năng dùng Machine Learning để phát hiện các mẫu tấn công phức tạp trên các cụm EC2 và ECS.
Chúng ta rõ ràng đã vượt qua giai đoạn thử nghiệm. Những công cụ được công bố tại AWS re:Invent 2025, từ phần cứng chuyên dụng cho đến các framework quản trị frontier AI agents, đều được thiết kế cho môi trường sản xuất thực thụ. Câu hỏi dành cho các nhà lãnh đạo doanh nghiệp hiện nay không còn là “AI có thể làm gì?” mà là “liệu chúng ta có đủ khả năng đầu tư hạ tầng để AI thực sự phát huy tác dụng?”
Nguồn : https://www.artificialintelligence-news.com/



