Microsoft, Anthropic và NVIDIA đang thiết lập một chuẩn mực mới về đầu tư hạ tầng Cloud và khả năng cung cấp mô hình AI với một liên minh tính toán tiên tiến. Thỏa thuận này đánh dấu sự chuyển hướng khỏi việc phụ thuộc vào một mô hình duy nhất, tiến tới một hệ sinh thái đa dạng, được tối ưu hóa phần cứng, thay đổi bối cảnh quản trị dành cho các lãnh đạo công nghệ cấp cao.
CEO Microsoft, Satya Nadella cho biết mối quan hệ này là sự tích hợp có tính đối ứng, nơi các công ty “ngày càng trở thành khách hàng của nhau”. Trong khi Anthropic tận dụng hạ tầng Azure, Microsoft sẽ tích hợp các mô hình Anthropic vào toàn bộ hệ sinh thái sản phẩm của mình.
Anthropic cam kết chi khoảng 30 tỷ đô la cho công suất tính toán Azure – con số thể hiện yêu cầu tính toán khổng lồ cần thiết để đào tạo và triển khai các mô hình tân tiến thế hệ tiếp theo. Sự hợp tác tập trung vào lộ trình phần cứng cụ thể, bắt đầu với hệ thống Grace Blackwell của NVIDIA và tiến tới kiến trúc Vera Rubin.
CEO NVIDIA Jensen Huang kỳ vọng kiến trúc Grace Blackwell cùng NVLink sẽ mang lại “tăng tốc nhanh hơn gấp bội,” một bước nhảy cần thiết để giảm chi phí token hiệu quả.
Đối với những người quản lý chiến lược hạ tầng, mô tả của Huang về phương pháp “shift-left” trong kỹ thuật – nơi công nghệ NVIDIA xuất hiện trên Azure ngay khi ra mắt – cho thấy doanh nghiệp chạy Claude trên Azure sẽ tiếp cận được những đặc tính hiệu năng khác biệt so với các instance tiêu chuẩn. Sự tích hợp sâu sắc này có thể ảnh hưởng đến quyết định kiến trúc khi xử lý các ứng dụng nhạy cảm với độ trễ hoặc quy trình xử lý batch với khối lượng lớn.
Kế hoạch tài chính hiện phải cân nhắc ba quy luật mở rộng đồng thời mà Huang chỉ ra: mở rộng trước đào tạo, sau đào tạo và trong thời gian suy luận.
Trước đây, chi phí tính toán AI chủ yếu tập trung vào giai đoạn đào tạo. Tuy nhiên, Huang lưu ý rằng với việc mở rộng thời gian suy luận – khi mô hình “suy nghĩ” lâu hơn để cho ra câu trả lời chất lượng cao hơn – chi phí suy luận đang gia tăng.
Do đó, chi phí vận hành AI (OpEx) sẽ không còn cố định theo từng token mà sẽ tương quan với độ phức tạp của quá trình suy luận. Việc dự báo ngân sách cho các quy trình agentic giờ đây phải trở nên linh hoạt hơn.
Việc tích hợp vào các quy trình doanh nghiệp hiện hành vẫn là thách thức lớn trong việc thúc đẩy ứng dụng. Để giải quyết, Microsoft cam kết tiếp tục cung cấp truy cập cho Claude trên toàn bộ hệ sinh thái Copilot.
Trọng tâm vận hành tập trung mạnh vào các khả năng agentic. Huang nhấn mạnh giao thức Model Context Protocol (MCP) của Anthropic như một bước phát triển đã “cách mạng hóa cảnh quan AI agentic”. Các nhà lãnh đạo kỹ thuật phần mềm cần lưu ý rằng các kỹ sư NVIDIA đã sử dụng Claude Code để tái cấu trúc các nền tảng mã nguồn cũ.
Về mặt bảo mật, sự tích hợp này giúp đơn giản hóa phạm vi kiểm soát an ninh. Các nhà lãnh đạo bảo mật khi rà soát các API bên thứ ba giờ có thể triển khai khả năng Claude ngay trong phạm vi tuân thủ hiện có của Microsoft 365. Điều này đơn giản hóa quản trị dữ liệu, vì các nhật ký tương tác và quy trình xử lý dữ liệu vẫn nằm trong các thỏa thuận thuê bao của Microsoft đã thiết lập.
Vấn đề bị ràng buộc nhà cung cấp vẫn là điểm cọ xát với các CDO và chuyên viên quản lý rủi ro. Tuy nhiên, mối quan hệ hợp tác về AI compute này giúp giảm bớt lo ngại khi biến Claude trở thành mô hình frontier duy nhất có mặt trên cả ba dịch vụ Cloud toàn cầu hàng đầu. Nadella nhấn mạnh phương thức đa mô hình này bổ trợ cho thay vì thay thế, hợp tác hiện tại của Microsoft với OpenAI – vốn vẫn là trọng tâm trong chiến lược của họ.
Với Anthropic, liên minh này giải quyết được thách thức “đưa sản phẩm đến doanh nghiệp”. Huang cho biết xây dựng mạng lưới bán hàng doanh nghiệp có thể mất hàng thập kỷ, và việc tận dụng các kênh đã thiết lập của Microsoft giúp Anthropic rút ngắn đáng kể đường cong áp dụng thị trường.
Thỏa thuận ba bên này thay đổi cuộc chơi trong khâu mua sắm. Nadella kêu gọi ngành công nghiệp cần vượt qua “câu chuyện âm lợi”, hướng tới tương lai của những năng lực rộng mở và bền vững.
Tổ chức nên xem xét lại danh mục mô hình của mình. Việc Claude Sonnet 4.5 và Opus 4.1 có mặt trên Azure đòi hỏi một phân tích TCO so sánh với các triển khai hiện có. Bên cạnh đó, cam kết cung cấp “công suất gigawatt” cho thấy hạn chế về năng lực cho các mô hình này có thể nhẹ nhàng hơn so với các chu kỳ phần cứng trước đây.
Sau liên minh AI compute này, các doanh nghiệp cần chuyển trọng tâm từ việc tiếp cận sang tối ưu hóa; phù hợp phiên bản mô hình thích hợp với quy trình kinh doanh cụ thể để tối đa hóa lợi tức đầu tư cho hạ tầng mở rộng.
Nguồn : https://www.artificialintelligence-news.com/



