OpenAI đang đẩy mạnh đầu tư để củng cố chuỗi cung ứng tính toán AI, với một hợp đồng mới ký kết cùng AWS trong chiến lược đa Cloud của mình.
Công ty vừa kết thúc mối quan hệ hợp tác độc quyền về điện toán Cloud với Microsoft. Kể từ đó, OpenAI đã phân bổ khoảng 250 tỷ đô la cho Microsoft, 300 tỷ đô la cho Oracle, và mới đây là 38 tỷ đô la dành cho Amazon Web Services (AWS) trong một hợp đồng nhiều năm. Mặc dù 38 tỷ đô la là khoản đầu tư nhỏ nhất trong ba thỏa thuận, đây là bước đi quan trọng trong kế hoạch đa dạng hóa của OpenAI.
Đối với các nhà lãnh đạo ngành, hành động của OpenAI cho thấy việc tiếp cận GPU hiệu suất cao không còn là một hàng hóa có thể cung cấp theo nhu cầu nhanh chóng. GPU giờ đây trở thành tài nguyên khan hiếm, đòi hỏi cam kết vốn lớn trong dài hạn.
Hợp đồng với AWS tạo điều kiện cho OpenAI tiếp cận hàng trăm nghìn GPU NVIDIA, bao gồm cả các dòng GB200 và GB300 mới nhất, cùng khả năng sử dụng hàng chục triệu CPU.
Cơ sở hạ tầng mạnh mẽ này không chỉ phục vụ cho việc huấn luyện các mô hình tương lai mà còn cần thiết để xử lý khối lượng công việc suy luận khổng lồ của ChatGPT hiện nay. Như Sam Altman, đồng sáng lập kiêm CEO OpenAI, đã chia sẻ: “để mở rộng AI tiên tiến đòi hỏi khả năng tính toán lớn và ổn định”.
Cuộc đua đầu tư này đang tạo sức ép cạnh tranh lên các nhà cung cấp lớn. Mặc dù AWS vẫn là nhà cung cấp Cloud lớn nhất ngành, Microsoft và Google gần đây đã ghi nhận tốc độ tăng trưởng doanh thu Cloud nhanh hơn, thường nhờ thu hút khách hàng AI mới. Thỏa thuận với AWS rõ ràng là nỗ lực bảo đảm gánh nặng công việc AI trọng yếu, đồng thời khẳng định năng lực AI quy mô lớn của AWS, bao gồm khả năng vận hành cụm hơn 500.000 chip.
Đáng chú ý, AWS không chỉ cung cấp máy chủ tiêu chuẩn mà còn phát triển kiến trúc chuyên biệt cho OpenAI, sử dụng các EC2 UltraServers để kết nối GPU, đảm bảo mạng lưới phân phối dữ liệu với độ trễ thấp cần thiết cho đào tạo mô hình quy mô lớn.
“Quy mô và sự sẵn có ngay lập tức của khả năng tính toán được tối ưu hóa cho thấy vì sao AWS có vị trí độc nhất trong việc hỗ trợ các khối lượng AI đồ sộ của OpenAI,” Matt Garman – CEO của AWS cho biết.
Dù vậy, “ngay lập tức” cũng cần hiểu trong bối cảnh tương đối. Toàn bộ công suất theo hợp đồng mới của OpenAI với nhà cung cấp Cloud sẽ chưa được triển khai đầy đủ cho đến cuối năm 2026, với các tùy chọn mở rộng tiếp tục vào năm 2027. Điều này cảnh báo các nhà quản lý doanh nghiệp một thực tế: chuỗi cung ứng phần cứng vận hành theo những kế hoạch nhiều năm, rất phức tạp.
Vậy các lãnh đạo doanh nghiệp rút ra bài học gì từ đây?
Thứ nhất, tranh luận giữa tự xây dựng hay thuê mướn hạ tầng AI giờ gần như đã kết thúc. OpenAI đang chi hàng trăm tỷ đô la để xây dựng trên nền tảng phần cứng đi thuê. Ít có doanh nghiệp nào hoặc không nên bước theo con đường này. Điều này đẩy thị trường hướng mạnh về các nền tảng quản lý như Amazon Bedrock, Google Vertex AI hay IBM watsonx – nơi các nhà cung cấp lớn chịu rủi ro hạ tầng.
Thứ hai, thời kỳ tập trung chạy AI trên một nhà cung cấp Cloud duy nhất nhiều khả năng đã kết thúc. Việc OpenAI chuyển sang mô hình đa nhà cung cấp là ví dụ điển hình về cách giảm thiểu rủi ro tập trung. Với các CIO, dựa vào một nhà cung cấp để vận hành quy trình kinh doanh cốt lõi ngày càng trở thành một canh bạc.
Cuối cùng, ngân sách AI đã không còn là vấn đề của phòng IT mà đã bước vào quy hoạch vốn cấp cao của toàn doanh nghiệp. Đây không còn là chi phí vận hành biến động mà là cam kết tài chính dài hạn, tương tự việc xây dựng nhà máy hay trung tâm dữ liệu mới.
Nguồn : https://www.artificialintelligence-news.com/



