OpenAI vừa bổ sung danh sách các đối tác hạ tầng, mở rộng khả năng vận hành mô hình trí tuệ nhân tạo quy mô lớn.

Thay vì chỉ phụ thuộc vào Microsoft như giai đoạn đầu, giờ đây OpenAI sẽ sử dụng đồng thời nhiều nhà cung cấp dịch vụ đám mây bao gồm: Google Cloud, CoreWeave và Oracle. Việc đa dạng hóa này được giới phân tích đánh giá là bước đi chiến lược để giải quyết tình trạng “nghẽn cổ chai” về tài nguyên GPU và giảm rủi ro phụ thuộc.
Google vốn đang lép vế về thị phần so với Amazon và Microsoft trong mảng điện toán đám mây. Tuy nhiên, đến nay được cho là đã ghi dấu ấn khi trở thành đối tác vận hành hạ tầng cho ChatGPT và các API của OpenAI tại nhiều khu vực trên thế giới như: Mỹ, Nhật Bản, châu Âu.
Đáng chú ý, dù 2 bên cùng tham gia cuộc đua AI và phát triển mô hình riêng (Gemini của Google và GPT của OpenAI), nhưng họ vẫn sẵn sàng hợp tác hạ tầng. Điều này, phản ánh rõ xu hướng “đối tác - đối thủ” (coopetition) trong ngành công nghệ.
Việc mở rộng hạ tầng này diễn ra trong bối cảnh CEO Sam Altman từng công khai thừa nhận khó khăn trong việc tìm nguồn GPU để duy trì các mô hình AI quy mô lớn. “Nếu ai có sẵn 100.000 GPU, làm ơn gọi cho chúng tôi”, ông viết trên mạng xã hội X hồi tháng 4.
Trước đó, OpenAI cũng ký hợp đồng 5 năm trị giá gần 12 tỉ USD với CoreWeave và công bố kế hoạch hợp tác liên kết 3 bên cùng Microsoft và Oracle để chia sẻ tài nguyên tính toán trên nền tảng đám mây.
Dù Microsoft vẫn giữ vai trò đối tác chiến lược lâu dài và độc quyền với các giao diện lập trình của OpenAI, nhưng việc mở rộng mạng lưới hạ tầng cho thấy công ty đang bước vào giai đoạn tăng trưởng toàn cầu, đòi hỏi tính linh hoạt và khả năng tối ưu tài nguyên ở mức cao nhất.