Theo báo cáo từ Bloomberg, Microsoft đã chi hàng trăm triệu USD để xây dựng một siêu máy tính khổng lồ nhằm hỗ trợ năng lượng cho chatbot ChatGPT của OpenAI. Trong những bài đăng trên blog, Microsoft giải thích cách tạo ra cơ sở hạ tầng trí tuệ nhân tạo của Azure được OpenAI sử dụng, đồng thời, công ty cũng tiết lộ vì sao các hệ thống xử lý ngày càng mạnh mẽ hơn.
Để xây dựng siêu máy tính cung cấp năng lượng cho các dự án của OpenAI, Microsoft đã liên kết hàng nghìn card đồ họa (GPU) Nvidia trên nền tảng điện toán đám mây Azure, cho phép OpenAI huấn luyện các mô hình ngày càng mạnh mẽ và mở ra tiềm năng vô hạn của AI trên ChatGPT và Bing.
Theo Bloomberg, Scott Guthrie, Phó chủ tịch AI và đám mây của Microsoft, cho biết công ty đã chi hàng trăm triệu USD cho dự án. Dù đây chỉ là con số khiêm tốn với Microsoft nhưng cũng cho thấy tập đoàn công nghệ gần đây đã mở rộng khoản đầu tư hàng tỉ USD trong nhiều năm vào OpenAI, sẵn sàng đổ tiền nhiều hơn vào thị trường AI.
Microsoft đã cật lực làm việc để tối ưu hóa các khả năng AI của Azure khi ra mắt các máy ảo mới sử dụng GPU H100 và A100 Tensor Core của Nvidia, cũng như mạng Quantum-2 InfiniBand - dự án được hé lộ vào tháng 11.2022. Theo Microsoft, hướng đi này sẽ cho phép OpenAI và các công ty khác dựa vào Azure để huấn luyện các mô hình AI lớn và phức tạp hơn.
Eric Boyd, Phó chủ tịch tập đoàn Azure AI của Microsoft, trao đổi: “Chúng tôi nhận ra rằng cần phải xây dựng các cụm máy tính chuyên biệt tập trung xử lý khối lượng công việc lớn như OpenAI. Các bên đã cùng nhau làm việc chặt chẽ để tìm hiểu đâu là những điều họ đang tìm kiếm và đâu là những điều họ thực sự cần khi xây dựng môi trường huấn luyện trí tuệ nhân tạo”.