Microsoft sử dụng siêu máy tính với hàng nghìn GPU Nvidia để vận hành chatGPT

VNZ-NEWS
Vn-Z.vn Ngày 14 tháng 03 năm 2023, robot trò chuyện với trí tuệ nhân tạo ChatGPT đã trở nên phổ biến trên toàn thế giới ngay sau khi được phát hành. Microsoft đã tích hợp chatbot thông minh này vào hệ thống Bing search và trình duyệt Edge . Để vận hành những hệ thống tìm kiếm tích hợp chatbot trí tuệ nhân tạo này , người ta đã dự đoán rằng chi phí vận hành lớn hơn tới 10 lần so với tìm kiếm thông thường. Một trong những lý do khiến chi ví vận hành chatbot lại lớn như vậy vì sở dĩ ChatGPT có thể thông minh là do một siêu máy tính đắt tiền được Microsoft chế tạo dành riêng cho nó.


sieu-may-tinh-chatGPT.webp

Một hệ thống máy tinh khổng lồ của Microsoft trang bị hàng nghìn GPU Nvidia

Vào năm 2019, Microsoft đầu tư 1 tỷ đô la vào OpenAI, nhà phát triển ChatGPT. Microsoft đã xây dựng một siêu máy tính khổng lồ, tiên tiến cho công ty khởi nghiệp nghiên cứu AI. Vào thời điểm đó, OpenAI đang cố gắng đào tạo một tập hợp ngày càng lớn các chương trình trí tuệ nhân tạo, "mô hình" này hấp thụ lượng dữ liệu ngày càng tăng và học ngày càng nhiều tham số. Các tham số này là các biến bắt nguồn từ quá trình đào tạo lại hệ thống AI. OpenAI cần sử dụng các dịch vụ điện toán đám mây mạnh mẽ trong một thời gian dài.

Để đáp ứng nhu cầu của OpenAI , Microsoft phải tìm cách kết hợp hàng chục nghìn chip đồ họa Nvidia A100 (chuyên dùng để huấn luyện các mô hình trí tuệ nhân tạo) và thay đổi vị trí các máy chủ trên tủ rack để đề phòng mất điện.

Scott Guthrie, phó chủ tịch điều hành mảng điện toán đám mây và trí tuệ nhân tạo của Microsoft, không tiết lộ chi phí chính xác của dự án, nhưng cho biết chi phí "có thể hơn" vài trăm triệu USD.

Nidhi Chappell, tổng giám đốc Cơ sở hạ tầng Azure AI tại Microsoft cho biết: "Chúng tôi đã xây dựng một kiến trúc hệ thống hoạt động ở quy mô siêu lớn và đáng tin cậy. Đó là điều khiến ChatGPT trở nên khả thi, sẽ có rất nhiều mô hình khác trong tương lai."

Nhờ được trang bị hệ thống siêu máy tính khổng lồ , ChatGPT được đào tạo dựa vào công nghệ siêu máy tính. Công nghệ này đã giúp OpenAI ra mắt ChatGPT, thu hút hơn 1 triệu người dùng trong vòng vài ngày kể từ khi phát hành vào tháng 11 năm 2022 và hiện đang được tích hợp vào mô hình kinh doanh của các công ty khác như nhà sáng lập quỹ phòng hộ tỷ phú Ken Griffin cho đến thực phẩm công ty giao hàng Instacart.

Khi các công cụ trí tuệ nhân tạo tổng quát như ChatGPT nhận được nhiều sự quan tâm hơn từ các doanh nghiệp và người tiêu dùng, các nhà cung cấp dịch vụ đám mây như Microsoft, Amazon và Google sẽ phải đối mặt với áp lực ngày càng tăng để đảm bảo các trung tâm dữ liệu của họ có thể cung cấp khả năng Tính toán khổng lồ.

Hiện tại, Microsoft đang sử dụng cùng một bộ tài nguyên mà họ đã xây dựng dành cho OpenAI để đào tạo và chạy các mô hình AI quy mô lớn của riêng mình, bao gồm cả chatbot tìm kiếm Bing mới được công bố vào tháng trước. Microsoft đã làm việc trên thế hệ siêu máy tính trí tuệ nhân tạo tiếp theo như một phần của thỏa thuận hợp tác mở rộng giữa Microsoft và OpenAI với khoản đầu tư thêm 10 tỷ USD.

Đào tạo một mô hình trí thông minh nhân tạo AI khổng lồ đòi hỏi hệ thống máy tính phải có một số lượng lớn các đơn vị xử lý đồ họa được kết nối với nhau giống như siêu máy tính AI do Microsoft lắp ráp. Sau khi mô hình được sử dụng, việc trả lời tất cả các truy vấn mà người dùng yêu cầu—được gọi là suy luận—yêu cầu thiết lập hơi khác một chút.

Microsoft cũng triển khai chip đồ họa để suy luận, nhưng hàng chục nghìn bộ xử lý đó trải rộng về mặt địa lý trên hơn 60 khu vực trung tâm dữ liệu của công ty. Microsoft đang bổ sung chip đồ họa Nvidia mới nhất, H100, cho việc xử lý khối lượng công việc trí tuệ nhân tạo, cùng với phiên bản mới nhất của công nghệ mạng Infiniband của Nvidia giúp chia sẻ dữ liệu nhanh hơn.

Dù hiện tại, Tìm kiếm Bing mới vẫn ở dạng xem trước. Microsoft đang dần thêm nhiều người dùng hơn từ danh sách chờ. Đội của Guthrie tổ chức các cuộc họp hàng ngày với khoảng 24 nhân viên. Công việc của nhóm này là tìm ra cách nhanh chóng mang lại nhiều sức mạnh tính toán trực tuyến hơn và khắc phục các sự cố phát sinh.

Các dịch vụ đám mây phụ thuộc vào hàng nghìn bộ phận và hạng mục khác nhau, không chỉ bao gồm các bộ phận máy chủ mà cả các bộ phần như đường ống, bộ phần bê tông trong các tòa nhà, kim loại và khoáng chất khác nhau. Sự chậm trễ hoặc thiếu hụt của bất kỳ bộ phận nào, dù nhỏ đến đâu, đều có thể dẫn đến hỏng hóc.

Gần đây, các đội bảo trì đã phải đối phó với tình trạng thiếu máng cáp. Máng cáp chỉ là loại vật tư được sử dụng để giữ dây cáp rơi ra khỏi máy nhưng để đáp ứng với nhu cầu hệ thống lớn người ta đã thiết kế một khay cáp mới . Guthrie cho biết họ cũng đang tìm cách khai thác càng nhiều máy chủ từ các trung tâm dữ liệu hiện có trên khắp thế giới càng tốt để không phải chờ đợi xây dựng trung tâm máy chủ mới.

Khi OpenAI và Microsoft đào tạo một mô hình AI lớn, công việc sẽ được thực hiện cùng một lúc. Mô hình AI sẽ được phân phối trên tất cả các GPU và đến một lúc nào đó, các đơn vị cần nói chuyện với nhau để chia sẻ công việc họ đang làm. Đối với siêu máy tính AI, Microsoft phải đảm bảo rằng thiết bị mạng xử lý giao tiếp giữa tất cả các chip có thể xử lý tải và phải phát triển phần mềm có thể tận dụng tối đa GPU cũng như thiết bị mạng. Microsoft hiện có phần mềm có thể đào tạo các mô hình với hàng chục nghìn tỷ tham số.

Vì tất cả các hệ thống máy tính đều được khởi động cùng lúc nên Microsoft phải suy nghĩ xem chúng được đặt ở đâu và nguồn điện như thế nào. Alistair Speirs, giám đốc cơ sở hạ tầng toàn cầu của Microsoft Azure, cho biết họ cũng phải đảm bảo rằng có thể làm mát tất cả các máy móc và chip.
Guthrie cho biết Microsoft sẽ tiếp tục phát triển các thiết kế chip và máy chủ tùy chỉnh, đồng thời tìm cách tối ưu hóa chuỗi cung ứng để tối đa hóa tốc độ, hiệu quả và tiết kiệm chi phí.
 
Trả lời

Whale

Rìu Vàng Đôi
Hiện đại và hại điện !
Nhưng công nhận Bing AI càng ngày càng phổ biến và càng khôn ! Càng có nhiều phần mềm cũng tích hợp Chat GPT vào phần trợ lý ảo !

Maxthon-Snap20230314221341.jpg
 

Swings Onlyone

Rìu Vàng Đôi
VIP User
phải khuyến cáo con em/nhân viên sử dụng thứ này như một "công cụ" chứ đừng xem nó là một "trợ lý" vì sớm muộn sẽ ỷ lại nó & điều này hết sức nguy hiểm.
nó thì càng ngày càng học càng giỏi lên.
GenZ thì ngày càng ỷ lại, càng thiếu skill, càng phế