VIETNAM—GTC—September 22, 2022—NVIDIA hôm nay đã thông báo rằng NVIDIA H100 Tensor Core GPU đang được sản xuất hoàn chỉnh từ các đối tác công nghệ toàn cầu và được lên kế hoạch để tung ra làn sóng sản phẩm và dịch vụ đầu tiên dựa trên kiến trúc NVIDIA Hopper™ đột phá vào tháng 10.
Được công bố vào tháng 4, H100 được chế tạo với 80 tỷ bóng bán dẫn và được tích hợp một loạt các đột phá công nghệ. Trong số đó có công cụ Transformer Engine mới đầy mạnh mẽ cùng kết nối NVIDIA NVLink® để tăng tốc các mô hình AI lớn nhất, như hệ thống đề xuất nâng cao và mô hình ngôn ngữ lớn, đồng thời thúc đẩy các đổi mới trong các lĩnh vực như AI đàm thoại và khám phá y dược.
“Hopper là engine mới của các nhà máy AI có khả năng xử lý và tinh chỉnh hàng núi dữ liệu để đào tạo các mô hình cùng hàng nghìn tỷ thông số được sử dụng để thúc đẩy những tiến bộ trong AI dựa trên ngôn ngữ, robot, chăm sóc sức khỏe và khoa học đời sống” - Jensen Huang, người sáng lập và Giám đốc điều hành của NVIDIA chia sẻ “Hopper’s Transformer Engine sẽ nâng cao hiệu suất lên đến mức độ lớn, đưa AI và HPC quy mô lớn đến tầm tay của các công ty và nhà nghiên cứu”.
Ngoài kiến trúc Hopper và Transformer Engine, một số cải tiến quan trọng khác giúp GPU H100 mang đến bước nhảy vọt tiếp theo trong nền tảng trung tâm dữ liệu máy tính tăng tốc của NVIDIA, bao gồm GPU đa phiên bản thế hệ thứ hai, điện toán bảo mật, NVIDIA NVLink thế hệ thứ tư và DPX Instructions.
Bản quyền sử dụng 05 năm cho bộ phần mềm NVIDIA AI Enterprise hiện đã đi kèm với H100 cho các máy chủ chính thống. Điều này giúp tối ưu hóa việc phát triển và triển khai các quy trình làm việc của AI cũng như đảm bảo các tổ chức có quyền truy cập vào các khuôn khổ và công cụ AI cần thiết để xây dựng các chatbot AI, công cụ đề xuất, tầm nhìn AI và hơn thế nữa.
Đối với những khách hàng muốn ngay lập tức dùng thử công nghệ mới, NVIDIA thông báo rằng H100 trên máy chủ Dell PowerEdge servers hiện đã có trên NVIDIA LaunchPad, nơi cung cấp phòng thí nghiệm thực hành miễn phí, cho phép các công ty truy cập vào phần cứng và phần mềm NVIDIA AI mới nhất.
Khách hàng cũng có thể bắt đầu đặt hàng hệ thống NVIDIA DGX™ H100 systems, bao gồm tám GPU H100 và mang lại hiệu suất 32 petaflop ở độ chính xác FP8. Phần mềm NVIDIA Base Command™ và NVIDIA AI Enterprise hỗ trợ mọi hệ thống DGX, cho phép triển khai từ một nút duy nhất đến NVIDIA DGX SuperPOD™ hỗ trợ phát triển AI nâng cao của các mô hình ngôn ngữ lớn và khối lượng công việc lớn khác.
Các hệ thống hỗ trợ H100 từ các nhà sản xuất máy tính hàng đầu thế giới dự kiến sẽ xuất xưởng trong những tuần tới, với hơn 50 mẫu máy chủ trên thị trường vào cuối năm và hàng chục mẫu nữa vào nửa đầu năm 2023. Các đối tác xây dựng hệ thống bao gồm Atos, Cisco, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Lenovo và Supermicro.
Ngoài ra, một số cơ sở giáo dục đại học và nghiên cứu hàng đầu thế giới sẽ sử dụng H100 để cung cấp năng lượng cho siêu máy tính thế hệ tiếp theo của họ. Trong số đó có Trung tâm Siêu máy tính Barcelona, Phòng thí nghiệm Quốc gia Los Alamos, Trung tâm Siêu máy tính Quốc gia Thụy Sĩ (CSCS), Trung tâm Máy tính Tiên tiến Texas và Đại học Tsukuba.
H100 tiến tới đám mây
Amazon Web Services, Google Cloud, Microsoft Azure và Oracle Cloud Infrastructure sẽ là những công ty đầu tiên triển khai các phiên bản dựa trên H100 trên đám mây bắt đầu từ năm sau.
“Chúng tôi mong muốn cho phép thế hệ tiếp theo của các mô hình AI trên GPU H100 mới nhất trong Microsoft Azure, ”Nidhi Chappell, tổng giám đốc Azure AI Infrastructure cho biết. “Với những tiến bộ trong kiến trúc Hopper cùng với các khoản đầu tư của chúng tôi vào Azure AI siêu máy tính, chúng tôi sẽ có thể giúp đẩy nhanh sự phát triển của AI trên toàn thế giới ”
Karan Batta, phó chủ tịch, quản lý sản phẩm của Oracle Cloud Infrastructure (OCI) cho biết: “Chúng tôi mong muốn cung cấp cho khách hàng GPU H100 mới nhất từ NVIDIA để giúp họ tăng tốc quá trình học máy và khối lượng công việc HPC khắt khe nhất của họ. “Ngoài ra, việc sử dụng thế hệ GPU H100 tiếp theo của NVIDIA cho phép chúng tôi hỗ trợ khối lượng công việc nội bộ đòi hỏi khắt khe của mình và giúp các khách hàng chung của chúng tôi có được những đột phá trong lĩnh vực chăm sóc sức khỏe, phương tiện tự hành, robot và IoT.”
Để giải quyết vấn đề này, một số khuôn khổ học tập sâu và mô hình ngôn ngữ lớn hàng đầu thế giới đang được tối ưu hóa trên H100, bao gồm NVIDIA NeMo Megatron, Microsoft DeepSpeed, Google JAX, PyTorch, TensorFlow và XLA. Các khuôn khổ này kết hợp với kiến trúc Hopper sẽ tăng tốc đáng kể hiệu suất của AI để giúp đào tạo các mô hình ngôn ngữ lớn trong vòng vài ngày hoặc vài giờ.
Để tìm hiểu thêm về NVIDIA Hopper và H100, hãy xem bài phát biểu chính của GTC 2022 từ Jensen Huang. Đăng ký GTC miễn phí để tham dự các buổi làm việc với NVIDIA và các nhà lãnh đạo ngành
Được công bố vào tháng 4, H100 được chế tạo với 80 tỷ bóng bán dẫn và được tích hợp một loạt các đột phá công nghệ. Trong số đó có công cụ Transformer Engine mới đầy mạnh mẽ cùng kết nối NVIDIA NVLink® để tăng tốc các mô hình AI lớn nhất, như hệ thống đề xuất nâng cao và mô hình ngôn ngữ lớn, đồng thời thúc đẩy các đổi mới trong các lĩnh vực như AI đàm thoại và khám phá y dược.
“Hopper là engine mới của các nhà máy AI có khả năng xử lý và tinh chỉnh hàng núi dữ liệu để đào tạo các mô hình cùng hàng nghìn tỷ thông số được sử dụng để thúc đẩy những tiến bộ trong AI dựa trên ngôn ngữ, robot, chăm sóc sức khỏe và khoa học đời sống” - Jensen Huang, người sáng lập và Giám đốc điều hành của NVIDIA chia sẻ “Hopper’s Transformer Engine sẽ nâng cao hiệu suất lên đến mức độ lớn, đưa AI và HPC quy mô lớn đến tầm tay của các công ty và nhà nghiên cứu”.
Ngoài kiến trúc Hopper và Transformer Engine, một số cải tiến quan trọng khác giúp GPU H100 mang đến bước nhảy vọt tiếp theo trong nền tảng trung tâm dữ liệu máy tính tăng tốc của NVIDIA, bao gồm GPU đa phiên bản thế hệ thứ hai, điện toán bảo mật, NVIDIA NVLink thế hệ thứ tư và DPX Instructions.
Bản quyền sử dụng 05 năm cho bộ phần mềm NVIDIA AI Enterprise hiện đã đi kèm với H100 cho các máy chủ chính thống. Điều này giúp tối ưu hóa việc phát triển và triển khai các quy trình làm việc của AI cũng như đảm bảo các tổ chức có quyền truy cập vào các khuôn khổ và công cụ AI cần thiết để xây dựng các chatbot AI, công cụ đề xuất, tầm nhìn AI và hơn thế nữa.
Sự ra mắt toàn cầu của Hopper
H100 cho phép các công ty cắt giảm chi phí triển khai AI, mang lại hiệu suất AI tương tự với hiệu suất năng lượng cao hơn 3,5 lần và tổng chi phí sở hữu thấp hơn 03 lần, đồng thời sử dụng ít node máy chủ hơn 05 lần so với thế hệ trước.Đối với những khách hàng muốn ngay lập tức dùng thử công nghệ mới, NVIDIA thông báo rằng H100 trên máy chủ Dell PowerEdge servers hiện đã có trên NVIDIA LaunchPad, nơi cung cấp phòng thí nghiệm thực hành miễn phí, cho phép các công ty truy cập vào phần cứng và phần mềm NVIDIA AI mới nhất.
Khách hàng cũng có thể bắt đầu đặt hàng hệ thống NVIDIA DGX™ H100 systems, bao gồm tám GPU H100 và mang lại hiệu suất 32 petaflop ở độ chính xác FP8. Phần mềm NVIDIA Base Command™ và NVIDIA AI Enterprise hỗ trợ mọi hệ thống DGX, cho phép triển khai từ một nút duy nhất đến NVIDIA DGX SuperPOD™ hỗ trợ phát triển AI nâng cao của các mô hình ngôn ngữ lớn và khối lượng công việc lớn khác.
Các hệ thống hỗ trợ H100 từ các nhà sản xuất máy tính hàng đầu thế giới dự kiến sẽ xuất xưởng trong những tuần tới, với hơn 50 mẫu máy chủ trên thị trường vào cuối năm và hàng chục mẫu nữa vào nửa đầu năm 2023. Các đối tác xây dựng hệ thống bao gồm Atos, Cisco, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Lenovo và Supermicro.
Ngoài ra, một số cơ sở giáo dục đại học và nghiên cứu hàng đầu thế giới sẽ sử dụng H100 để cung cấp năng lượng cho siêu máy tính thế hệ tiếp theo của họ. Trong số đó có Trung tâm Siêu máy tính Barcelona, Phòng thí nghiệm Quốc gia Los Alamos, Trung tâm Siêu máy tính Quốc gia Thụy Sĩ (CSCS), Trung tâm Máy tính Tiên tiến Texas và Đại học Tsukuba.
H100 tiến tới đám mây
Amazon Web Services, Google Cloud, Microsoft Azure và Oracle Cloud Infrastructure sẽ là những công ty đầu tiên triển khai các phiên bản dựa trên H100 trên đám mây bắt đầu từ năm sau.
“Chúng tôi mong muốn cho phép thế hệ tiếp theo của các mô hình AI trên GPU H100 mới nhất trong Microsoft Azure, ”Nidhi Chappell, tổng giám đốc Azure AI Infrastructure cho biết. “Với những tiến bộ trong kiến trúc Hopper cùng với các khoản đầu tư của chúng tôi vào Azure AI siêu máy tính, chúng tôi sẽ có thể giúp đẩy nhanh sự phát triển của AI trên toàn thế giới ”
Karan Batta, phó chủ tịch, quản lý sản phẩm của Oracle Cloud Infrastructure (OCI) cho biết: “Chúng tôi mong muốn cung cấp cho khách hàng GPU H100 mới nhất từ NVIDIA để giúp họ tăng tốc quá trình học máy và khối lượng công việc HPC khắt khe nhất của họ. “Ngoài ra, việc sử dụng thế hệ GPU H100 tiếp theo của NVIDIA cho phép chúng tôi hỗ trợ khối lượng công việc nội bộ đòi hỏi khắt khe của mình và giúp các khách hàng chung của chúng tôi có được những đột phá trong lĩnh vực chăm sóc sức khỏe, phương tiện tự hành, robot và IoT.”
Hỗ trợ phần mềm NVIDIA
Công nghệ Transformer Engine tiên tiến của H100 cho phép các doanh nghiệp phát triển nhanh chóng các mô hình ngôn ngữ lớn với mức độ chính xác cao hơn. Khi các mô hình này tiếp tục phát triển về quy mô, thì sự phức tạp cũng tăng theo, đôi khi cần phải đào tạo hàng tháng trời.Để giải quyết vấn đề này, một số khuôn khổ học tập sâu và mô hình ngôn ngữ lớn hàng đầu thế giới đang được tối ưu hóa trên H100, bao gồm NVIDIA NeMo Megatron, Microsoft DeepSpeed, Google JAX, PyTorch, TensorFlow và XLA. Các khuôn khổ này kết hợp với kiến trúc Hopper sẽ tăng tốc đáng kể hiệu suất của AI để giúp đào tạo các mô hình ngôn ngữ lớn trong vòng vài ngày hoặc vài giờ.
Để tìm hiểu thêm về NVIDIA Hopper và H100, hãy xem bài phát biểu chính của GTC 2022 từ Jensen Huang. Đăng ký GTC miễn phí để tham dự các buổi làm việc với NVIDIA và các nhà lãnh đạo ngành
BÀI MỚI ĐANG THẢO LUẬN