На конференции Supercomputing Conference NVIDIA представит новые микросервисы NIM, которые научные организации смогут применять для вычисления сложных взаимосвязей. Omniverse Blueprint объединяет различные микросервисы в базовую модель, обучающую сеть и цифровой прокси, которые затем выполняют сложные симуляции с 3D-моделями. Для создания Omniverse Blueprints NVIDIA также сотрудничает с Ansys, предоставляющей Fluent — мультифизическое CFD ПО.
Теперь для симуляций погоды и климата доступен Earth-2 NIM. Этот микросервис ускоряет климатические и погодные симуляции в 500 раз и повышает их эффективность в 10.000 раз. NVIDIA Alchemi NIM выполняет симуляции в области материаловедения и химии.
В исследованиях квантовых компьютеров важно оценивать результаты и устранять ложные выводы. На проверку результатов могут уходить недели, месяцы и даже годы в течение нескольких итераций. С помощью CUDA-Q NVIDIA стремится сократить это время с одного года до одного часа.
Google уже использует CUDA-Q в своих исследованиях квантового ИИ. Теперь компания сможет проводить всестороннее динамическое моделирование новых QPU.
Еще один аспект фреймворков NVIDIA — NumPy. NumPy — программная библиотека, применяемая для моделирования в областях астрономии, биологии, химии, климатологии, материаловедения, физики и многих других. GPU-ускорение с помощью cuPyNumeric увеличивает скорость вычислений на базе NumPy в шесть раз.
NVIDIA анонсировала H200 NVL и GB200 NVL4
Одним из аппаратных анонсов на конференции по суперкомпьютерам стал ускоритель H200 NVL. H200 NVL базируется на архитектуре Hopper и использует классический формат PCI Express. По сравнению с вариантом SXM с TDP до 700 Вт, NVIDIA снизила TDP H200 NVL до 600 Вт, что также влияет на вычислительную производительность. Однако объем памяти 141 ГБ HBM3E с пропускной способностью 4,8 ТБ/с остается неизменным.
С помощью моста NVLink можно соединить две или четыре карты. Пропускная способность межсоединений составляет 900 ГБ/с на каждый GPU.
Отведение до 600 Вт тепла на PCI Express карте с двумя слотами — задача непростая. Производителям серверов придется обеспечить соответствующее охлаждение с помощью воздушных потоков в сервере.
H200 SXM | H200 NVL | |
Чип | Hopper | Hopper |
Formfaktor | SXM5 | PCI-Express |
Память | 141 GB (HBM3E) | 141 GB (HBM3E) |
Пропускная способность памяти | 4,8 Тбайт/с | 4,8 Тбайт/с |
cTDP | до 700 Вт | до 600 Вт |
Производительность FP64 | 34 TFLOPS | 30 TFLOPS |
Производительность FP64 (ядра Tensor) | 67 TFLOPS | 60 TFLOPS |
Производительность FP32 | 67 TFLOPS | 60 TFLOPS |
Производительность TF32 (Tensor Cores) | 989 TFLOPS | 835 TFLOPS |
Производительность BFLOAT16 (Tensor Cores) | 1.979 TFLOPS | 1.671 TFLOPS |
Производительность FP16 (Tensor Cores) | 1.979 TFLOPS | 1.671 TFLOPS |
Производительность FP8 (Tensor Cores) | 3.958 TFLOPS | 3.341 TFLOPS |
Производительность INT8 (Tensor Cores) | 3.958 TFLOPS | 3.341 TFLOPS |
NVIDIA также представляет односерверное решение GB200 NVL4 в качестве расширения серии Blackwell. Оно дополняет уже доступное решение GB200 NVL2 с двумя Grace CPU и двумя GPU Blackwell. Модуль GB200 NVL4 также имеет два Grace CPU, но уже четыре графических процессора Blackwell.
Все чипы соединены между собой посредством NVLink. Четыре графических процессора Blackwell предоставляют 768 ГБ HBM3E с суммарной пропускной способностью памяти 32 ТБ/с. Кроме того, к двум процессорам Grace CPU подключены 960 ГБ LPDDR5X. Энергопотребление модуля составляет 5.400 Вт — неудивительно, ведь GB200 NVL4 — это два GB200 Grace Blackwell Superchip мощностью по 2.700 Вт каждый.
Вместе со своими партнерами в OEM-секторе NVIDIA намерена увеличить поставки систем Blackwell. В их число входят решения Blackwell DGX B200, GB200 Grace Blackwell Superchip, GB200 Grace Blackwell NVL2, GB200 Grace Blackwell NVL4 и GB200 Grace Blackwell NVL72. Кроме того, продолжаются поставки текущих решений Hopper.
Подписывайтесь на группу Hardwareluxx ВКонтакте и на наш канал в Telegram (@hardwareluxxrussia).