> > > > Intel Xeon Scalable обошли NVIDIA V100 GPU

Intel Xeon Scalable обошли NVIDIA V100 GPU

Опубликовано:

intelIntel не перестает подчеркивать производительность собственных процессоров в сфере машинного обучения. В своем блоге чиповый гигант опубликовал интересную демонстрацию. Google, NVIDIA и Intel уже объявили оптимизации для ускорения TensorFlow на своих аппаратных системах. В случае Intel используются процессоры Xeon и Xeon Phi с библиотеками Intel Math Kernel Libraries (MKL).

Конечно, многое зависит от оптимизации программного обеспечения под соответствующее железо. Только так можно достичь прироста производительности в 10 или даже 100 раз, как обещает Intel. Причем здесь свой вклад вносит не только API машинного обучения, но и тип используемой сети (MLP, CNN и RNN). Intel концентрируется на возвратных нейронных сетях RNN.

Демонстрация посвящена производительности AWS Sockeye Neural Machine Translation (NMT) на процессорах Intel Xeon Scalable по сравнению с NVIDIA Tesla V100; система с NVDIA Tesla V100 может обрабатывать до 22 записей в секунду, но система с процессором Xeon Scalable показывает 93 записи в секунду.

Для актуального сравнения систем Intel взяла цену аренды вычислительной мощности. В случае p3.2xlarge на Amazon Web Services (AWS) с восемью виртуальными CPU и Tesla V100 цена составляет $3,06 в час. Для системы Intel была выбрана c5.18xlarge с 72 виртуальными CPU за ту же цену, но без GPU. С указанными оптимизациями система Intel работала в четыре раза быстрее. Что, опять же, подчеркивает, насколько хорошо могут показывать себя мощные процессоры при сравнении вычислительных сервисов AWS с одинаковой ценой.

Благодаря библиотекам Intel Math Kernel Libraries (MKL) можно получить очень хорошую оптимизацию задач, что разрушает миф о высокой производительности машинного обучения только на GPU или специализированных ASIC.