> > > > Общая память: Infinity Fabric между EPYC CPU и Radeon Instinct GPU

Общая память: Infinity Fabric между EPYC CPU и Radeon Instinct GPU

Опубликовано:

amd-infinity-fabricНа данный момент AMD использует интерконнект Infinity Fabric для связи между кристаллами в дизайне чиплетов (между вычислительными кристаллами и чипом ввода/вывода), а также для связи нескольких GPU. С архитектурой Zen 2 AMD перенесла интерконнект Infinity Fabric на уровень второго поколения, увеличив ширину шины с 256 до 512 бит. Более высокая пропускная способность требуется для внутренней коммуникации, а также для скоростных внешних интерфейсов, таких как PCI Express 4.0.

AMD уже довольно давно планировала использовать Infinity Fabric для дополнительных соединений - не только внутри корпусировки процессора или между GPU. С укорителями Radeon Instinct AMD соединила через Infinity Fabric четыре GPU друг с другом. На мероприятии Rice Oil and Gas HPC AMD рассказала о будущих решениях.

Например, для будущих процессоров и GPU довольно остро стоит проблема когерентности памяти и кэшей. На данный момент приложение должно знать, в какой части системной памяти или памяти ускорителя GPU содержатся нужные данные. Если над одним массивом данных работает несколько GPU, они должны сохранять данные в собственной памяти, копируя их несколько раз. Когерентность памяти позволит хранить данные только в системной памяти, к которым будут обращаться разные GPU. И несколько GPU смогут получать данные, которыми владеет один GPU.

Но здесь требуется скоростной интерконнект, поскольку та же память HBM уже обеспечивает пропускную способность 1 Тбайт/с и выше. Интерконнект Infinity Fabric первого поколения достигал 42,6 Гбайт/с, со вторым поколением скорость увеличилась до 92 Гбайт/с. С третьим поколением AMD планирует и дальше увеличивать пропускную способность. Для сравнения, NVLink от NVIDIA обеспечивает 300 Гбайт/с между GPU и между процессорами IBM Power9. Cray разработала свой интерконнект Slingshot для суперкомпьютеров с пропускной способностью 200 Гбайт/с. Intel работает над собственным интерконнектом CXL, который будет базироваться на PCI Express 5.0.

У Intel и AMD есть преимущество, поскольку они разрабатывают и процессоры, и ускорители GPGPU. Что позволяет обеим компаниям выпускать чипы с поддержкой соответствующих интерконнектов. Да и проблему когерентности решить проще, поскольку основные компоненты находятся под контролем. AMD уже приходилось реализовывать когерентность памяти со своими APU. В случае координации между процессорами и ускорителями GPGPU обеспечить когерентность памяти и кэша уже намного сложнее.

Интересно будет посмотреть, когда AMD представит третье поколение Infinity Fabric с архитектурой Zen 3. Но, похоже, AMD уже начинает активно продвигать данную тему.

Подписывайтесь на группы Hardwareluxx ВКонтакте и Facebook, а также на наш канал в Telegram (@hardwareluxxrussia).