Память High Bandwidth Memory от SK Hynix в деталях: для будущих GPU
AMD тоже работает над более эффективным и быстрым подключением видеопамяти. Работа ведется вместе с SK Hynix. Сегодня появилась презентация, в которой раскрываются планы выпуска так называемой High Bandwidth Memory (HBM) или памяти с высокой пропускной способностью. Память HBM DRAM располагается уже не на печатных платах модулей рядом с GPU/CPU/SoC, а напрямую в самих GPU/CPU/SoC. К каждому кристаллу добавляются слои кремния, соединение между ними выполняется через TSV (Through Silicon Vias). Схожая технология уже используется в современных SoC. Например, у PlayStation Vita используется 128 Мбайт ОЗУ в одной упаковке с SoC. Но там применялась не Stackable Memory/ 3D Memory или TSV, а просто отдельный чип памяти в одной упаковке.
Проводники Bond Wires могут теоретически соединять вместе разные слои или компоненты внутри упаковки, но их очень сложно или даже невозможно реализовать, в зависимости от техпроцесса. Кроме того, они подвержены взаимным электромагнитным помехам. Проводники TSV занимают меньше места, они меньше подвержены помехам.
Увеличить пропускную способность памяти можно с помощью более высоких частот интерфейса памяти или увеличения его ширины. SK Hynix сравнивает память DDR3 с памятью HBM, подключенной через TSV. При сравнимой частоте памяти пропускная способность увеличивается с 12,8 Гбайт/с до 256 Гбайт/с. Но здесь ситуация зависит от конфигурации DDR, где может использоваться два или четыре канала памяти. В данном случае 256 Гбайт/с достижимы уже у первого поколения памяти, что сравнимо с интерфейсом памяти современных GPU, оснащённых 256-битной шиной памяти GDDR5.
Впервые конструкция HBM была показана более детально. Можно видеть пять слоев памяти на чипе. Нижний слой (Base Logic Die) служит для подключения к чипу, через него проходят проводники TSV, а также подается питание на память. Выше, в четырёх слоях, располагаются так называемые Core Die, то есть мы получаем четыре ядра. Каждое из четырёх ядер разделяется на две части по восемь блоков памяти в каждой. Обе части Core Die подключаются через 128 соединений ввода/вывода каждая. 4 x 2 x 128 = 1024 соединения I/O или TSV для памяти.
На первом этапе SK Hynix будет использовать ёмкость 2 Гбит на один слой Core Die. В результате общая ёмкость памяти на кристалл будет составлять 8 Гбит или 1 Гбайт, пропускная способность составит 1 Гбит/с на контакт или 128 Гбайт/с. Теоретически можно использовать несколько таких кристаллов памяти в одном GPU. Возможной конфигурацией могут стать четыре кристалла, что даст ёмкость 4 Гбайт – интерфейс памяти в таком случае будет работать со скоростью 512 Гбайт/с. Здесь HBM даст существенные преимущества, поскольку самый широкий интерфейс памяти 512 бит у GPU "Hawaii" от AMD приводит к архитектурным сложностям. Кроме того, преимуществом можно назвать и низкое напряжение. Современная память GDDR5 работает на 1,5 В. У HBM напряжение будет составлять 1,2 В, ток тоже будет меньше.
На втором этапе SK Hynix говорит уже о ёмкости 8 Гбит на слой Core Die. Из кристаллов можно собирать стек из четырёх или даже восьми слоев, в результате мы получим ёмкость памяти на кристалл 32 или 64 Гбит, то есть 4 или 8 Гбайт. Пропускная способность памяти удвоится до 256 Гбайт/с. Опять же, на чипе могут использоваться несколько модулей HBM, что увеличить ёмкость и скорость.
По сравнению с памятью DDR и GDDR преимущества очевидны. Доступная пропускная способность существенно выше, и одна из самых острых проблем современных архитектур остаётся позади. Но HBM не даёт преимуществ по задержкам. Однако энергопотребление памяти будет ниже.
Будущее SK Hynix пока рисует в тумане. Но продукты с первым поколением HBM должны появиться на рынке уже в конце года. В следующем году SK Hynix планирует представить первые продукты с восемью слоями. Скорее всего, речь идёт о сотрудничестве с AMD и грядущих GPU. В любом случае, в будущем нам предстоит вплотную познакомиться с новой технологией памяти. NVIDIA, как мы уже указали в самом начале, имеет схожие планы.