Тест и обзор: NVIDIA GeForce GTX Titan X

Опубликовано:

geforce titanx logoНастало время представить ещё одну видеокарту Titan, и для этого знаменательного события была выбрана собственная конференция NVIDIA GTC 2015. На пленарном докладе CEO NVIDIA Дженсен Хуанг во всех подробностях рассказал о GeForce GTX Titan X, мы же представили полный обзор и тесты. NVIDIA GeForce GTX Titan X опирается на полную редакцию архитектуры "Maxwell" в виде чипа GM200. Встречайте самый быстрый GPU на рынке, который так долго ждали!

История видеокарт Titan полна противоречий - и здесь виноваты все стороны. NVIDIA всегда пытается быть на острие технологий, но не всегда успевает объяснить технические аспекты потенциальным покупателям и журналистам. Первая видеокарта GeForce GTX Titan (тест и обзор) вышла в 2013 году, она была действительно уникальной – как и цена. Вопросов по её поводу не возникало – мы получили впечатляющую видеокарту на основе GPU GK110 и архитектуры "Kepler" с 6 Гбайт видеопамяти. В 2014 году за ней последовала GeForce GTX Titan Black Edition (тест и обзор), которая опиралась на GK110 в полной версии, но значительного прироста производительности не наблюдалось – и после первого Titan видеокарта показалась неубедительной. По поводу GeForce GTX Titan Z у журналистов и покупателей возникло ещё больше вопросов, хотя видеокарта стала первой и пока последней моделью с двумя GPU в линейке Titan. Последние две видеокарты Titan оказались не такими интересными с точки зрения геймеров или даже профессионалов.

С GeForce GTX Titan X мы получаем новую попытку NVIDIA восстановить имидж серии. Компания поставила на то, что ждут от NVIDIA геймеры – самой высокой производительности. А не вычисления с двойной точностью, не другие расчетные функции – хотя и по их поводу на GTC будет сказано немало, а мы опубликуем отдельную статью.

На видеокарту GeForce GTX Titan X установлен GPU GM200, который является полной версией в семействе GM200. GPU по-прежнему производится по 28-нм техпроцессу. Детали архитектуры мы рассмотрим чуть ниже, но сразу отметим 3.072 потоковых процессора, которые составляют 24 мультипроцессора Maxwell Streaming Multiprocessors, каждый из которых включает 128 АЛУ. Добавим 192 текстурных блока и 64 конвейера растровых операций (ROP).

Информация об архитектуре

NVIDIA GeForce GTX Titan X
Розничная цена $999
Сайт производителя NVIDIA
Техническая информация
GPU Maxwell (GM200)
Техпроцесс 28 нм
Число транзисторов 8 млрд.
Тактовая частота GPU (базовая) 1.000 МГц
Тактовая частота GPU (Boost) 1.075 МГц
Частота памяти 1.750 МГц
Тип памяти GDDR5
Объём памяти 12 Гбайт
Ширина шины памяти 384 бит
Пропускная способность памяти 336,6 Гбайт/с
Версия DirectX 12
Потоковые процессоры 3.072
Текстурные блоки 192
Конвейеры растровых операций (ROP) 96
Пиксельная скорость заполнения 96,2 Гпиксель/с
SLI/CrossFire SLI

Перейдём к техническим спецификациям GPU GM200. NVIDIA производит чипы современной архитектуры "Maxwell" по 28-нм техпроцессу на заводах TSMC. GPU GM200 содержит 8 млрд. транзисторов, так что перед нами наиболее сложный чип, который когда-либо выпускала NVIDIA. Для сравнения предыдущий лидер NVIDIA, чип GK110 у предшественника Titan, содержал 7,1 млрд. транзисторов.

В GPU GM200 используются 3.072 потоковых процессоров, объединенные в 6 GPC (Graphics Processing Clusters). Каждый GPC содержит 4 мультипроцессора SMM (Maxwell Streaming Multiprocessor) с четырьмя блоками SMM по 32 потоковых процессора, что и даёт 3.072 потоковых процессора в сумме. Каждый SMM также снабжён восемью текстурными блоками. В результате GPU GM200 содержит 192 текстурных блока. Отметим наличие 96 конвейеров растровых операций (ROP) и шести 64-битных контроллеров памяти.

К 384-битному интерфейсу памяти подключены 12 Гбайт памяти GDDR5. То есть мы получили удвоение ёмкости памяти по сравнению с первой видеокартой GeForce GTX Titan. Пропускная способность памяти увеличилась до 336,6 Гбайт/с. Вопрос того, насколько полезны 12 Гбайт памяти, мы оставим за рамками статьи. Даже у первого поколения Titan 6 Гбайт памяти казались огромным объёмом, но современные игры даже без модификаций могут заполнять до 6 Гбайт. В любом случае, 12 Гбайт памяти вряд ли станут "узким местом" видеокарты – по крайней мере, не в этом году. Кроме широкого интерфейса памяти и значительной ёмкости отметим технологию сжатия памяти у архитектуры "Maxwell", позволяющую увеличить пропускную способность памяти до 30 процентов. Подробнее эту технологию мы обсуждали в статье, посвящённой второму поколению чипов Maxwell.

NVIDIA GeForce GTX Titan X в сравнении
МодельGeForce GTX Titan XGeForce GTX TitanGeForce GTX 980Radeon R9 290X
Розничная цена $999 от 55,7 тыс. рублей
от 950 евро
от 29,2 тыс. рублей
от 500 евро
от 18,8 тыс. рублей
от 300 евро
Сайт производителя NVIDIA NVIDIA NVIDIA AMD
Техническая информация
GPU GM200 (GM200-400-A1) GK110 (GK110-400-A1) Maxwell (GM204) Hawaii
Техпроцесс 28 нм 28 нм 28 нм 28 нм
Число транзисторов 8 млрд. 7,1 млрд. 5,2 млрд. 6,2 млрд.
Тактовая частота GPU (базовая) 1.000 МГц 837 МГц 1.126 МГц -
Тактовая частота GPU (Boost) 1.075 МГц 876 МГц 1.216 МГц 1.000 МГц
Частота памяти 1.750 МГц 1.500 МГц 1.750 МГц 1.250 МГц
Тип памяти GDDR5 GDDR5 GDDR5 GDDR5
Объём памяти 12 GB 6 GB 4 GB 4 GB
Ширина шины памяти 384 бит 384 бит 256 бит 512 бит
Пропускная способность памяти 336,6 Гбайт/с 288,4 Гбайт/с 224,0 Гбайт/с 320,0 Гбайт/с
Потоковые процессоры 3.072 2.688 2.048 2.816
Текстурные блоки 192 224 128 176
Конвейеры растровых операций (ROP) 96 48 64 64
TDP 250 Вт 250 Вт 165 Вт > 250 Вт
SLI/CrossFire SLI SLI SLI CrossFire

Тепловой пакет NVIDIA указала на уровне 250 Вт. Он находится на уровне с первым Titan. На видеокарту установлена два разъёма дополнительного питания PCI Express с 6 и 8 контактами. NVIDIA особое внимание уделила подсистеме питания, поэтому и запас по мощности имеется. Кроме того, используются специальные конденсаторы и дроссели, призванные уменьшить электрический шум. Позднее мы поговорим о них подробнее.

 


 

NVIDIA изменила архитектуру SMM по сравнению с предыдущим поколением "Kepler", что позволило улучить соотношение производительности на ватт в два раза по сравнению с предыдущими видеокартами Titan. В архитектуре "Kepler" кластер SMX опирался на 192 потоковых процессора (ядра CUDA). Это приводило к тому, что логика управления 192 потоковыми процессорами была довольно сложная. С архитектурой "Maxwell" мультипроцессоры Maxwell streaming multiprocessor (переименованы в SMM) разделены на четыре блока по 32 потоковых процессора. В результате каждый SMM теперь опирается на 128 потоковых процессоров. Оптимизация логики управления позволила более эффективно распределять отдельные задачи по потоковым процессорам. В результате производительность одного потокового процессора оказалась на 35 процентов выше, чем у варианта "Kepler". Первыми GPU на основе новой архитектуры стали GM107, которые мы протестировали год назад в видеокартах GeForce GTX 750 и GTX 750 Ti (тест и обзор). Затем появились GPU GM204 и GM206, показавшие высокую эффективность как в топовых GeForce GTX 980 и GTX 970 (тест и обзор), так и видеокартах GeForce GTX 960 для массового рынка (тест и обзор), которые были выпущены недавно.

GPU GM200 в GeForce GTX Titan X является полной реализацией архитектуры "Maxwell". То есть чип содержит все запланированные структуры и конвейеры. Кроме 3.072 потоковых процессоров на кристалле имеется крупный кэш L2 на 3 Мбайт, который у GeForce GTX 980 составлял 2 Мбайт, а у GeForce GTX 970 из-за ограничений подсистемы памяти – только 1.792 кбайт. Пропускная способность кэша остаётся на уровне 512 байт на такт. По производительности с двойной точностью отличий нет, она составляет 1/32 от производительности с ординарной точностью 7 TFLOPS. В нынешней реализации "Maxwell" так и не появились выделенные блоки для работы с двойной точностью. На GTC 2015 должна появиться информация о возможных изменениях в будущем, например, в GPU GM210, но для геймеров это не так принципиально.

Blockdiagramm der GM200-GPU
Диаграмма GPU GM200

По сравнению с архитектурой Maxwell первого поколения была несколько увеличена общая память для каждого мультипроцессора SMM. Теперь она составляет уже 96 кбайт, а не 64 кбайт. Можно отметить и новый движок Polymorph Engine версии 3.0. Движок PolyMorph 3.0 отвечает за запросы текстур, тесселяцию, настройку атрибутов, трансформацию поля зрения и потоковый вывод. Результаты вычислений кластера SMM и движка PolyMorph 3.0 затем передаются на движок растеризации. На втором этапе тесселятор начинает расчеты позиций поверхностей, в зависимости от расстояния выбирается нужный уровень детализации. Скорректированные значения отсылаются на кластер SMM, где с ними работают доменные и геометрические шейдеры. Доменный шейдер рассчитывает финальную позицию каждого треугольника, учитывая данные Hull-шейдеров и тесселяторов. На данном этапе накладываются карты смещения. Геометрический шейдер затем сравнивает рассчитанные данные с действительно видимыми объектами и отсылает результаты обратно на движок тесселяции для окончательного расчета. На последнем этапе движок PolyMorph 3.0 выполняет трансформацию поля зрения и коррекцию перспективы. Наконец, рассчитанные данные выводятся через потоковый вывод, память освобождается для дальнейших расчетов. В данном процессе задействуются многочисленные функции рендеринга, о которых мы поговорим подробнее на страницах нашего обзора.

Перейдём к отдельным блокам мультипроцессора SMM. Каждый блок из 32 потоковых процессоров оснащен буфером инструкций и warp-планировщиком. Два блока диспетчеризации работают с 16.384 32-битными регистрами каждый. Если посмотреть на архитектуру "Kepler", то 192 потоковых процессора работали с четырьмя warp-планировщиками и восемью блоками диспетчеризации, всего было доступно 65.536 32-битных регистров. Теоретически на каждый потоковый процессор в архитектуре "Maxwell" приходятся 512 регистров, у "Kepler" их количество составляло около 341. Эта мера тоже способствовала приросту производительности потоковых процессоров до 35%. Также несколько изменилось соотношение между потоковыми процессорами и так называемыми специальными функциональными блоками (Special Function Units, SFU). В архитектуре "Kepler" соотношение составляло 6/1, в " Maxwell" оно снизилось до 4/1. То же самое касается и соотношения потоковых процессоров и блоков чтения/записи (Load/Store, LD/ST).

Графический процессор GeForce GTX Titan X опирается на архитектуру "Maxwell", поэтому многие функции мы уже рассматривали в обзорах GeForce GTX 980, GTX 970 и GTX 960. Мы не будем повторяться, рекомендуем прочитать следующие статьи по ссылкам:

- 256-битный контроллер и сжатие памяти
- DSR (Dynamic Super Resolution)
- MFAA (Multiframe Sampled Anti-Aliasing)
- VXGI (Voxel Global Illumination)
- DirectX 12
- GameWorks und PhysX
- VR Direct
- H.265 и стриминг 4K

GeForce GTX Titan X в профессиональном окружении

Предыдущие модели GeForce GTX Titan NVIDIA позиционировала также на использование в профессиональной сфере. Видеокарты позволяют сэкономить тем пользователям, кто может обойтись без некоторых функций драйверов Quadro и Tesla. Поэтому GeForce GTX Titan позволяет сэкономить профессионалам-одиночкам, но также компаниям и образовательным учреждениям. Примеров можно привести много, хотя NVIDIA не публикует конкретной информации о разделении между игровым и профессиональным сегментами.

Объём оперативной видеопамяти 12 Гбайт у GeForce GTX Titan X можно отнести к весомым преимуществам. Но поддержки ECC нет, так что дополнительная проверка целостности не производится. Кроме того, мы получаем прежнюю реализацию "Maxwell" без выделенных блоков работы с двойной точностью, отвечающих за соответствующие вычисления. NVIDIA указывает производительность с одинарной точностью 7 TFLOPS. Если учесть соотношение 24/1 для SP и DP, то мы получим производительность всего 291 GFLOPS.

Сравнение производительности SP и DP
Видеокарта Производительность SP Производительность DP
GeForce GTX Titan X 7 TFLOPS 291 GFLOPS
GeForce GTX Titan Z 8,122 TFLOPS 2.707 GFLOPS
GeForce GTX Titan Black 5,121 TFLOPS 1.707 GFLOPS
GeForce GTX Titan 4,5 TFLOPS 1.500 GFLOPS
Quadro K6000 5,196 TFLOPS 1.732 GFLOPS
Tesla K40 4,291 TFLOPS 1.430 GFLOPS
Tesla K80 6,992 TFLOPS 2,91 GFLOPS
Radeon R9 290X 5,632 TFLOPS 320 GFLOPS
Radeon R9 295X2 11,466 TFLOPS 640 GFLOPS
FirePro W9100 5,237 TFLOPS 2618 GFLOPS

Архитектура "Kepler" обеспечивала существенно больше. Так что GeForce GTX Titan (Black) и GeForce GTX Titan Z в данном отношении можно назвать более производительными. Если вам нужна высокая скорость работы вычислений с двойной точностью, то нынешнее поколение "Maxwell" вряд ли подойдёт. Но, как нам кажется, NVIDIA адаптирует свой дизайн в будущем, на рынок будет представлен GPU GM210. Возможно, на GTC 2015 мы узнаем подробности. NVIDIA может дать дополнительную информацию об использовании GeForce GTX Titan X в профессиональном окружении.

Скриншот GPU-Z видеокарты GeForce GTX Titan X
Скриншот GPU-Z видеокарты GeForce GTX Titan X

На скриншоте GPU-Z мы видим подтверждение спецификациям. Но поскольку видеокарта отсутствует в базе данных утилиты, то частоты немного отличаются из-за некорректного распознавания делителей.

Сравнение температур и тактовых частот
Игра Температура Частота
The Elder Scrolls V Skyrim 82 °C 1.164 МГц
Company of Heroes 83 °C 1.151 МГц
Grid 2 82 °C 1.151 МГц
Metro: Last Light 83 °C 1.126 МГц
Crysis 3 82 °C 1.151 МГц
Battlefield 4 83 °C 1.138 МГц
Bioshock: Infinite 82 °C 1.164 МГц
Tomb Raider 83 °C 1.151 МГц

Как обычно, мы проверили работу видеокарты на практике, поскольку технологии GPU Boost и PowerTune от AMD регулируют тактовые частоты в зависимости от разных условий. Для GeForce GTX Titan X частота упирается в предельную температуру. Её NVIDIA выставила на уровне 83 °C. Если видеокарта доберётся до подобной планки, то частота автоматически снижается, чтобы температура не была превышена. В большинстве тестов мы подбирались к подобной планки после предварительного прогрева видеокарты, поэтому в таблице приведены разные результаты. Мы получили частоты от 1.126 МГц до 1.164 МГц. NVIDIA указывает частоту Boost на уровне 1.075 МГц, так что мы получили, по крайней мере, 50-МГц прирост по сравнению с минимальной заявленной планкой NVIDIA.

Предельная планка энергопотребления 250 Вт проблем не вызывает. С помощью утилит мы определяли процент использования TDP – мы получили 90-95% при срабатывании температурного ограничения. С помощью увеличения скорости вентилятора или повышения температурного порога мы смогли добиться увеличения частоты GPU до 1.177 МГц без каких-либо специальных мер разгона.


NVIDIA представила GeForce GTX Titan X с эталонным дизайном, как и раньше. Все основные партнёры NVIDIA тоже представят видеокарту, но отличий по дизайну не будет. Скорее всего, производители будут использовать ту же упаковку, что и NVIDIA, пусть и с некоторыми добавками. Плата поставляется производителям полностью собранная.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

NVIDIA придерживается собственной системы охлаждения, которая неоднократно использовалась в прошлом, к худшим вариантам она явно не относится. Но из-за единого дизайна производителям сложно будет выделиться между собой. Некоторые магазины продавали видеокарты GeForce GTX Titan с дополнительным кулером, который покупатель мог установить вместо штатного по желанию. Что-то подобное мы можем увидеть и с видеокартами GeForce GTX Titan X, NVIDIA не особо сопротивляется подобным идеям производителей. Скорее всего, появятся и водоблоки для новых видеокарт, которые позволят выжать больше производительности. Дизайн печатной платы очень похож на первые Titan, так что вносить серьёзные изменения к существующим водоблокам не придётся.

NVIDIA GeForce GTX Titan X
Длина печатной платы 265 мм
Длина с кулером 265 мм
Толщина 2 слота
Дополнительное питание 1x 8-конт.
1x 6-конт.
Вентилятор 65 мм
Выходы на дисплей 1x Dual-Link-DVI
1 HDMI 2.0
3x DisplayPort 1.2a
Пассивная работа вентиляторов в режиме бездействия Нет
Макс. скорость вращения 2.330 об/мин
Тепловой пакет 250 Вт

Пару слов о технических спецификациях, не связанных с GPU: длина видеокарты составляет 265 мм, причём она одинаковая для печатной платы и кулера. Толщина составляет привычные два слота, видеокарта GTX Titan X использует кулер и дизайн печатной платы, очень схожий с предыдущими моделями. Но на фотографиях ниже мы обратим внимание на некоторые детали.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

GeForce GTX Titan Black Edition? Такое первое впечатление возникает, стоит взять в руки GeForce GTX Titan X. NVIDIA сохранила очень похожий эталонной дизайн high-end видеокарт. Радиальный вентилятор забирает холодный воздух сзади и продувает его через радиатор, после чего выбрасывает через слотовую заглушку. Подобный дизайн хорошо зарекомендовал себя в прошлом.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

Но сзади NVIDIA GeForce GTX Titan X сходство с предыдущими моделями теряется. Частично это связано с набором чипов GDDR5. Конечно, NVIDIA могла установить заднюю пластину, но она могла бы привести к проблемам в режиме SLI, блокируя вентилятор второй видеокарты. Например, у NVIDIA GeForce GTX 980 в задней пластине была съёмная часть, позволяющая увеличить воздушный поток для второй или третьей видеокарты.

Впрочем, отсутствующую заднюю пластину GeForce GTX Titan X можно назвать и недостатком. Дополнительная защита печатной плате не повредила бы, да и она улучшила бы прочность с учётом тяжёлого кулера.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

Радиальный вентилятор GeForce GTX Titan X имеет вполне типичный для эталонных дизайнов NVIDIA диаметр 65 мм. Воздух засасывается в вентилятор, после чего продувается через кулер и выбрасывается через слотовую заглушку. Несколько месяцев назад появились слухи, что NVIDIA будет выключать вентилятор в режиме бездействия у эталонного кулера. Подобные решения мы получили у систем охлаждения партнёров на многих видеокартах GeForce GTX 980, GTX 970 и GTX 960. Но у эталонной версии NVIDIA GeForce GTX Titan X такой функции нет, вентилятор вращается и в режиме бездействия.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

По-прежнему имеется окно, через которое можно наблюдать радиатор. Вентилятор как раз продувает через рёбра радиатора воздух, который затем выбрасывается через слотовую заглушку. Но у окна нет каких-либо дополнительных функций, кроме как помочь пользователю любоваться своей видеокартой.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

Рядом со слотовой заглушкой можно видеть логотип "Titan", но у нашего образца в нём выпала буква. На некоторых изображениях видеокарты создавалось впечатление, что надпись "Titan" подсвечивается, но на самом деле подсветка имеется только у надписи "GeForce GTX" с верхнего торца видеокарты.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

Питание на видеокарту подаётся через слот PCI Express (75 Вт) и два дополнительных 6- и 8-контактных разъёма (75 или 150 Вт). В общей сложности мы получаем подаваемую мощность до 300 Вт. NVIDIA заявляет тепловой пакет 250 Вт. Но он описывает максимальное энергопотребление для расчета системы охлаждения, типичное энергопотребление TGP (Typical Graphics Power) будет ниже. Ситуация немного меняется, когда партнёры NVIDIA добавляют заводской разгон. В случае GeForce GTX Titan X 250 Вт кажется разумным уровнем энергопотребления.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

Подобно всем high-end видеокартам NVIDIA, GeForce GTX Titan X может работать в режимах 2-Way, 3-Way или даже 4-Way SLI. Для данной цели на печатной плате предусмотрено два разъёма SLI. К сожалению, мы получили только одну видеокарту GeForce GTX Titan X, так что придётся обойтись без теста SLI. Но вскоре мы надеемся представить результаты с двумя видеокартами.

Интересно, на каком поколении GPU NVIDIA полностью откажется от разъёмов SLI. Синхронизация и передача кадров со второй, третьей и четвёртой видеокарт на основную возможна и через интерфейс PCI Express, пропускной способности хватает. AMD наглядно показала такую возможность с GPU "Hawaii" (Radeon R9 290X и R9 290), у которых отсутствуют разъёмы Crossfire. Возможно, в следующем поколении GPU NVIDIA избавится и от мостиков SLI. С технической точки зрения проблем нет.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

На слотовой заглушке мы получаем привычную конфигурацию выходов, по одному двухканальному DVI, HDMI 2.0 и три DisplayPort 1.2a. Можно заметить и отверстия в слотовой заглушке, через которые видеокарта выбрасывает наружу горячий воздух. Подобный дизайн кулера остаётся популярным, поскольку он позволяет большей части горячего воздуха выходить за пределы корпуса. Но и другие системы охлаждения тоже способны обеспечивать хорошую производительность.


Перейдём к детальному рассмотрению компонентов GeForce GTX Titan X, для этой цели мы сняли установленный кулер.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

Для экономии пространства NVIDIA вынесла на заднюю часть платы половину чипов GDDR5. Мы получили 12 чипов из 24 ёмкостью 512 Мбайт каждый, они никак дополнительно не охлаждаются. На практике проблем с этим не возникает, поскольку частота 1.750 МГц для памяти GDDR5 вполне умеренная. Некоторые партнёры по производству видеокарт GeForce GTX 980 и GTX 970 тоже обходятся без активного охлаждения.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

Без кулера можно рассмотреть лицевую сторону печатной платы GeForce GTX Titan X. Здесь мы не обнаружили каких-либо сюрпризов, поскольку видеокарты на GPU NVIDIA следуют одинаковым принципам дизайна. Слева можно видеть компоненты и разъёмы для вывода на дисплей. По центру располагается GPU и чипы памяти GDDR5, которые мы уже видели сзади видеокарты. Справа находятся компоненты подсистемы питания.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

Чтобы сократить и сделать одинаковыми линии передачи сигналов, NVIDIA расположила 24 чипа памяти (по 12 спереди и сзади) в непосредственной близости от GPU. Внешне не так хорошо заметно, что площадь кристалла превышает GPU GM204 у GeForce GTX 980 и GTX 970, где она составляла 398 мм². Но 5,2 млрд. транзисторов у GPU GM204 увеличились до 8 млрд. у GPU GM200, что и привело к площади около 610 мм². Конечно, если бы NVIDIA увеличила плотность расположения транзисторов, площадь можно было бы снизить меньше 600 мм².

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

Подсистема питания NVIDIA GeForce GTX Titan X опирается на шесть фаз. Скорее всего, пять фаз выделены для GPU, ещё одна – для чипов памяти. Используются компоненты повышенной надёжности, специальные дроссели и конденсаторы, предотвращающие появление электронного шума. NVIDIA указывает на запас мощности +10 процентов у VRM, от чего должны выиграть оверклокеры. У последних видеокарт NVIDIA иногда наблюдался свист дросселей, который NVIDIA тоже обещает уменьшить с GeForce GTX Titan X.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

Кроме подсистемы питания в задней части видеокарты располагаются и другие компоненты. По центру, например, можно видеть модуль, отвечающий за функцию GPU Boost. Шунты с низким сопротивлением позволяют измерить ток, проходящий через компоненты, вместе со значением напряжения эта информация передаётся на контроллер, отвечающий за функцию GPU Boost.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

Точная маркировка GPU GeForce GTX Titan X - GM200-400-A1. Добавка "A1" указывает на первую версию чипов, так что на заводах TSMC не пришлось выпускать новые ревизии после первых образцов. Число "400" обозначает уровень чипа. У NVIDIA GeForce GTX Titan X используются все компоненты чипа. Также можно видеть и дату производства – 47 неделю 2014 (1447A1). GPU NVIDIA, скорее всего, уже некоторое время складировались на заводах TSMC, прежде чем их накопилось достаточное количество для представления видеокарты на рынок. С данным GPU, скорее всего, будут представлены видеокарты Quadro и/или Tesla, так что требовалось определенное количество кристаллов, чтобы не испытывать дефицита сразу после объявления.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

Что касается памяти, то NVIDIA GeForce GTX Titan X опирается на чипы SK Hynix. Они имеют маркировку H5GQ4H24MFR-R2C. Чипы имеют ёмкость 4.096 Гбит или 512 Мбайт, частота работы составляет 1.750 МГц, напряжение – 1,5 В. Ранее появлялись слухи, что на видеокарту будет устанавливаться более скоростная память с частотой до 2.000 МГц. Такая память действительно выпускается Samsung и Sk Hynix, она позволила бы увеличить пропускную способность GeForce GTX Titan X с 336,6 Гбайт/с до 384 Гбайт/с. Но NVIDIA решила придерживаться традиционной частоты 1.750 МГц.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

NVIDIA осталась привержена прежнему дизайну кулера, что хорошо видно снизу. Здесь в привычных местах установлены теплопередающие прокладки, через которые забирается тепло от чипов памяти и компонентов подсистемы питания. Но тепло передаётся только на металлическую рамку кулера, испарительная камера контактирует только с GPU.


Для проведения тестирования мы обновили нашу тестовую систему, а также и поколение драйверов. Процессор Intel Core i7-3960X был разогнан со штатной частоты 3,2 ГГц до 3,9 ГГц, чтобы максимально устранить "узкое место" по производительности CPU. Мы использовали следующие компоненты:

Тестовая конфигурация
Процессор Intel Core i7-3960X 3,3 ГГц, разгон до 3,9 ГГц
Материнская плата ASUS P9X79 Deluxe
Оперативная память ADATA XPG Gaming Series Low Voltage 4x 2 Гбайт PC3-12800U CL 9-9-9-24
Накопитель ADATA S510 SSD 60 Гбайт
Блок питания Seasonic Platinum Series 1000 Вт
Операционная система Windows 8 Pro 64 Bit
Видеокарты
NVIDIA NVIDIA GeForce GTX 980 (1.126/1.216/1.750 MHz, 4.096 MB)
  NVIDIA GeForce GTX 970 (1.050/1.178/1.750 MHz, 4.096 MB)
  NVIDIA GeForce GTX 780 Ti (876/928/1.750 MHz, 3.072 MB)
  NVIDIA GeForce GTX Titan (837/786/1.502 MHz, 6.144 MB)
  NVIDIA GeForce GTX 780 (863/902/1.502 MHz, 3.072 MB)
  NVIDIA GeForce GTX 770 (1.046/1.085/1.753 MHz, 2.048/4.096 MB)
  NVIDIA GeForce GTX 760 (980/1.033/1.502 MHz, 2.048 MB)
  NVIDIA GeForce GTX 750 Ti (1.020/1.085/1.350 MHz, 2.048 MB)
  NVIDIA GeForce GTX 750 (1.020/1.085/1.250 MHz, 1.024 MB)
  NVIDIA GeForce GTX 690 (915/1.502 MHz, 4.096 MB)
  NVIDIA GeForce GTX 680 (1.006/1.502 MHz, 2.048 MB)
  NVIDIA GeForce GTX 670 (915/1.502 MHz, 2.048 MB)
  NVIDIA GeForce GTX 660 Ti (915/1.502 MHz, 2.048 MB)
  NVIDIA GeForce GTX 660 (1.058/1.250 MHz, 2.048 MB)
  NVIDIA GeForce GTX 650 Ti Boost (980/1.502 MHz, 2.048 MB)
  NVIDIA GeForce GTX 650 Ti (925/1.350 MHz 2.048 MB)
  NVIDIA GeForce GTX 650 (1.058/1.250 MHz, 1.024/2.048 MB)
  NVIDIA GeForce GTX 590 (608/1.215/854 MHz, 3.072 MB)
  NVIDIA GeForce GTX 580 (772/1.544/1.000 MHz, 1.536 MB)
  NVIDIA GeForce GTX 570 (732/1.464/950 MHz, 1.280MB)
  NVIDIA GeForce GTX 560 Ti 448 Cores (732/1.464/950 MHz, 1.280 MB)
  NVIDIA GeForce GTX 560 Ti (820/1.640/1.000 MHz, 1.024 MB)
  NVIDIA GeForce GTX 560 (810/1.620/1.002 MHz, 1.024 MB) 
  NVIDIA GeForce GTX 550 Ti (900/1.800/1.026 MHz, 1.024 MB)
AMD AMD Radeon R9 290X (1.000/1.250 MHz, 4.096 MB)
  AMD Radeon R9 290 (947/1.500 MHz, 4096 MB)
  AMD Radeon R9 280X (1.000/1.500 MHz, 3.072 MB)
  AMD Radeon R9 270X (1.000/1.400 MHz, 2.048/4.096 MB)
  AMD Radeon R7 260X (1.100/1.625 MHz, 2.048 MB)
  AMD Radeon R7 265 (925/1.400 MHz, 2.048 MB)
  AMD Radeon R7 260 (1.000/1.500 MHz, 1.024 MB)
  AMD Radeon HD 7990 (950/1.000/1.500 MHZ, 6.144 MB)
  AMD Radeon HD 7970 GHz Edition (1.000/1.050/1.500 MHz, 3.072 MB)
  AMD Radeon HD 7970 (925/925/1.375 MHz, 3.072 MB)
  AMD Radeon HD 7950 (800/800/1.250 MHz, 3.072 MB)
  AMD Radeon HD 7870 (1.000/1.000/1.200 MHz, 2.048 MB)
  AMD Radeon HD 7850 (860/860/1.200 MHz, 2.048 MB)
  AMD Radeon HD 7790 (1.075/1.075/1.500 MHz, 1.024/2.048 MB)
  AMD Radeon HD 7770 (1.000/1.000/1.125 MHz, 1.024 MB)
  AMD Radeon HD 7750 (800/800/1.125 MHz, 1.024 MB)
  AMD Radeon HD 6990 (830/830/1.250 MHz, 4.096 MB)
  AMD Radeon HD 6970 (880/880/1.375 MHz, 2.048 MB)
  AMD Radeon HD 6950 (800/800/1.200 MHz, 2.048 MB)
  AMD Radeon HD 6870 (900/900/1.050 MHz, 1.024 MB)
  AMD Radeon HD 6850 (775/775/1.000 MHz, 1.024 MB)
  AMD Radeon HD 6790 (840/840/1.050 MHz, 1.024 MB)
  AMD Radeon HD 6770 (850/850/1.200 MHz, 1.024 MB)
Драйвер
NVIDIA GeForce 347.84
AMD Catalyst 14.11.2 Beta

Мы выражаем благодарность ASUS, Intel, Thermaltake и Seasonic за предоставленные компоненты.

 

Настройки драйверов NVIDIA:

Текстурные настройки AMD:


Перейдём к оценке уровня шума, энергопотребления и температуры NVIDIA GeForce GTX Titan X.

уровень шума

Бездействие

в дБ(A)
Меньше - лучше

Эталонный кулер GeForce GTX Titan X не так сильно отличается от предыдущих моделей Titan или GeForce GTX 980, которые побывали в нашей тестовой лаборатории. Уровень шума 37,3 дБ(A) нас не удивил, хотя хотелось бы меньше, конечно. Жаль, что NVIDIA не предусмотрела возможность остановки вентилятора в режиме бездействия. С другой стороны, вентилятор в режиме бездействия мог бы вращаться чуть медленнее, что вряд ли серьёзно бы ухудшило температуру.

уровень шума

Нагрузка

в дБ(A)
Меньше - лучше

Сильной стороной эталонного кулера можно назвать уровень шума под нагрузкой, результат 48,5 дБ(A) очень хорош по сравнению с другими моделями. И здесь мы не были удивлены, поскольку кулер в прошлом показывал убедительные результаты. Конечно, некоторые сторонние кулеры могли бы дать лучшие результаты, но для эталонной видеокарты NVIDIA мы получаем вполне достойный уровень.

Температура

Бездействие

в градусах Цельсия
Меньше - лучше

В режиме бездействия температура составляет 32 °C, так что и здесь проблем нет – вполне типичный уровень. Как мы упомянули выше, NVIDIA могла бы смело снизить скорость вентилятора, чтобы уменьшить уровень шума. Но вы можете внести подобные регулировки самостоятельно, адаптировав кривую работы вентилятора под свои нужды.

Температура

Нагрузка

в градусах Цельсия
Меньше - лучше

Под нагрузкой GeForce GTX Titan X всегда добирается до целевой температуры 83 °C. Конечно, здесь будет влиять вентиляция корпуса, в котором тестируется видеокарта. Наша тестовая система вентилируется достаточно хорошо, но почти все high-end видеокарты с эталонными кулерами подходят к предельным температурам. Это касалось AMD Radeon R9 290(X) или GeForce GTX 980, а теперь и GeForce GTX Titan X – хотя в каждом случае пороговые температуры были разными.

Будет интересно посмотреть на результаты GeForce GTX Titan X с водяным охлаждением. Меньшие температуры по сравнению с воздушным охлаждением должны дать более высокие частоты под автоматическим механизмом Boost. Одновременно низкие температуры снижают токи утечки, что позволит уменьшить энергопотребление на высоких частотах. Но перейдем к энергопотреблению.

Энергопотребление (вся система)

Бездействие

в Вт
Меньше - лучше

Сначала мы провели измерения энергопотребления всей системы в режиме бездействия. Все видеокарты показывают близкие результаты, производители хорошо поработали над механизмами энергосбережения за последние годы. Лучшие результаты можно будет получить только полным отключением видеокарты и переходом на интегрированное графическое ядро CPU. В режиме multi-GPU дополнительные видеокарты отключаются, здесь у AMD накоплен солидный опыт. Возможно, в будущем мы увидим некоторые улучшения в данном направлении.

Энергопотребление (вся система)

Нагрузка

в Вт
Меньше - лучше

Более интересным оказалось энергопотребление под нагрузкой. Здесь GeForce GTX Titan X показала уровень 378,6 Вт, то есть чуть выше первой GeForce GTX Titan и существенно выше GeForce GTX 980. Будет интересно сравнить производительность видеокарты с первой GeForce GTX Titan, чтобы оценить улучшение эффективности. Также не менее интересно сравнить GeForce GTX Titan X и с видеокартой GeForce GTX 980. Конечно, энергопотребление значительно ниже последних high-end моделей AMD и некоторых видеокарт предыдущих поколений от обеих компаний, но это тоже не удивляет.


Новый тест Futuremark 3DMark позволяет сравнивать разные устройства, от смартфонов до high-end ПК. В тесте предоставляются три пресета, которые охватывают все сферы производительности благодаря изменяемым настройкам. Конечно, в тесте используются такие технологии, как тесселяция, глубина поля резкости, объемное освещение и DirectCompute. Тестовый прогон Firestrike Extreme должен поставить даже high-end видеокарты "на колени". Скачать тест Futuremarks 3DMark можно в соответствующем разделе сайта.

Futuremark 3DMark

Ice Storm

Баллы Futuremark
Больше - лучше

Futuremark 3DMark

Cloud Gate

Баллы Futuremark
Больше - лучше

Futuremark 3DMark

Fire Strike

Баллы Futuremark
Больше - лучше

Futuremark 3DMark

Fire Strike Extreme

Баллы Futuremark
Больше - лучше


AMD и NVIDIA всегда подчёркивают вычислительную производительность своих GPU. И в дополнение к многочисленным движкам с поддержкой OpenCL, мы также решили оценить вычислительную производительность отдельно. Мы взяли тест LuxMark 2.0, тестовую сцену "Sala" с использованием RayTracing, результат теста выводится в сэмплах в секунду. Скачать LuxMark 2.0 можно по следующей ссылке.

luxmark-1-rsScreenshot zu Luxmark 2.0

Screenshot zu Luxmark 2.0Screenshot zu Luxmark 2.0

Luxmark 2.0

Sala

Баллы
Больше - лучше


С помощью теста ComputeMark мы пытались более точно оценить вычислительную производительность GPU. Тест основан на автоматическом выполнении нескольких вычислительных сценариев, которые накладывают различные требования к "железу". Вычислительная мощность тесту предоставляется через API DirectX 11 Compute. Среди всего прочего тест включает сценарий отслеживания лучей (RayTracing). Скачать ComputeMark можно на сайте разработчика.

Screenshot zu ComputeMark Screenshot zu ComputeMark
Screenshot zu ComputeMark Screenshot zu ComputeMark

ComputeMark

Fluid 2D

Баллы
Больше - лучше

ComputeMark

Fluid 3D

Баллы
Больше - лучше

ComputeMark

Mandel Vektor

Баллы
Больше - лучше

ComputeMark

Mandel Skalar

Баллы
Больше - лучше

ComputeMark

Ray Tracing

Баллы
Больше - лучше


Действие пятой игры в семействе The Elder Scrolls разворачивается в провинции Skyrim. Сюжет игры построен вокруг возвращения драконов, что было предсказано в древних свитках ("Elder Scrolls"). Геймер играет роль "довакина", то есть персонажа с телом человека и душой дракона. В игре вам предстоит сражаться не только с обычными тварями, но и с драконами. Добавим к этому реалистичные улицы и захватывающие дух пейзажи, уходящие в горизонт. Благодаря отличной детализации растительности и значительной дальности видимости Skyrim может нагрузить любую видеокарту.

The Elder Scrolls V: Skyrim

2.560 x 1.600 1xAA 1xAF

188.5 XX


130 XX
170.5 XX


119 XX
167.3 XX


113 XX
165.9 XX


110 XX
163.2 XX


107 XX
160.0 XX


113 XX
157.0 XX


105 XX
149.6 XX


110 XX
147.6 XX


114 XX
146.8 XX


108 XX
139.8 XX


114 XX
127.1 XX


115 XX
118.1 XX


106 XX
99.5 XX


89 XX
Кадры в секунду
Больше - лучше

The Elder Scrolls V: Skyrim

2.560 x 1.600 8xAA+FXAA 16xAF

163.4 XX


130 XX
156.3 XX


103 XX
142.9 XX


102 XX
140.8 XX


115 XX
122.6 XX


109 XX
121.9 XX


112 XX
117.5 XX


108 XX
113.6 XX


100 XX
108.1 XX


98 XX
99.4 XX


91 XX
97.3 XX


50 XX
79.8 XX


71 XX
77.9 XX


70 XX
64.0 XX


49 XX
Кадры в секунду
Больше - лучше

The Elder Scrolls V: Skyrim

3.840 x 2.160 1xAA 1xAF

Кадры в секунду
Больше - лучше

The Elder Scrolls V: Skyrim

3.840 x 2.160 8xAA+FXAA 16xAF

Кадры в секунду
Больше - лучше


С игрой Crysis 3 мы получили нового технологического лидера. Игра поддерживает только видеокарты класса DirectX 11, так что Crytek, разработчик Crysis 3, однозначно задал направление развития. В игре используются тесселяция и мощные алгоритмы пост-обработки для сглаживания, способные "поставить на колени" даже новейшие видеокарты.

Crysis 3

2.560 x 1.600 1xAA 1xAF

Кадры в секунду
Больше - лучше

Crysis 3

2.560 x 1.600 4xMSAA 16xAF

Кадры в секунду
Больше - лучше

Crysis 3

3.840 x 2.160 1xAA 1xAF

Кадры в секунду
Больше - лучше

Crysis 3

3.840 x 2.160 4xMSAA 16xAF

Кадры в секунду
Больше - лучше


Среди горячих новинок 2013 года почетное место занимает Bioshock Infinite. Игра радует не только захватывающим сюжетом, но и технологическими инновациями. Движок игры может задействовать практически все современные эффекты DirectX 11, в игре они есть. Так что мы решили добавить Bioshock Infinite к нашему тестовому пакету.

BioShock Infinite

2.560 x 1.600 DirectX 10 High

Кадры в секунду
Больше - лучше

BioShock Infinite

2.560 x 1.600 DirectX 11 Ultra

Кадры в секунду
Больше - лучше

BioShock Infinite

3.840 x 2.160 DirectX 10 High

Кадры в секунду
Больше - лучше

BioShock Infinite

3.840 x 2.160 DirectX 11 Ultra

Кадры в секунду
Больше - лучше


С игрой Battlefield 4 разработчик DICE и издатель EA продолжили успешную линию предшественника: в игре есть небольшая однопользовательская кампания, но суть игры кроется в масштабных многопользовательских сражениях. На крупных картах могут одновременно сражаться до 63 игроков, каждый в одном из трёх классов. В игре доступны десятки видов техники на суше, в воздухе и в воде. Визуально игра Battlefield 4 тоже поставила новую планку, поэтому она предсказуемо вошла в нашу тестовую методику.

Battlefield 4

2.560 x 1.600 1xAA 1xAF

Кадры в секунду
Больше - лучше

Battlefield 4

2.560 x 1.600 4xMSAA 16xAF

Кадры в секунду
Больше - лучше

Battlefield 4

3.840 x 2.160 1xAA 1xAF

Кадры в секунду
Больше - лучше

Battlefield 4

3.840 x 2.160 4xMSAA 16xAF

Кадры в секунду
Больше - лучше


Мы провели тесты на новой стратегии в реальном времени Company of Heroes 2, разработанной Relic Entertainment. Действие игры разворачивается на полях сражений Второй мировой войны, за графику отвечает собственный движок Essence 3.0. Графика в игре не самая впечатляющая, но даже последним high-end видеокартам не всегда удаётся выдавать плавную частоту кадров. А некоторые комбинации разрешения и сглаживания могут "поставить на колени" даже системы multi-GPU.

 

Company of Heroes 2

2.560 x 1.600 без AA 1xAF

Кадры в секунду
Больше - лучше

Company of Heroes 2

2.560 x 1.600 AA high 16xAF

Кадры в секунду
Больше - лучше

Company of Heroes 2

3.840 x 2.160 без AA 1xAF

Кадры в секунду
Больше - лучше

Company of Heroes 2

3.840 x 2.160 AA high 16xAF

Кадры в секунду
Больше - лучше


Metro: Last Light представляет собой продолжение Metro 2033, действие вновь происходит в пост-апокалиптическом будущем в московском метро. Мир Metro 2033 был разработан российским писателем Дмитрием Глуховским. Игра базируется на собственном движке A4 Engine, который поддерживает современные функции DirectX 11. Тесселяция, частицы и эффекты освещения способствуют созданию особой атмосферы, которая немало нагружает GPU.

Metro: Last Light

2.560 x 1.600 без AA 1xAF

Кадры в секунду
Больше - лучше

Metro: Last Light

2.560 x 1.600 1xSSAA 16xAF

Кадры в секунду
Больше - лучше

Metro: Last Light

3.840 x 2.160 без AA 1xAF

Кадры в секунду
Больше - лучше

Metro: Last Light

3.840 x 2.160 1xSSAA 16xAF

Кадры в секунду
Больше - лучше


Игра Tomb Raider с Ларой Крофт в главной роли была возрождена в 2013 году. В отличие от предыдущих игр семейства, Лара Крофт превратилась из искателя приключений в начинающего археолога. Действие игры происходит на заброшенном острове в обстановке, полной опасностей. Движок игры Crystal Engine разработки Square Enix поддерживает последние эффекты DirectX 11, так что даже новейшим high-end видеокартам придётся несладко.

Tomb Raider

2.560 x 1.600 FXAA 1xAF

Кадры в секунду
Больше - лучше

Tomb Raider

2.560 x 1.600 2xSSAA 16xAF

Кадры в секунду
Больше - лучше

Tomb Raider

3.840 x 2.160 FXAA 1xAF

Кадры в секунду
Больше - лучше

Tomb Raider

3.840 x 2.160 2xSSAA 16xAF

Кадры в секунду
Больше - лучше


Игра Grid 2 представляет собой старые добрые гонки от разработчика Codemasters. Кросс-платформенная игра базируется на движке EGO 3.0. Он является дальнейшим развитием игрового движка Neon, который использовался в Colin McRae. Как и для любой гонки, здесь важна плавная игра с максимально высокой частотой кадров.

Grid 2

2.560 x 1.600 4xMSAA 16xAF

Кадры в секунду
Больше - лучше

Grid 2

3.840 x 2.160 4xMSAA 16xAF

Кадры в секунду
Больше - лучше


Конечно, мы провели тесты разгона GeForce GTX Titan X. NVIDIA говорит о высоком потенциале разгона благодаря улучшенной подсистеме питания. Но существенный разгон можно будет получить только с помощью СВО или жидкого азота.

Для нашего теста разгона мы увеличили скорость вентилятора, чтобы температура GPU не поднималась выше порогового значения 80 °C. Достичь более высоких частот получается примерно на 60% скорости вентилятора. Мы могли бы снизить температуру GPU, ещё сильнее увеличивая обороты вентилятора, но уровень шума переставал быть терпимым. Кроме того, мы увеличили планку энергопотребления на 10 процентов, что является максимальным значением, допустимым NVIDIA для GeForce GTX Titan X. С учётом TDP 250 Вт мы получаем прирост на 25 Вт до 275 Вт. Напряжение мы изменить не смогли, так что остаётся надеяться на меньшие температуры и увеличенную планку Power Limit.

Мы получили частоту 1.414 МГц для GPU, которая соответствует приросту на 250 МГц по сравнению с максимальной частотой Boost на практике. Разгон на 20% можно назвать отличным, особенно обрадуются пользователи, планирующие установить на GeForce GTX Titan X водоблок для СВО. Частоту памяти мы смогли увеличить с 1.750 МГц до 1.950 МГц, что соответствует приросту на 11%. Но память разгонять особого смысла не имеет, поскольку она не является "узким местом" видеокарты.

Разгон привел к следующим результатам производительности:

Разгон Futuremark 3DMark

Fire Strike Extreme

Баллы Futuremark
Больше - лучше

Разгон Battlefield 4

2.560 x 1.600 4xMSAA 16xAF

Кадры в секунду
Больше - лучше

Разгон Crysis 3

2.560 x 1.600 4xMSAA 16xAF

Кадры в секунду
Больше - лучше

Разгон Tomb Raider

2.560 x 1.600 2xSSAA 16xAF

Кадры в секунду
Больше - лучше

Разгон The Elder Scrolls V: Skyrim

3.840 x 2.160 8xAA+FXAA 16xAF

Кадры в секунду
Больше - лучше

Разгон энергопотребление

Нагрузка

в Вт
Меньше - лучше

Разгон Температура

Нагрузка

в градусах Цельсия
Меньше - лучше

Разгон Уровень шума

Нагрузка

дБ(A)
Меньше - лучше


Кроме классических тестов, которые мы надеемся в скором времени обновить, мы провели и ряд тестов с новыми играми. Здесь мы выбрали максимальные настройки качества картинки с разрешением 3.840 x 2.160 пикселей.

График времени вывода кадров Assassins Creed Unity
График времени вывода кадров Assassins Creed Unity

Assassin's Creed: Unity без проблем пошла на видеокарте со сглаживанием 2xMSAA и высоким качеством. Средний уровень fps мы получили между 30 и 35 кадрами в секунду, так что играть можно. Кроме того, во время тестового прогона мы не столкнулись с "проседанием" частоты кадров. Но мы понимаем, не все геймеры сочтут подобный уровень плавным для fps. Вы можете ослабить настройки качества и сглаживания, что повысит частоту кадров.

График времени вывода кадров Call of Duty Advanced Warfare 2
График времени вывода кадров Call of Duty Advanced Warfare 2

Ещё выше частота кадров оказалась в игре Call of Duty: Advanced Warfare 2 в разрешении 3.840 x 2.160 пикселей, со сглаживанием 2xMSAA и настройками Ultra. В шутерах уровень 50-60 fps обычно гарантирует хорошую плавность игры. Но запись времени вывода кадров показала довольно серьёзные флуктуации, которые могут приводить к таким негативным эффектам, как разрыв кадра. Как нам кажется, здесь NVIDIA следует доработать поддержку игры с разработчиками в своем драйвере.

График времени вывода кадров Dyling Light
График времени вывода кадров Dyling Light

Более-менее привычную картину мы наблюдаем в игре Dying Light. Частота кадров составила около 40 fps в разрешении 3.840 x 2.160 пикселей со сглаживанием 2xMSAA и настройками Ultra, играть можно. А вот предыдущие видеокарты с одним GPU справлялись с этим режимом не всегда. Преимущество GeForce GTX Titan X может заключаться в памяти, но об этом мы поговорим чуть ниже.

График времени вывода кадров Mittelerde Shdow of Mordor
График времени вывода кадров Mittelerde Shadow of Mordor

Последняя тестируемая игра Middle-earth: Shadow of Mordor, которая тоже довольно требовательна к "железу". Разработчики требуют для максимальных графических настроек 6 Гбайт видеопамяти. Со сглаживанием 2xMSAA и настройками Ultra видеокарта GeForce GTX Titan X справилась с игрой, мы получили частоту кадров между 40 и 50 fps. Но она вновь оказалась неоднородной, так что потенциал для оптимизации драйверов есть.

12 Гбайт памяти

Кроме увеличения производительности путём реализации полной версии архитектуры, GeForce GTX Titan X выигрывает и от 12 Гбайт видеопамяти. Но для каких приложений требуется 12 Гбайт, а 4 или 6 Гбайт перестаёт хватать? Сразу же отметим, что 4-6 Гбайт можно считать достаточным для приложений, если не происходит обмена данными с оперативной памятью из-за нехватки видеопамяти.

Использование памяти в игре Middle-earth Shadow of Mordor
Использование памяти в игре Middle-earth Shadow of Mordor

В игре Middle-earth: Shadow of Mordor мы получили использование только 5.609 Мбайт видеопамяти даже на самых высоких графических настройках, которые доступны на видеокартах с 6 Гбайт памяти и выше. В игре мы получили вполне плавный уровень частоты кадров, что говорит о балансе графических настроек, использования памяти и fps – такое встречается не во всех играх.

Использование памяти в игре  Assassins Creed Unity
Использование памяти в игре Assassins Creed Unity

Игра Assassins Creed: Unity тоже потребляет немало видеопамяти, до 7.649 Мбайт. Но с данными графическими настройками мы подошли уже к критическому уровню fps. Вместе с тем пример показывает, что больше 6 Гбайт видеопамяти игра может потреблять и без специальных модов.

Использование памяти в игре  Call of Duty Advanced Warfare 2
Использование памяти в игре Call of Duty Advanced Warfare 2

В последнем примере Call of Duty: Advanced Warfare 2 мы получаем использование 8.382 Мбайт памяти, так что даже Radeon R9 290X с удвоенным объёмом памяти здесь подойдёт к пределу своих возможностей. В любом случае, данные выше планки 8 Гбайт будут подкачиваться из оперативной памяти системы или накопителя, что негативно скажется на скорости. Поэтому в игре Call of Duty: Advanced Warfare 2 следует подбирать графические настройки, которые обеспечат плавную частоту кадров.

Даже NVIDIA говорит о том, что 12 Гбайт видеопамяти сегодня может быть избыточным объёмом. Редкая игра потребляет больше 6 Гбайт, иначе частота кадров будет быстро снижаться на большинстве видеокарт. То же самое касается и игр с модифицированной графикой. Впрочем, GeForce GTX Titan X ориентирована на только на геймеров, но и на профессиональную сферу. А здесь приложения могут хранить в видеопамяти довольно много данных. Как раз на GTC 2015 NVIDIA должна более подробно рассказать о профессиональном использовании GeForce GTX Titan X. Так что мы рекомендуем следить за нашими новостями в ближайшие дни.

Большой объём видеопамяти хорош не только для одиночной видеокарты, но и для конфигураций multi-GPU. Один GPU может не "потянуть" разрешение 3.840 x 2.160 пикселей с плавной частотой кадров и высокими настройками качества, но два GPU уже могут справиться. И высокие настройки качества могут потребовать существенно больший объём видеопамяти. К сожалению, память видеокарт 4, 6 или 8 Гбайт не складывается, каждый GPU работает с собственной памятью – пусть даже это означает, что данные в конфигурации 3-Way и 4-Way SLI копируются три или четыре раза. Но с 12 Гбайт видеопамяти у GeForce GTX Titan X проблем должно быть меньше. Кроме того, с появлением DirectX 12 появится возможность использования общей памяти нескольких GPU. Более подробная информация должна появиться позже.

Не у каждого дома стоит монитор UltraHD/4K, чтобы задействовать большой объём видеопамяти на высоких разрешениях. Но NVIDIA для таких случаев предусмотрела технологию динамического суперразрешения (Dynamic Super Resolution), которая на уровне драйверов выполняет даунсемплинг – кадры просчитываются в существенно более высоком разрешении, после чего масштабируются на текущее разрешение дисплея. Дополнительную информацию вы можете найти в нашем обзоре 2-го поколения архитектуры "Maxwell".


NVIDIA довольно последовательно разрабатывает свои GPU. После первого поколения "Maxwell" в виде GM107 последовало второе поколение GM206 и GM204. В ходе подобного совершенствования чипов (и при непосредственном участии контрастного производителя TSMC) NVIDIA удалось поднять выход годных кристаллов и улучшить технологию производства для выпуска более крупных чипов. Таким путём NVIDIA шла ещё при развитии архитектуры "Fermi", поэтому вполне логично его использование и для "Maxwell".

Но что NVIDIA предложила нашим читателям с видеокартой GeForce GTX Titan X сегодня? Все ожидания от расширения современной архитектуры "Maxwell" можно перенести и на GeForce GTX Titan X. Поскольку на рынке есть спрос на видеокарты уровнем выше классического семейства GeForce, то NVIDIA пытается его удовлетворить с линейкой Titan. Вполне логично ожидать, что NVIDIA приложит все силы и компетенцию для разработки high-end продукта. Но создаётся впечатление, что NVIDIA сама не определилась с тем, на какого потенциального покупателя ориентироваться с каждым новым поколением Titan. Будет это требовательный геймер или профессиональный пользователь, который может также взять видеокарты из семейств Quadro или Tesla? GeForce GTX Titan первого поколения, если верить NVIDIA, привлекательна не только для геймеров, хотя компания явно ориентировалась на геймеров. Вторая GeForce GTX Titan Black стала сомнительным обновлением, прирост производительности оказался невелик. Несмотря на все снижения цены видеокарта GeForce GTX Titan Z так и не получила массового признания, в чём "виновна", в том числе, и внезапно появившаяся Radeon R9 295X2 (тест и обзор). С видеокартой GeForce GTX Titan X NVIDIA решила сделать ещё одну попытку, выучив уроки прошлого.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

Поэтому позвольте сначала поговорить о производительности. Видеокарта GeForce GTX Titan X на 25-30 процентов быстрее GeForce GTX 980, которая ранее была самой быстрой моделью NVIDIA с одним GPU. Примерно такой же отрыв наблюдался у первой GeForce GTX Titan по сравнению с "потребительскими" видеокартами. Рекомендованная цена видеокарты составляет $999, с учётом прироста производительности она кажется нам оправданной. Тем геймерам, кому видеокарта GeForce GTX 980 уже казалась дорогой, вряд ли будет интересна ещё более дорогая GeForce GTX Titan X. Но прирост производительности можно назвать значительным, он достаточный для выпуска отдельной модели от GeForce GTX 980, которую можно было назвать и GeForce GTX Titan X, и GeForce GTX 980 Ti. Прирост производительности по сравнению с GeForce GTX 980 позволяет оценить потенциал полной архитектуры "Maxwell". Но также на производительности сказывается и более широкий интерфейс памяти, и больший объём. Кроме того, у GPU GM200 в видеокарте GeForce GTX Titan X есть и другие улучшения (например, более крупный кэш L2), хотя они не так сильно сказываются на игровой производительности. На GTC 2015 будут раскрыты несколько преимуществ для профессионального пользователя.

Позвольте поговорить о конфигурации памяти GDDR5 12 Гбайт. На данный момент такой объём кажется чрезмерным и ненужным. Но мы показали, что современные игры могут задействовать большую часть подобного объёма, и при распространении на рынке таких видеокарт ситуация будет меняться. GeForce GTX Titan на момент своего появления обеспечивала объём 6 Гбайт, который казался гигантским, но выигрыш от него сегодня уже стал ощущаться. Память объёмом 12 Гбайт видеокарты GeForce GTX Titan X подключена по 384-битному интерфейсу, по сравнению с архитектурой GeForce GTX 980 мы получаем значительное увеличение пропускной способности – всё же GTX 980 довольствуется "всего" 256-битной шиной памяти, пусть даже на практике мы не сталкивались с какими-либо ограничениями, с этим связанными. 12 Гбайт видеопамяти будут полезны для систем multi-GPU, состоящих из двух GeForce GTX Titan X или даже большего количества видеокарт.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

Поскольку NVIDIA GeForce GTX Titan X будет официально поставляться только с эталонным кулером, важно поговорить о его качествах. С точки зрения шума есть хорошие новости, тем более что с эталонным кулером видеокарта продолжает обеспечивать высокий уровень производительности. Но, если верить опыту предыдущих видеокарт NVIDIA с таким же кулером, в некоторых корпусах могут возникнуть проблемы с охлаждением, а производительность очень сильно зависит от температуры GPU – и упирается в неё. Мы впервые получаем подобную картину с GeForce GTX Titan X, хотя NVIDIA подняла планку температуры с 80 до 83 °C. Видеокарта очень быстро добирается до предельной температуры, после чего работает уже не на максимальных частотах Boost. Но до минимальной планки Boost в наших тестах видеокарта не опускалась, так что критиковать NVIDIA не за что. Хотя, честно говоря, несколько обидно, что эталонный кулер не позволяет раскрыть полный потенциал GPU во всех случаях. Альтернативные варианты охлаждения здесь бы помогли. Как мы слышали от некоторых производителей, в том числе EVGA и Gigabyte, сегодня они работают над решениями, схожими с первыми видеокартами Titan. То есть покупатель получает видеокарту с эталонным кулером и вторым дополнительным кулером, который он может установить вместо эталонного. Некоторые магазины, например, тот же Caseking предлагают подобные комплекты, причём можно заказать замену кулера у продавца. В любом случае, будет интересно посмотреть на GeForce GTX Titan X с системой водяного охлаждения. Она должна работать в более подходящих условиях, когда температура GPU не будет ограничивать производительность.

Несколько слов следует сказать и по поводу энергопотребления. Оно оказалось чуть выше GeForce GTX 980, но вы получите значительный прирост производительности. Мы по-прежнему получаем высокую эффективность архитектуры "Maxwell", но "младшие" видеокарты радовали заметно меньшим уровнем энергопотребления.

NVIDIA GeForce GTX Titan X
NVIDIA GeForce GTX Titan X

GeForce GTX Titan X с сегодняшнего дня будет доступна на рынке США. Там NVIDIA будет поддерживать прямые продажи клиентам, что для бизнеса видеокарт в новинку. Что касается Европы и России, то здесь можно ожидать появления видеокарты в магазинах к концу марта. Сможет ли NVIDIA обеспечить видеокарты в достаточном количестве – нам ещё предстоит увидеть.

Цена

На пленарном докладе CEO NVIDIA Дженсен Хуанг назвал цену видеокарты GeForce GTX Titan X. Она составляет $999. Мы пока не знаем, сколько будет составлять финальная цена в рублях.

Альтернативы? Если оценивать по производительности одиночного GPU, то альтернатив у GeForce GTX Titan X нет. Но если вы относитесь к приверженцам систем multi-GPU и готовы обойти все "подводные камни", то альтернативой можно назвать Radeon R9 295X2. Видеокарта GeForce GTX Titan X ставит планку производительности довольно высоко, и пока с ней могут конкурировать только системы SLI или Crossfire. Также мы с нетерпением ждём новостей, касающихся появления альтернативных систем охлаждения.

 

Преимущества NVIDIA GeForce GTX Titan X:

Недостатки NVIDIA GeForce GTX Titan X:

 

Личное мнение

Слухи о видеокарте с полной архитектурой Maxwell ходили давно. Разве что пользователи спорили насчёт точного названия, а также даты выхода. Оба вопроса сегодня сняты с повестки дня. Видеокарта GeForce GTX Titan X обеспечивает хороший прирост производительности и отлично дополняет нынешнюю линейку NVIDIA. Будет интересно посмотреть, как смогут раскрыть потенциал видеокарты разные производители – с эталонным кулером NVIDIA показала неплохие результаты, но лично мне интереснее взглянуть на версию с водоблоком.

Но будущее кажется ещё более интересным. Сейчас я нахожусь в Сан-Хосе на конференции GTC (GPU Technology Conference). И я наверняка смогу поделиться с нашими читателями подробностями о грядущих архитектурах. После "Maxwell" будет следовать "Pascal", первая архитектура с 3D-памятью и NVLink. "Volta" тоже на горизонте, хотя детали потенциальных преемников "Maxwell" пока остаются в тумане. В любом случае, на GTC появится много интересных подробностей о том, что нам можно ожидать в ближайшие месяцы. (Андрей Шиллинг)