Тест и обзор: NVIDIA GeForce GTX 1080 на архитектуре Pascal

Опубликовано:

geforce gtx 1080Сегодня NVIDIA представляет видеокарты GeForce GTX 1080 и GeForce GTX 1070 на новой архитектуре Pascal, которая в нынешнем году распространится и на другие модели. Вскоре AMD тоже выпустит свои новинки. Десять дней назад NVIDIA пригласила журналистов в Остин (Техас), где компания анонсировала новые видеокарты. Сегодня мы можем дать больше информации о прошедшем мероприятии, а также приводим результаты тестов. Кроме информации об архитектуре мы рассмотрим эталонный дизайн в виде Founders Edition, опубликуем тесты, а также расскажем о новых технологиях.

В этом году NVIDIA решила использовать конференцию GPU Technology Conference для объявления новой архитектуры GPU. Удивив многих, NVIDIA в середине марта представила архитектуру Pascal, объявив вычислительные ускорители Tesla P100 с первыми GPU на новой архитектуре. Журналисты тоже были немало удивлены, поскольку ранее NVIDIA даже не намекала на подобное развитие событий. Идея архитектуры Pascal во многом строится на высокой вычислительной производительности. Как показал первый анализ архитектуры Pascal, у нее действительно имеется приличный потенциал вычислительной производительности.

Как сообщил CEO Дженсен Хуанг на пленарном докладе, NVIDIA использовала для GPU GP100 полную версию архитектуры. Чип использует 15,3 млрд. транзисторов, 16 Гбайт памяти HBM2, а площадь составляет 610 мм². GPU с памятью устанавливаются на подложку, так что NVIDIA пришлось преодолеть немало технических проблем. На разработку архитектуры ушло несколько лет, в общей сложности над ней работали тысячи инженеров. Бюджет на разработку архитектуры Pascal составил от 2 до 3 млрд. долларов. Никто не ожидал, что NVIDIA подготовит чипы с новой архитектурой уже в начале года. Впрочем, GPU GP100 ориентированы на вычисления, а не на геймеров. Цена ускорителей P100 составляет от 12 до 15 тыс. долларов – точной цены NVIDIA так и не назвала.

Пять основных особенностей GeForce GTX 1080
Пять основных особенностей GeForce GTX 1080

Видеокарты GeForce GTX 1080 и GTX 1070 можно назвать шагом назад. NVIDIA использовала другой дизайн чипа, который во многих областях существенно отличается от GPU GP100 в вычислительных ускорителях Tesla P100. Ниже мы рассмотрим сходства и различия. А также поговорим о новых технологиях, которые могут играть важную роль в будущем.

Обзор технических спецификаций GeForce GTX 1080
Модель NVIDIA GeForce GTX 1080 AMD Radeon R9 Fury X NVIDIA GeForce GTX 980 Ti
Цена 789 евро от 45,2 тыс. рублей
от 615 евро
от 44,2 тыс. рублей
от 620 евро
Сайт производителя NVIDIA AMD NVIDIA
Техническая информация
GPU GP104 Fiji XT GM200
Техпроцесс 16 нм 28 нм 28 нм
Число транзисторов 7,2 млрд. 8,9 млрд. 8 млрд.
Тактовая частота GPU (базовая) 1.607 МГц - 1.000 МГц
Тактовая частота GPU (Boost) 1.733 МГц 1.050 МГц 1.075 МГц
Частота памяти 2.500 МГц 500 МГц 1.750 МГц
Тип памяти GDDR5X HBM GDDR5
Объём памяти 8 GB 4 GB 6 GB
Ширина шины памяти 256 бит 4.096 бит 384 бит
Пропускная способность памяти 320,0 Гбайт/с 512,0 Гбайт/с 336,6 Гбайт/с
Версия DirectX 12 12 12
Потоковые процессоры 2.560 4.096 2.816
Текстурные блоки 160 256 176
Конвейеры растровых операций (ROP) 64 64 96
Тепловой пакет 180 Вт 275 Вт 250 Вт
SLI/CrossFire SLI CrossFire SLI

В рамках данной статьи мы будем называть GPU в видеокарте GeForce GTX 1080 модельным номером GP104. То же самое касается и видеокарты GeForce GTX 1070, хотя здесь архитектура подверглась некоторым сокращениям. NVIDIA пока не раскрыла техническое название чипов. Для ясности сравнения с GP100 в Tesla P100, мы будем использовать название GP104 для чипа в видеокартах GeForce GTX 1080 и GTX 1070. Производство GPU выполняется по 16-нм техпроцессу FinFET на заводах TSMC. NVIDIA указала число транзисторов 7,2 млрд. Площадь кристалла составляет 314 мм².

Архитектура Pascal

Центральным компонентом архитектуры по-прежнему являются потоковые мультипроцессоры Streaming Multiprocessors (SM). Графический процессор состоит из кластеров GPC (Graphics Processing Cluster, потоковых мультипроцессоров SM и контроллеров памяти. У GP104 на видеокарте GeForce GTX 1080 мы получаем четыре GPC, двадцать SM, каждый содержит по два блока с 64 потоковыми процессорами. В результате число потоковых процессоров составляет 2.560 (20x128). У каждого SM кроме 128 потоковых процессоров имеются восемь текстурных блоков, что дает 160 TMU в сумме. Интерфейс памяти 256-битный, NVIDIA использовала восемь 32-битных контроллеров. К каждому контроллеру подключено восемь конвейеров растровых операций, что дает 64 ROP у GeForce GTX 1080.

Диаграмма GPU GP104
Диаграмма GPU GP104

Движок PolyMorph Engine получил специальный аппаратный блок для функции Simultaneous Multi Projection. Комбинация SM с движком PolyMorph Engine названа Thread Processing Cluster (TPC). Каждый Streaming Multiprocessor оснащен 256-кбайт блоком File Register, 96-кбайт блоком Shared Register и 48-кбайт кэшем L1. Также имеется кэш L2 емкостью 2.048 кбайт.

Диаграмма Streaming Multiprocessor GPU GP104
Диаграмма Streaming Multiprocessor GPU GP104

Если сравнивать GPU GP104 GeForce GTX 1080 с GPU GP100 Tesla P100, то можно заметить некоторые изменения. У GPU GP100 каждый SM содержал 64 потоковых процессора, у GPU GP104 их число увеличилось до 128. Кроме того, изменились размеры блоков регистров и кэша. Таким образом, NVIDIA впервые в архитектуре изменила не только количество функциональных блоков, но и внесла более глубокие изменения, адаптируя архитектуру под потребности семейств Tesla или GeForce (изменяя число блоков FP64 и потоковых процессоров).

Подача питания

У чипа, изготавливаемого по 16-нм техпроцессу с несколькими миллиардами транзисторов, вопросы подачи питания выходят на передний план. К каждой области GPU необходимо подвести как можно более стабильное питание, именно по этой причине используются выделенные проводники. Чем больше будет инфраструктура питания на GPU, тем более стабильными будут напряжения. NVIDIA при разработке архитектуры Pascal и GPU GP104 провела тысячи симуляций, чтобы найти эффективное соотношение между напряжениями и частотами GPU – то же самое верно и для GPU GP100 в Tesla P100.

Новая подсистема питания
Новая подсистема питания

В начале разработки учитывалось порядка 1.300 линий подачи напряжения, что позволило увеличить частоту Boost до 1.325 МГц. Со временем количество линий подачи напряжения превысило 1.700, что позволило добиться частоты Boost, как минимум, 1.733 МГц у GeForce GTX 1080. Конечно, количество линий можно увеличивать и дальше, но отдача в виде тактовых частот будет уже непропорциональной.

Кроме самого GPU довольно высокие требования по питанию накладывают и другие компоненты. Поэтому важно гарантировать стабильную подачу питания на упаковку GPU. NVIDIA использовала специальный дизайн печатной платы (Board Channel Design), который описывает раскладку линий. Дизайн печатной платы дополняет архитектура питания самого GPU (GPU Circuit Architecture), описывающая подачу питания на компоненты, расположенные непосредственно на кристалле.

Новая подсистема питанияНовая подсистема питания

Новая подсистема питания

Высокие требования к печатной плате и упаковке BGA GPU накладываются и по передаче сигналов. Это касается интерфейса PCI Express и памяти GDDR5X. В данном случае память работает на довольно высоких частотах до 2.500 МГц. Длина волны сигналов сокращается, для симуляции уже недостаточно учитывать омическое сопротивление, перекрестные помехи, длину проводников. Необходимо, например, принимать во внимание емкость и индуктивность проводников.

Чтобы гарантировать целостность сигналов во всех участках цепи, модуляция и декодирование должны выполняться максимально точно. Чтобы сигналы проходили за примерно равное время, чипы памяти равномерно распределены вокруг GPU. Данная методика будет применяться и с будущими поколениями памяти, NVIDIA продолжит ее оптимизацию.


В конце 2015 года появилась финальная информация о памяти Micron GDDR5X. Micron видит память GDDR5X как переходную между GDDR5 и HBM или альтернативный вариант до массового перехода на HBM второго поколения. Для повышения производительности ширина prefetch была удвоена с 32 до 64 бит. Число слов данных на доступ тоже увеличилось в два раза, с 8 до 16. Пропускная способность данных на линию памяти у стандарта GDDR5 на 2.000 МГц составляет 8 Гбит/с. Micron у нынешней версии GDDR5X планирует увеличить пропускную способность до 10-12 Гбит/с, в будущем возможен рост до 16 Гбит/с. Как указывает Micron, небольшие отличия между GDDR5 и GDDR5X облегчают доработку контроллера памяти, что не составит особого труда для AMD и NVIDIA.

Если GPU работает с 256-битной шиной памяти, то переход на GDDR5X 12 Гбит/с позволит увеличить пропускную способность с 256 до 384 Гбайт/с. Скорость 16 Гбит/с позволит даже удвоить пропускную способность до 512 Гбайт/с, что соответствует нынешнему поколению HBM. Но следует помнить, что GDDR5X на 16 Гбит/с пока недоступна. NVIDIA использовала на видеокарте GeForce GTX 1080 память GDDR5X с частотой 2.500 МГц, что позволило достичь пропускной способности 320 Гбайт/с (10 Гбит/с на линию, кодирование QDR). В результате пропускная способность памяти оказалась на уровне прямого предшественника GeForce GTX 980 и меньше, чем у GeForce GTX 980 Ti. Но NVIDIA планирует компенсировать сей факт улучшенной цветовой дельта-компрессией.

Брифиг Micron, посвященный GDDR5XБрифиг Micron, посвященный GDDR5X

Брифиг Micron, посвященный GDDR5X

Как и можно было ожидать, чипы памяти GDDR5 и GDDR5X выглядят очень похоже. Но есть и отличия. Чипы памяти GDDR5X используют 190 контактов в упаковке BGA вместо 170. Размеры чипов памяти тоже немного уменьшились до 14x10 мм. В любом случае, будущее остается за технологией High Bandwidth Memory. Второе поколение памяти HBM демонстрирует приличный потенциал, NVIDIA уже стала использовать такую память с ускорителями Tesla P100. Но HBM пока не планируется использовать во всем ассортименте видеокарт. NVIDIA показала это на примере GTX 1080, AMD с архитектурой Polaris тоже пока не планирует использовать HBM2. Так что GDDR5X остается весьма актуальным вариантом, тем более что интегрировать поддержку этой памяти в существующие контроллеры довольно просто (используются схожие задержки и частоты). Приятным побочным эффектом можно назвать снижение напряжения с 1,5 до 1,35 В.

Цветовая дельта-компрессия

256-битный интерфейс памяти выглядит скромно по сравнению с 512-битным интерфейсом GPU Hawaii или 4.096-битным у первых видеокарт с памятью HBM или HBM2 от AMD и NVIDIA. Но NVIDIA выбрала иной способ увеличения производительности памяти через новую технологию сжатия. Цветовая дельта-компрессия используется GPU AMD и NVIDIA на протяжении последних поколений. Сейчас NVIDIA представляет 4 поколение технологии сжатия. AMD использовала технологию цветового дельта-сжатия еще с GPU Tonga на видеокартах Radeon R9 295. Недавно AMD вновь подняла тему реализации цветовой дельта-компрессии в архитектуре GCN 1.2. Важно понимать, что технология опирается на сжатие без потерь. Поскольку потерь данных не происходит, разработчики могут смело опираться на данный способ без специальной адаптации.

Цветовая дельта-компрессия архитектуры Pascal
Цветовая дельта-компрессия архитектуры Pascal

NVIDIA использовала для сжатия памяти цветовую дельта-компрессию (Delta Color Compression). Она основана на хранении полной цветовой информации только о базовом пикселе, для остальных пикселей сохраняется только разница с базовым (дельта). Для этой цели используется матрица 8x8 пикселей. Поскольку близко расположенные пиксели обычно мало отличаются по цвету, хранение для них разницы оказывается по объёму информации выгоднее, чем полного значения цвета. Поэтому в случае дельта-компрессии информация о пикселях занимает меньше места в памяти, также достигается экономия пропускной способности памяти. В качестве примера работы технологии можно привести полностью черный и белый блоки, которые будут храниться в памяти как {1.0, 0.0, 0.0, 0.0} или {0.0, 1.0, 1.0, 1.0}. Здесь можно сэкономить ресурсы, сохраняя только 0.0 или 1.0 в качестве значения.

Цветовая дельта-компрессия архитектуры Pascal
Цветовая дельта-компрессия архитектуры Pascal

Цветовая дельта-компрессия архитектуры PascalЦветовая дельта-компрессия архитектуры Pascal

Цветовая дельта-компрессия архитектуры Pascal

NVIDIA улучшила процедуру определения сжимаемого контента. Ранее известное соотношение 2:1 теперь может использоваться чаще, то есть применяться к большему массиву данных. Появились и соотношения сжатия 4:1 и 8:1. NVIDIA использовала в качестве примера игру Project Cars, где компании удалось снизить требуемую пропускную способность в два раза. В среднем же для игр 320 Гбайт/с у GeForce GTX 1080 превращаются в эффективную пропускную способность памяти 384-480 Гбайт/с. Конечно, данные значения можно назвать чисто теоретическими, исходя из сжатия данных. Довольно сложно оценить влияние цветовой дельта-компрессии на практике, поскольку она выполняется аппаратно, выключить сжатие нельзя.


Одна из основных новых функций архитектуры Pascal – Simultaneous Multi Projection (SMP). Первый шаг в данном направлении NVIDIA сделала еще с архитектурой Maxwell в виде Multi-Resolution Shading (MRS). Технология MRS позволяет экономить вычислительную производительность GPU для очков виртуальной реальности, поскольку периферийные области можно выводить с намного меньшим разрешением, чем основные – глаз этого не заметит.

Что такое Multi-Resolution Shading?

Пользователь очков VR видит искаженную картинку с дисплея через систему линз, поэтому картинку имеет смысл оптимизировать в зависимости от дальности видимости и углов обзора. В результате картинка на дисплее получает искажения, похожие на «рыбий глаз», после системы линз пользователь воспринимает такое изображение как совершенно нормальную картинку без искажений. В прошлом GPU и процесс рендеринга под подобную технологию не были оптимизированы, производители добавляли необходимые искажения в виде пост-обработки. Конечно, пост-обработка требует вычислительных затрат, но что еще хуже, она вносит дополнительные задержки, а их для оптимального восприятия VR необходимо минимизировать.

NVIDIA GameWorks VRNVIDIA GameWorks VR

NVIDIA GameWorks VR

NVIDIA использует трюк, позволяющий снизить вычислительные расходы при рендеринге областей с ограниченной видимостью (или невидимых вообще). Изображение разделяется на девять зон. Так называемые зоны Viewports выделены так, чтобы быть как можно ближе к зонам привычной пост-обработки. Самая большая зона Viewport по центру просчитывается почти как в оригинале. Боковые области, а особенно четыре угла, подвергаются сжатию, у них изменяется разрешение в зависимости от желаемого результата.

Все девять зон одновременно рассчитываются на GPU, но отдельно друг от друга. И финальная картинка получается уже адаптированной для очков VR, пост-обработки не требуется. Вырезание невидимых областей, сжатие и оптимизация разрешения областей позволили NVIDIA увеличить производительность пиксельных шейдеров в 1,3-2 раза у архитектуры Maxwell. Поскольку Pascal поддерживает Viewports, технологию Multi-Resolution Shading можно использовать и здесь. Но NVIDIA расширила ее функциональность в архитектуре Pascal, теперь появились новые сценарии, когда имеет смысл использовать Viewports.

До 16 Viewports и Simultaneous Multi Projection

Simultaneous Multi Projection
Simultaneous Multi Projection

Кроме очков VR расчет 3D-сцены с разных углов обзора полезен, например, при использовании нескольких мониторов друг с другом или изогнутых панелей. Системы с несколькими мониторами распространены не так широко, но NVIDIA нацелилась решить проблему при использовании более одного монитора. Расчет 3D-сцены на 2D-пространство мониторов не учитывает углы расположения мониторов. NVIDIA использовала упомянутые Viewports еще с архитектуры Maxwell (там NVIDIA предусмотрела несколько Viewports для реализации Multi-Resolution Shading, как описано выше). Если у Maxwell поддерживаются 9 viewports, в архитектуре Pascal - уже 16 viewports. Технология Simultaneous Multi Projection позволяет выводить на каждый монитор свое изображение. Демонстрация на нескольких мониторах как раз приведена на видеоролике:

Технология интересна не только для конфигураций с несколькими мониторами, но и в приложениях VR. Здесь 16 viewports можно использовать для вычисления двух кадров для 3D-дисплея за один проход (Single Pass Stereo). Кроме того, технология Simultaneous Multi Projection позволяет заранее оптимизировать картинку под оптическую систему VR-оков. Здесь NVIDIA использует так называемую технологию Lens Matched Shading. Каждый кадр разделяется на четыре зоны, которые не планарные, а искривленные, непосредственно под оптику очков, чтобы не вычислять лишние пиксели. Архитектура Pascal поддерживает 16 Viewports, поэтому возможен расчет восьми зон на каждый глаз. В данном случае для поддержки Simultaneous Multi Projection NVIDIA предложит SDK, через который разработчики смогут задействовать технологию. Кроме конфигураций с несколькими мониторами и VR-очками будут поддерживаться и дисплеи с изогнутой панелью. В панели драйверов NVIDIA позволит задавать кривизну дисплея или углы расположения мониторов в соответствующих конфигурациях.

Simultaneous Multi ProjectionSimultaneous Multi Projection

Simultaneous Multi Projection

Simultaneous Multi Projection является частью движка PolyMorph Engine 4.0. В конвейере рендеринга этап SMP выполняется до растеризации и расчета пиксельных шейдеров (Input Assembler —> Vertex/Tessellation/ Geometry Shader —> SMP —> Setup Raster —> Pixel Shader). В результате в приложениях VR видеокарта GeForce GTX 1080 может демонстрировать двукратный прирост производительности по сравнению с GeForce GTX Titan X при трехкратном увеличении эффективности. Сама технология Simultaneous Multi Projection обеспечивает прирост производительности от 50 до 60 процентов.

Simultaneous Multi Projection
Simultaneous Multi Projection

Прирост производительности можно оценить в цифрах. В случае очков Oculus Rift разрешение 4,2 мегапикселя консервативный режим NVIDIA позволяет снизить до 2,8 МП, что дает до 1,5x больше пиксельной пропускной способности. Данные геометрии необходимо рассчитывать только один раз, поэтому Single Pass Stereo дает двукратный прирост соответствующей пропускной способности. Если верить NVIDIA, технология Simultaneous Multi Projection работает чуть более эффективно, чем Multi-Resolution Shading, но MRS нельзя заменить SMP (и наоборот), поскольку технологии ориентированы на разные сферы применения, хотя обе призваны экономить вычислительные ресурсы и повышать производительность.

Технология Simultaneous Multi Projection тоже может использоваться, с одной стороны, для рендеринга картинки для очков VR, с другой стороны она также поддерживает классические мониторы (полезно, например, для стриминга). И наоборот.


Наличие тысяч потоковых процессоров дает огромный потенциал производительности, но разработчикам программного и аппаратного обеспечения приходится нелегко, чтобы задействовать все имеющиеся потоковые процессоры. Проблем возникает еще больше, если требуется сочетать вычисления вместе с традиционными графическими расчетами. Не так-то легко свести разные типы вычислений вместе.

Динамическая балансировка нагрузки через Async Compute
Динамическая балансировка нагрузки через Async Compute

Асинхронные вычисления будут играть весьма существенную роль в будущем. AMD разработала выделенный аппаратный блок Asynchronous Shaders, который является частью архитектуры Graphics Core Next. В результате AMD выигрывает в некоторых играх DirectX 12, по крайней мере, если они используют Asynchronous Shaders. Хорошим примером можно назвать Ashes of the Singularity. NVIDIA с архитектурой Pascal представила новую технологию динамической балансировки нагрузки (Dynamic Load Balancing). Она призвана помочь, в частности, в ситуациях, когда задачи и вычисления необходимо стартовать одновременно, но их вычислительная сложность очень сильно различается. Предыдущие технологии статического распределения (Static Partitioning) в Maxwell давали намного меньшую эффективность по сравнению с динамической балансировкой нагрузки, то есть они хуже задействовали имеющиеся вычислительные блоки.

Вытеснение (Preemption)

Поскольку на графическом процессоре могут выполняться параллельно несколько задач, иногда имеет смысл остановить одну задачу, чтобы выполнить другую, более чувствительную к задержкам. А потом доделать остаток первой задачи. В таких ситуациях срабатывает механизм вытеснения (Preemption), который очень похож на вытесняющую многозадачность в мире операционных систем. Здесь любой процесс может прерываться в определенное время, независимо от того, завершил он задание или нет. Как правило, вычисления можно разделить на временные промежутки, в которые и выполняется вытеснение. Если процесс прерван, то его регистры и кэши переносятся из GPU в видеопамять. Как только процесс вернется на исполнительные ресурсы, он продолжится с прерванного места.

Чтобы подобный механизм был как можно более гибким, очень важна возможность прерывать вычисления в любой момент. То есть уменьшить размер временных промежутков до минимума. Раньше выполнялось на уровне треугольников (или вызовов Draw Call), то есть снять процесс можно было только по завершении обработки треугольника. Теперь выполнение вытеснения возможно на уровне пикселей. То есть процесс на графическом конвейере может остановиться на уровне ближайшего пикселя, после чего он будет восстановлен со следующего пикселя. Ранее такое тонкое разбиение не было возможным.

Вытеснение на архитектуре PascalВытеснение на архитектуре Pascal

Вытеснение на архитектуре Pascal

Что касается вычислений, в архитектуре Maxwell присутствовал эквивалент попиксельного вытеснения на уровне потоков (thread). В Pascal он тоже имеется, но добавлено вытеснение на уровне инструкций в задачах CUDA. В драйверах NVIDIA подобная функция еще не задействована, но она будет реализована в будущем, как и попиксельное вытеснение. В результате NVIDIA удалось сократить временные промежутки с нескольких миллисекунд до уровня менее 100 мкс.

Вытеснение очень важно для приложений VR, в том числе для функции Asynchronous Timewarp. Если видеокарта не может выдавать кадры каждые 11 мс (90 кадров в секунду), ATW генерирует промежуточный кадр, используя последние данные конвейера рендеринга с коррекцией позиции головы. Такой кадр необходимо создать как можно быстрее, и здесь как раз новый механизм вытеснения должен себя показать с лучшей стороны.


Начиная с этого года важной темой становится высокий динамический диапазон (High Dynamic Range). AMD еще в прошлом году объявила, что будущие GPU компании будут поддерживать HDR. HDR описывает большие отличия в яркости между разными элементами картинки, то есть более широкий динамический диапазон по сравнению со стандартным динамическим диапазоном (SDR). В HDMI 2.0a, например, поддерживается передача потока с информацией HDR, сервис Amazon Prime Instant Video в США уже предлагает соответствующий контент, фильмы на новых 4K Blu-ray тоже должны поддерживать HDR. Наконец, сервис Netflix представил первый контент с поддержкой HDR с начала 2016 года.

Чтобы понимать отличия между HDR и SDR, следует учесть следующее. Как и в случае частоты обновления мониторов и телевизоров, производителям приходится наследовать технологии передачи картинки еще со времен ЭЛТ-мониторов. Данные технологии не предусматривают передачу дополнительной информации, такой как HDR, на мониторы. Если даже при съемке кино и телевизионных передач будет захватываться информация HDR, она будет теряться и урезаться при последующей передаче. Все это влияет на цветовое пространство, контрастность и яркость, которая обычно не превышает 100 кд/м². В результате черный цвет не получает глубину, а на ярких изображениях теряется информация.

HDR в архитектуре Pascal
HDR в архитектуре Pascal

При создании видео контент проходит через несколько этапов обработки. Сюда входит запись видео, обработка и монтаж, запись на носители и воспроизведение непосредственно на дисплее. Производители телевизоров и мониторов пытаются создавать собственные динамические профили и настройки, чтобы компенсировать потери, но все же потерянную информацию восстановить нельзя, можно разве что провести интерполяцию. Технически перед производителями дисплеев стоят серьезные проблемы, поскольку реализовать поддержку HDR напрямую пока сложно. Панели на жидких кристаллах просто не могут выдать нужную пиковую яркость, как и глубокий черный цвет, имеющийся у панелей OLED. Так что производителям еще предстоит улучшать подсветку, чтобы достичь большую динамику яркости. Приходится выставлять яркость отдельно для разных областей панели, что значительно сложнее распространенных сегодня технологий.

Для представления широкого динамического диапазона, подобно сфере аудио, разработан стандарт Dolby Vision. Он позволяет указывать максимальную яркость до 4.000 кд/м², что намного превышает современные возможности. У HDR в первой версии яркость ограничена 1.000 кд/м², а контрастность 10.000:1, цветовой охват должен составлять 75% от видимого спектра. Так что пройдут годы, прежде чем мы сможем наслаждаться подобным представлением в гостиных комнатах.

HDR в архитектуре Pascal
HDR в архитектуре Pascal

Со стороны кодеков подготовка уже началась. HEVC на сегодня является единственным «потребительским» кодеком, поддерживающим воспроизведение контента HDR. Кроме того, технология Dolby Vision позволяет использовать существующие кодеки, к которым добавляются данные. Однако такой поток могут распознавать только устройства Dolby Vision, необходимая пропускная способность увеличивается на четверть, что тоже может вызвать проблемы.

Технология HDR позволяет передавать и выводить не только большие отличия по яркости, но и больший цветовой диапазон. Сегодня распространены цветовые пространства sRGB и Adobe RGB. Но уже определены стандарты Rec. 2020 и Digital Cinema (DCI) HDR-10 UHD TV с расширенным цветовым пространством, которое приближается к возможностям восприятия человеческого глаза.

Тему HDR нельзя назвать новой для игр, как и для фильмов. В играх уже давно предпринимались попытки симулировать широкий динамический диапазон HDR, но только силами движка. Поскольку ни видеокарта, ни монитор, ни интерфейс передачи не могли передавать информацию HDR. И в играх под HDR часто понимались чересчур насыщенные эффекты освещения (с перенасыщением яркостью), которые, конечно, мало соответствуют реальному HDR. На мероприятии Editors Day NVIDIA представила вместе с разработчиками версию Rise of the Tomb Raider с поддержкой HDR. На презентации нам пришлось привыкать к тому, что яркие области буквально ослепляли. Но, возможно, за все годы глаз привык к стандартному динамическому диапазону, поэтому ему сложно перестраиваться на более реалистичное отображение игры.

NVIDIA в архитектуре Pascal поддерживает 10-битное кодирование и декодирование с поддержкой HDCP. Декодирование HEVC возможно в режиме 4K на 60 fps с 10/12 битами. Кодирование HEVC ограничено 4K на 60 fps с 10 битами (например, запись стриминга или просто сигнала видео).

NVIDIA GeForce GTX 1080
NVIDIA GeForce GTX 1080

В рамках новой архитектуры Pascal NVIDIA пересмотрела видеовыходы GeForce GTX 1080 и GTX 1070. Обе карты оснащены выходами HDMI 2.0b и DisplayPort 1.3/1.4. В случае DisplayPort 1.3 подразумевается уже принятый стандарт, насчет DisplayPort 1.4 NVIDIA указывает готовность к его поддержке, так как VESA еще не приняла финальные спецификации. Но, как ожидается, NVIDIA будет полностью поддерживать стандарт во всех деталях. Впрочем, это касается только обязательных компонентов DisplayPort. Вряд ли от NVIDIA можно будет ожидать поддержку опциональных компонентов, таких как Adaptive Sync.

Первые мониторы с поддержкой HDR, как надеется NVIDIA, выйдут в начале 2017. Поэтому пройдет некоторое время, прежде чем геймеры смогут насладиться HDR. Если же вы хотите собрать домашний кинотеатр с поддержкой HDR, то придется потратиться. Чтобы можно было вести стриминг с игрового ПК, оснащенного видеокартой Pascal, на телевизор в гостиной комнате с поддержкой HDR, NVIDIA добавит поддержку GameStream HDR. Приставки Shield на Android TV тоже смогут принимать 10-битный поток HVEC. NVIDIA планирует добавить данную функцию летом 2016.

AMD приводит следующую таблицу совместимости с функциями HDR:

Обзор совместимости
Разрешение 1080p на 120 Гц
10bpc
1440p на 60 Гц
10bpc
2160p на 30 Гц
10bpc
2160p на 60 Гц
10bpc
Линейки GPU: Radeon R9 300 Radeon R9 300 Radeon R9 300 Radeon R9 300
Видеовыходы: HDMI 1.4b
DisplayPort 1.2
HDMI 1.4b
DisplayPort 1.2
HDMI 1.4b
DisplayPort 1.2
HDMI 1.4b
DisplayPort 1.2
Контент: Игры
Фото
Игры
Фото
Игры
Фото
Игры
Фото
Фильмы

Если же вы приобрели видеокарту NVIDIA на GPU Maxwell, вам наверняка будет интересно, какие изменения произошли с архитектурой Pascal. NVIDIA тоже представила таблицу, в которой сравнила GeForce GTX 980 с GTX 1080.

Совместимость кодирования и декодирования
Видеокарта GeForce GTX 980 GeForce GTX 1080
H.264 Encode Да Да (2x 4K@60 Гц)
HEVC Encode Да Да (2x 4K@60 Гц)
10 Bit HEVC Encode Нет Да
H.264 Decode Да Да (4K@120 Гц до 240 Мбит/с)
HVEC Decode Нет Да (4K@120 Гц/ 8K@30 Гц до 320 Мбит/с)
VP9 Decode Нет Да (4K@120 Гц до 320 Мбит/с)
MPEG2 Decode Да Да
10 Bit HEVC Decode Нет Да
12 Bit HEVC Decode Нет Да

Проблему отсутствия синхронизации между видеовыходом видеокарты и панелью дисплея производители решили уже давно: AMD с технологией FreeSync, а NVIDIA – с G-Sync. Несмотря на технологии синхронизации, V-Sync продолжает оставаться популярной. Особенно это касается игр с очень высоким уровнем fps, таких как Counter-Strike, Dota 2 и других, где современные high-end видеокарты способны выдавать сотни fps.

Fast Sync на GeForce GTX 1080Fast Sync на GeForce GTX 1080

Fast Sync на GeForce GTX 1080

Пользователь может выбирать, активировать V-Sync или нет. Оба варианта имеют свои преимущества и недостатки. При активации V-Sync предотвращается эффект разрыва кадра (наложение двух последовательных кадров со смещением), но при этом увеличивается игровая задержка ввода из-за удержания кадров. Отключение V-Sync снижает задержки ввода, но может привести к заметным эффектам разрыва кадра. NVIDIA разработала метод, при котором буфер рендеринга отделяется от буфера дисплея. NVIDIA называет его разделением рендера и дисплея. Буфер разделяется на три зоны: Front Buffer, Back Buffer и Load Rendered Buffer. Все три буфера используются для хранения кадров, но на дисплей отправляется только самый свежий готовый кадр.

В случае Fast Sync кадры больше не удерживаются, поэтому и задержка уменьшается. По задержкам технология Fast Sync приближается к уровню с выключенной V-Sync. При этом разрыв кадра с Fast Sync по-прежнему невозможен. Интересно, что технология Fast Sync будет предложена не только на последних видеокартах с GPU Pascal, но и на старых архитектурах. Например, все GPU Maxwell будут поддерживать Fast Sync. Про более старые архитектуры пока нет информации.

Fast Sync в панели управления драйвера NVIDIA
Fast Sync в панели управления драйвера NVIDIA

Fast Sync в деталях

Ниже мы рассмотрим механизм работы Fast Sync в деталях. Игровой движок выдает кадр DirectX API и драйверу. Через драйвер на GPU передаются AnimationTimeline и Draw Calls, после чего готовый кадр передается в кадровый буфер. Затем этот кадр будет выведен на дисплей при очередном обновлении.

Традиционный конвейер рендеринга кадров
Традиционный конвейер рендеринга кадров

В случае активной технологии V Sync игровому движку указывается просчитывать столько кадров, сколько можно вывести на дисплее (60 fps, 90 fps, 120 fps, 144 fps и т.д.). В результате ввод пользователя (движение мыши или нажатие клавиши на клавиатуре) может обрабатываться с задержкой. С выключенной технологией V-Sync выводится столько кадров, сколько успевает просчитывать видеокарта, задержки минимальны, но могут появиться артефакты разрыва кадров.

NVIDIA теперь разделяет вывод кадров рендера и вывод на дисплей. Отсюда и название технологии Decoupled Render and Display. На этапе рендеринга кадр проходит полный конвейер рендеринга, то есть от игрового движка через GPU, после чего поступает во временный кадровый буфер. Этап дисплея отделен и работает автономно. Для игрового движка все выглядит так, как будто технология V-Sync выключена. То есть движок может просчитывать столько кадров, сколько возможно, соответственно, и ввод пользователя на этих кадрах будет учитываться. Технология Fast Sync будет отслеживать кадровый буфер и решать, какой из кадров подходит для синхронизации на экране дисплея, соответствующий кадр и будет подан.

Decoupled Render and Display
Decoupled Render and Display

Для реализации технологии NVIDIA разделила кадровый буфер на три части. Front Buffer и Back Buffer работают так, как и в случае технологии V-Sync с двойной буферизацией. В Front Buffer кадр сканируется для вывода на дисплей, в Back Buffer сохраняется создаваемый кадр из конвейера рендеринга. При использовании V-Sync между буферами происходит обмен кадров. В новом буфере Last Rendered Buffer сохраняются все кадры, выданные Back Buffer, в том числе и наиболее свежий кадр после рендеринга для Fast Sync. То есть, по сути, происходит копирование кадров из Back Buffer в Last Rendered Buffer.

Разделенный буфер: Front Buffer, Back Buffer и Last Rendered Buffer
Разделенный буфер: Front Buffer, Back Buffer и Last Rendered Buffer

Когда Front Buffer отдаст свой кадр на дисплей, следующий кадр будет взят из Last Rendered Buffer, процесс начнется снова. Подобный механизм копирования буферов вносил бы задержку, но на самом деле буферы не копируются, а просто динамически переименовываются. В играх с высокой частотой кадров LRB и BB меняются со скоростью рендеринга кадров приложения, когда из FB будет завершен вывод кадра на монитор, нынешний LRB будет переименован в BB, чтобы выдать свежий кадр. В архитектуре Pascal за весь процесс отвечает новая логика (NVIDIA называет ее Flip Logic), но технология будет доступна и на предыдущих архитектурах.

SLI HD

В системах SLI происходит передача готовых кадров на основную видеокарту через соответствующие мостики SLI. Теоретически возможна передача через интерфейс PCI Express, но здесь пропускная способность ограничена, а задержки обычно выше, чем допускается требованиями SLI. NVIDIA обычно опирается на использование одного или двух мостиков SLI на своих видеокартах. У high-end моделей имеются два порта SLI, у карт среднего сегмента – один разъем, а видеокарты начального уровня их лишены. В ноутбуках возможна связь SLI через PCI Express, но там частота кадров и разрешение обычно ниже, поэтому особых проблем не возникает.

Схематическое представление мостиков SLI HD
Схематическое представление мостиков SLI HD

С появлением дисплеев высокого разрешения и частот обновления 144 Гц и выше требования к мостикам SLI возросли. Каналы мостиков SLI обычно работают на 400 МГц, то есть на той же частоте, что и схема управление видеовыходами. В прошлом такие производители, как ASUS, EVGA и MSI представляли особые мостики SLI, которые работали не на 400 МГц, а на 540 МГц. Соответствующее увеличение пропускной способности позволяло подключать мониторы с частотой обновления выше 144 Гц или разрешением 4К. Но все же эти мостики выходили за спецификации NVIDIA.

Если вы пожелаете собрать конфигурацию из нескольких мониторов с очень высоким разрешением, к которой подключить систему SLI из двух GeForce GTX 1080 или GTX 1070, то обычные мостики SLI могут и не справиться со своей задачей – пропускной способности может оказаться недостаточно. В таких случаях придется покупать новые мостики SLI HD, которые NVIDIA собирается предлагать. Мостики будут доступны в разных длинах. То есть вы можете выбирать нужный мостик, в зависимости от расстояния между видеокартами в слотах. Если вы переходите на другую материнскую плату с другим расстоянием, то придется покупать новый мостик. NVIDIA не планирует предлагать гибкие мостики, поскольку их нельзя сделать достаточно качественными. Цены NVIDIA пока тоже не называет.

NVIDIA рекомендует использовать старые мостики для разрешений до 2.560 x 1.440 пикселей с частотой обновления до 60 Гц. Если вы планируете играть в разрешении выше 2.560 x 1.440 пикселей с частотой обновления 120 Гц и выше, то следует использовать новые мостики.

Рекомендации NVIDIA
Разрешение 1.920 x 1.080 пикселей 2.560 x 1.440 пикселей
до 60 Гц
2.560 x 1.440 пикселей
до 120 Гц
4K 5K Surround
Стандартный мостик Ok Ok - - - -
LED-мостик Ok Ok Ok Ok - -
Новый мостик Ok Ok Ok Ok Ok Ok

В галерее выше представлена комбинация SLI из двух видеокарт GeForce GTX 1080 с мостиками двух размеров. NVIDIA подтверждает пользу от новы мостиков SLI HD результатами тестов. Ниже приведены измерения времени вывода кадров, полученные с помощью FCAT в системе SLI:

Измерения времени вывода кадров двух видеокарт GeForce GTX 1080 в SLI со старыми и новыми мостами SLI
Измерения времени вывода кадров двух видеокарт GeForce GTX 1080 в SLI со старыми и новыми мостами SLI

Черная линия демонстрирует довольно широкий разброс времени вывода кадров со старым мостиком SLI, синяя линия оказалась намного более плавной. Для тестов использовалась игра NVIDIA Middle-earth: Shadow of Mordor в разрешении 11.520 x 2.160 пикселей.


В новом интерфейсе DirectX 12 произошли некоторые изменения, касающиеся работы систем multi-GPU. Конфигурации Implicit SLI ограничены двумя GPU, но NVIDIA позволяет использовать и больше GPU (например, для Competitive Benchmarking). Ниже мы рассмотрим некоторые особенности.

С DirectX 12 Microsoft добавила три режима совместного использования видеокарт. Самый простой случай предусматривает поочередный рендеринг кадров (AFR) на одинаковых видеокартах, что известно по существующим режимам AMD и NVIDIA. Данный режим ограничивает возможности разработчиков, но вместе с тем и предотвращает потенциальные ошибки из-за более глубокого доступа к аппаратным ресурсам. Кроме того, большая часть работы здесь выполняется на уровне драйвера, а не DirectX 12.

Презентация EMA в DirectX 12Презентация EMA в DirectX 12

Презентация EMA в DirectX 12

DirectX 12 обеспечивает более глубокий доступ к «железу» даже в системах multi-GPU. Для этого Microsoft представила режим Explicit Multi-Adapter (EMA). В нем игровые разработчики явно задают параметры поддержки multi-GPU. Для каждого одиночного GPU определяется доступ к памяти, описывается взаимодействие GPU между собой – и вся эта поддержка должна быть запрограммирована заранее. Ответственность за работу связки видеокарт теперь полностью лежит в руках разработчиков, что привносит определенные риски. Дополнительные усилия разработчиков не стоит недооценивать, а ошибки должен будет исправлять разработчик, а не Microsoft, AMD или NVIDIA.

Презентация EMA в DirectX 12
Презентация EMA в DirectX 12

В EMA возможны два разных режима: Linked Mode и Unlinked Mode. В режиме Unlinked Mode обеспечивается базовая функциональность EMA, в режиме Linked Mode функциональность расширяется, но ограничения по используемому в комбинации «железу» становятся более строгими. Данный режим очень похож на традиционные SLI и CrossFire, только под DirectX 12. В режиме Unlinked Mode вы можете комбинировать разные видеокарты, в том числе и от разных производителей. Возможна комбинация дискретного и интегрированного GPU.

Презентация EMA в DirectX 12
Презентация EMA в DirectX 12

В режиме Unlinked Mode каждый графический процессор считается самостоятельной аппаратной единицей, со своей памятью, командным процессором и т.д. EMA под DirectX 12 позволяет обмениваться данными между аппаратными единицами, причем на глубоком уровне, а не просто готовыми кадрами. Можно обмениваться частично просчитанными кадрами или данными в буферах, что позволяет выйти на новые уровни совместного рендеринга на нескольких GPU. На первый взгляд все звучит просто, стал возможен обмен данными, что открывает доступ к алгоритмам, ранее недоступным. Но на практике все сложнее.

Данные придется передавать по интерфейсу PCI Express, что намного медленнее связи между GPU и локальной видеопамятью, да и задержки довольно большие. Так что разработчикам следует определить, какие данные имеет смысл передавать между GPU, чтобы интерфейс PCI Express не стал «узким местом». Также следует определиться, в каком виде передавать данные. У разных производителей и даже разных поколений GPU зачастую используются разные форматы данных, которые не всегда просто перевести из одного в другой. Придется прилагать дополнительные усилия, необходимые для реализации EMA в Unlinked Mode. Впрочем, фокусом Unlinked Mode в EMA является все же совместная работа дискретных и интегрированных GPU, но и здесь могут использоваться GPU разных производителей.

Презентация EMA в DirectX 12
Презентация EMA в DirectX 12

Режим Linked Mode можно рассматривать как форму SLI или Crossfire под DirectX 12, аппаратные ресурсы в Linked Mode комбинируются в своего рода «видеокарту». Пользователь и игровой движок «видят» только один GPU и память. Аппаратные ресурсы здесь будут использоваться более тесно и глубоко, что открывает больше возможностей, но при этом накладываются дополнительные ограничения на «железо».

Самый большой потенциал производительности можно будет раскрыть через Linked Mode, а самый большой уровень гибкости – через Unlinked Mode. Если разработчики хотят приложить минимальные усилия, и им достаточно базовой функциональности системы multi-GPU, то достаточно поддержать простой вариант EMA, доверившись квалификации разработчиков драйверов AMD и NVIDIA. Но поскольку только разработчики игры в полной мере владеют всеми нюансами своего продукта, то поддержка Linked и Unlinked Mode тоже весьма желательна.


С архитектурой Pascal NVIDIA расширила VRWORKS API компонентом аудио. Пока что основное внимание разработчиков было уделено визуальной составляющей VR. Но для глубокого погружения звук играет не менее важную роль. Технология VRWorks Audio базируется на IRAY – но вместо виртуальных лучей света симулируются и просчитываются волны звука, что дает максимальный реализм. NVIDIA называет данную технологию Path Tracing Audio. Для этого поверхности объектов или текстуры получают контекст аудио, который описывает, насколько хорошо поверхность поглощает или отражает звуковые волны, либо каким-то образом их изменяет.

VRWORKS Audio - Path Traced Audio
VRWORKS Audio - Path Traced Audio

Для реалистичного объемного звука 3D необходимо учитывать расположение источников в пространстве, в том числе разницу по времени прохождения и уровню громкости между правым и левым каналами. Также следует учитывать отражения от плеч, которые оцениваются ушами и мозгом человека для определения высоты источника звука. Так что игре придется заниматься симуляцией не только визуальной составляющей, но и звука.

Нынешние GPU от NVIDIA способны просчитывать тысячи путей прохождения звука – очень похоже на метод трассировки лучей. Конечно, немалую роль здесь играет высокая вычислительная производительность GPU. NVIDIA указывает возможность работы с двенадцатью источниками эхо для, максимум, 16.000 путей прохождения звука. NVIDIA называет VRWORKS Audio первой технологией расчета 3D-аудио в реальном времени, та же TrueAudio от AMD больше ориентирована на статику. Впрочем, у Sony PlayStation VR тоже имеется дополнительный аппаратный блок, который отвечает за расчет аудио в реальном времени.

В будущем NVIDIA планирует задействовать другие методы расчета 3D-звука. К тем же технологиям затенения Voxel Accelerated Ambient Occlusion (VXAO) и освещения Voxel Global Illumination (VXGI) может добавиться контекст аудио, описывающий прохождение звуковых волн через 3D-пространство.

NVIDIA серьезно подошла к VRWORKS Audio, вскоре компания планирует выложить в Steam VR-демо под названием VR Funhouse.


С архитектурой Pascal NVIDIA обновила механизм GPU Boost. GPU Boost 3.0 отличается от предшественника GPU Boost 2.0, главным образом, следующим. У GPU Boost 2.0 использовалось фиксированное смещение частоты, в результате чего напряжение/частота изменялись линейно (см. график). У GPU Boost 3.0 можно задавать смещения частот для точек напряжения. То есть частота для каждой точки напряжения может быть выше, чем раньше, если она не упирается в предел по температуре. У GPU GP104 на GeForce GTX 1080 используются 30 таких точек. В результате частота ближе адаптируется к теоретической максимальной частоте, кривая частоты ближе к максимальным возможностям.

Сравнение между GPU Boost 2.0 и 3.0Сравнение между GPU Boost 2.0 и 3.0

Сравнение между GPU Boost 2.0 и 3.0

Из-за перехода на GPU Boost 3.0 NVIDIA пришлось изменить API, который используется разработчиками таких утилит, как EVGA Precision или MSI Afterburner. Также поддерживается и сканер разгона (например, OC Scanner в утилите EVGA). Он позволяет последовательно протестировать точки напряжений, для которых определяется максимальная частота. Подобная калибровка дает очень точный анализ, на ее выполнение уходит несколько часов.

GPU Boost 3.0 в утилите EVGA Precision XOC доступна в трех режимах: в базовом режиме частота выставляется смещением. Здесь для пользователя разница с GPU Boost 2.0 невелика. В линейном режиме выставляются начальная и конечная точка кривой, а значения между ними будут интерполированы. Третий режим – ручной. В нем каждая точка напряжения выставляется вручную.

GPU Boost 3.0 в деталях

Рассмотрим работу GPU Boost 3.0 более детально. Поскольку в тексте и изображениях разобраться не так легко, мы добавили в конце страницы видеоролик (на немецком).

EVGA Precision и GPU Boost 3.0
EVGA Precision и GPU Boost 3.0

Отметим, что утилита EVGA Precision с поддержкой GPU Boost 3.0 очень похожа на предшественника. Кроме обзора данных с наиболее важных сенсоров и текущей частоты GPU и памяти, можно видеть напряжение и температуру GPU. Здесь же можно устанавливать и смещение, знакомое нам по архитектуре Maxwell. Максимальные уровни энергопотребления и температуры выставляются в процентах, но в случае температуры здесь налицо ошибка, так как она регулируется не в процентах, а в градусах Цельсия.

Планка Power Target регулируется от 50 до 120%, что эквивалентно энергопотреблению видеокарты от 90 до 216 Вт. Целевую температуру можно регулировать в диапазоне 60-91 °C. Пользователи могут регулировать приоритет ограничения по энергопотреблению или температуре. Или сразу по двум значениям – но все это уже нам хорошо известно.

Смещение частот GPU и памяти можно выставить в диапазоне от -200 до +1.200 МГц или от -502 до +1.000 МГц. Конечно, максимальные значения без альтернативных способов охлаждения вряд ли достижимы.

EVGA Precision и GPU Boost 3.0
EVGA Precision и GPU Boost 3.0

Если нажать на правую желтую стрелку рядом с надписью "Precision XOC", вы перейдете к новым возможностям GPU Boost 3.0. Здесь можно выставить три режима работы. В базовом режиме разгон выполняется так же, как и на видеокартах архитектуры Maxwell. То есть вручную выставляется смещение частоты, которое можно указать для любой точки напряжения – оно распространится на все 30. Пользователю следует только указать частоту для любой точки, остальную кривую построит утилита.

EVGA Precision и GPU Boost 3.0
EVGA Precision и GPU Boost 3.0

В линейном режиме указывается начальная и конечная точка для функции частоты и напряжения. Затем утилита определяет линейную кривую для напряжений от 0,862 до 1,162 В. Ничего больше делать не придется. В информационной панели под графиком можно посмотреть, какая частота смещения была задана для каждой точки напряжения.

EVGA Precision и GPU Boost 3.0
EVGA Precision и GPU Boost 3.0

Но самым интересным является ручной режим GPU Boost 3.0. Здесь пользователь может указать частоту для каждой точки напряжения. То есть вам следует пройти все точки и указать соответствующую частоту. Конечно, следует убедиться, что настройки будут рабочими.

EVGA Precision и GPU Boost 3.0
EVGA Precision и GPU Boost 3.0

В API GPU Boost 3.0 встроен автоматический процесс, позволяющий определить максимальные частоты для напряжений. Достаточно выбрать точку напряжения, после чего нажать "RUN" для запуска плагина Furmark, который проверит стабильность работы видеокарты. В тесте не должно появляться артефактов. Пользователь может настраивать продолжительность теста, начальное и конечное смещение частоты, а также шаг повышения частоты. Чем меньше будет шаг, тем дольше будет проводиться тест. Если вы выставите смещение на слишком высоком уровне, то система может «вылететь», поэтому с максимальными значениями следует быть осторожным.

NVIDIA планирует добавить в API, что будет поддержано в той же утилите EVGA, полностью автоматический режим, в котором программа будет автоматически определять максимальные настройки. В данной версии утилиты такого режима нет, он появится позднее.

EVGA Precision и GPU Boost 3.0
EVGA Precision и GPU Boost 3.0

Диапазон напряжение GPU тоже можно задавать вручную, от минимума 0,862 В до максимума 1,162 В. От уровня 90% утилита будет предупреждать пользователя, поскольку при продолжительной работе GPU может получить повреждения, также может сократиться срок службы. В любом случае, NVIDIA дает пользователям такую возможность.


Кто бы мог подумать, но из простого снятия скриншотов в играх развилось целое направление компьютерного искусства: Game Photography. Художники используют все более сложные движки, оптимизируют их настройки (например, добавляют вручную фильтры или выкручивают такие параметры, как уровень детализации и т.д.). После чего выставляют скриншоты в Интернет.

Конечно, подобные настройки чаще всего выходят за рамки официальной поддержки и являются своего рода хаком. Неплохо было бы вооружить художников инструментом, которая обеспечивала бы соответствующую поддержку и обилие различных опций для настройки игровых движков. Такую утилиту как раз представила NVIDIA под названием ANSEL. ANSEL – это не сокращение, утилита названа в честь американского фотографа Энселя Адамса, который специализировался на съемке пейзажей и природы. Собственно, на эту же сферу нацелена и Game Photography.

NVIDIA ANSELNVIDIA ANSEL

NVIDIA ANSEL

С утилитой ANSEL можно в любой момент остановить игровое время. Затем можно произвольно менять угол обзора сцены. Конечно, в пределах допустимого в самой игре – за ее возможности ANSEL выйти не может. Что связано, кроме всего прочего, и с предотвращением читов, используя ANSEL. Также ANSEL может накладывать различные фильтры постобработки. ANSEL позволяет получать скриншоты в разрешении до 61.440 x 34.560 пикселей. В теории возможно и более высокое разрешение, но файлы уже занимают объем в несколько гигабайт. На GPU GeForce GTX подобные скриншоты создаются за считанные секунды.

Кроме разрешения важно и то, что на скриншотах может сохраняться информация HDR. То есть более высокая контрастность, яркость и расширенный цветовой охват. NVIDIA предлагает и несколько префильтров. Например, зернистость для эффекта фильма или сепия. При желании можно создавать панорамы на 360°, которые можно будет просматривать на смартфоне или очках VR.

NVIDIA ANSEL
NVIDIA ANSEL

ANSEL будет работать на многих видеокартах NVIDIA, не только на GPU Pascal. NVIDIA опубликовала детальный список. Поддержка ANSEL должна обеспечиваться и со стороны игрового движка. Здесь NVIDIA говорит о сотрудничестве с разработчиками The Division, The Witness, Law Breakers, The Witcher: Wild Hunt, Paragon, No Man's Sky и Unreal Tournament. Поддержка других игр тоже ожидается в будущем. На интеграцию ANSEL в той же игре The Witness потребовалось меньше 40 строчек кода.


Теперь, когда мы детально рассмотрели технологии GeForce GTX 1080 и архитектуру, позвольте перейти к практическому использованию GeForce GTX 1080.

Скриншот GPU-Z видеокарты GeForce GTX 1080
Скриншот GPU-Z видеокарты GeForce GTX 1080

На скриншоте GPU-Z подтверждаются спецификации GeForce GTX 1080. Базовая частота составляет указанные 1.607 МГц, частота Boost – 1.734 МГц. 8 Гбайт памяти GDDR5X работают на частоте 2.500 МГц. Остальные спецификации GPU-Z распознает корректно. Среди них – пропускная способность памяти 320,3 Гбайт/с, количество потоковых процессоров (2.560), конвейеров растровых операций (64), текстурных блоков (160) и т.д.

Сравнение температур и тактовых частот
Игра Температура Частота
The Witcher 3: Wild Hunt 83 °C 1.809 МГц
Battlefield: Hardline 82 °C 1.809 МГц
Grand Theft Auto IV 83 °C 1.809 МГц
Far Cry 4 83 °C 1.825 МГц
Total War: Attila 83 °C 1.825 МГц
Metro: Last Light Redux 83 °C 1.809 МГц
Tomb Raider 83 °C 1.825 МГц
DiRT Rally 83 °C 1.825 МГц
Middle-Earth: Shadow of Mordor 82 °C 1.809 МГц

Как мы уже описывали выше, NVIDIA доработала в архитектуре Pascal механизм GPU Boost, чтобы выжать максимум из нового техпроцесса и новой архитектуры. NVIDIA гарантирует достижимость минимальной планки Boost, если соблюдаются условия по температуре и напряжению. В том числе и с установленным эталонным кулером NVIDIA.

На практике мы получили частоты, приведенные в таблице выше: NVIDIA GeForce GTX 1080 достигает целевой температуры 84 °C. Технология GPU Boost 3.0 повышает напряжение и частоту GPU, пока не будет достигнута целевая температура. Как правило, на первом этапе ограничивающим фактором является напряжение. Если через несколько минут температура достигнет целевой, то ограничивающим фактором станет уже температура.

NVIDIA гарантирует минимальную частоту Boost 1.733 МГц. У нашего образца GeForce GTX 1080 частота на практике составляла 1.809 – 1.825 МГц. Когда видеокарта еще разогревалась, частота могла возрастать до 1.875 МГц. Температура GPU на протяжении наших тестов находилась в диапазоне 82-83 °C. Эталонный кулер справлялся с тем, чтобы сохранять частоту Boost на уровне выше минимального. Производительность приведена ниже в разделе тестов.

Работа GPU Boost 3.0 в играх
Работа GPU Boost 3.0 в играх

Скриншот выше хорошо описывает производительность GeForce GTX 1080. В частности, интересен нижний график, указывающий на ограничения. Синие полосы означают ограничение по напряжению. Позднее, когда видеокарта нагреется до целевой температуры, частота Boost ограничивается уже температурой (зеленые полосы). Так что в реальности наблюдается попеременное ограничение частоты Boost температурой или напряжением. К ограничениям по тепловому пакету 180 Вт мы ни разу не подошли.

NVIDIA GeForce GTX 1080 Founders Edition
Длина печатной платы 266 мм
Длина с кулером 266 мм
Толщина 2 слота
Дополнительное питание 1x 8-конт.
Вентиляторы 1x 65 мм
Охлаждение 1x испарительная камера
Выходы на дисплей 1x HDMI 2.0b
3x Displayport 1.3/1.4
1x Dual-Link-DVI
Пассивная работа вентиляторов в режиме бездействия Нет

В таблице приведены основные спецификации GeForce GTX 1080 Founders Edition. Ниже мы перейдем к рассмотрению непосредственно самой видеокарты.


После презентации GeForce GTX 1080 Интернет наводнили слухи, повествующие о двух эталонных версиях GeForce GTX 1080. Но эталонная версия только одна, а именно NVIDIA GeForce GTX 1080 Founders Edition. Именно эта видеокарта Founders Edition будет доступна от партнеров с 27 мая. Со временем партнеры представят видеокарты с альтернативными кулерами. Но в первые дни на рынке будет доступна только GeForce GTX 1080 Founders Edition. В данном случае совершенно не важно, покупаете ли вы видеокарту напрямую от NVIDIA или через партнеров.

Но важно следующее: видеокарта GeForce GTX 1080 Founders Edition будет продаваться по рекомендованной цене $699. А самые дешевые видеокарты от партнеров с альтернативными системами охлаждения появятся в продаже от $599. С видеокартой GeForce GTX 1070 ситуация схожая. Опять же, здесь будет Founders Edition по цене $449. Рекомендованные розничные цены GeForce GTX 1070 с альтернативной системой охлаждения составят $379.

Так что если вы решите приобщиться к GeForce GTX 1080 с первого дня, то будет доступен только один вариант, который мы как раз детально рассмотрим ниже.

NVIDIA GeForce GTX 1080NVIDIA GeForce GTX 1080

NVIDIA GeForce GTX 1080

Дизайн и упаковка тщательно продуманы NVIDIA. Видеокарта GeForce GTX 1080 поставляется в надежной картонной коробке. Крышка довольно легко снимается, после чего открывается вид на саму карту в ложе. В отличие от многих партнеров, NVIDIA не стала расписывать функции видеокарты на коробке.

NVIDIA GeForce GTX 1080NVIDIA GeForce GTX 1080

NVIDIA GeForce GTX 1080

Только после снятия крышки в глаза бросается лозунг "Inspired by gamers. Built by NVIDIA", который можно перевести как «Вдохновлена геймерами, создана NVIDIA». Также NVIDIA не стала прилагать какие-либо переходники для HDMI, DisplayPort или DVI. Нет и переходников питания PCI Express, руководства по быстрому старту или CD с драйверами – по крайней мере, у нашего образца.

NVIDIA GeForce GTX 1080
NVIDIA GeForce GTX 1080

NVIDIA сохранила дизайн GeForce GTX 1080 очень похожим на предыдущее поколение, но в деталях имеются различия. Видеокарта по-прежнему имеет черно-серебристую отделку, в качестве материалов используются алюминий, оргстекло и хромированный металл.

GeForce GTX 1080 имеет длину 266 мм, это касается и кулера, и печатной платы. Высота PCB и карты (без слота PCI Express) составляет 100 мм. NVIDIA сохранила габариты предыдущей карты, которую нельзя было назвать громоздкой. Толщина видеокарты тоже вполне разумная – два слота.

NVIDIA GeForce GTX 1080
NVIDIA GeForce GTX 1080

Сзади PCB защищена металлической пластиной. Она полностью накрывает печатную плату. NVIDIA сделала поверхность пластины цельной, хотя заметны выступающие линии, но они добавлены, скорее всего, для украшения. Можно заметить тисненый логотип NVIDIA и надпись "GeForce GTX 1080". Причем они правильно ориентированы после установки видеокарты в корпус – что наблюдается далеко не у всех партнеров NVIDIA.

Когда две GeForce GTX 1080 работают в SLI, они могут вплотную прилегать друг к другу (если слоты PCI Express так расположены). В таких ситуациях вентилятор верхней видеокарты не будет получать достаточно свежего воздуха. NVIDIA уже заметила подобную проблему с видеокартами GeForce GTX Titan X, у которых пользователь мог убрать часть задней пластины. В случае GeForce GTX 1080 снимается уже не малая часть пластины, а примерно половина. Такой шаг дает радиальному вентилятору зазор в несколько миллиметров, через который он может получать больше свежего воздуха.

NVIDIA GeForce GTX 1080
NVIDIA GeForce GTX 1080

Рядом со слотовой заглушкой на кожухе нанесена блестящая надпись GeForce GTX 1080, которая сразу же бросается в глаза. Можно отметить и новый дизайн кулера, который стал более угловатым. Заметны и дополнительные (фальшивые) вентиляционные отверстия сверху и снизу, которые приближают дизайн видеокарты к гоночным болидам.

За окном из оргстекла на лицевой панели можно видеть радиатор. Он оснащен тонкими ребрами охлаждения из алюминия, которые ориентированы вдоль видеокарты. Вентилятор продувает воздух через радиатор видеокарты в направлении слотовой заглушки, он забирает тепло от ребер радиатора и выбрасывается наружу.

NVIDIA GeForce GTX 1080
NVIDIA GeForce GTX 1080

Встроенный радиальный вентилятор NVIDIA располагается в задней части видеокарты, он имеет диаметр 65 мм. Вентилятор нагнетает свежий воздух внутрь кожуха видеокарты, после чего продувает его в сторону слотовой заглушки, как мы указали выше. В режиме бездействия вентилятор вращается на 1.100 об/мин, но полностью не останавливается. Под нагрузкой скорость вращения составляет 2.200 об/мин и выше.

Контур вентилятора подчеркнут хромированным ободком, то же самое касается сердечника. Подобные акценты придают видеокарте элегантный внешний вид. Также на алюминиевом корпусе можно заметить винты Torx.


Продолжим детальное рассмотрение GeForce GTX 1080:

NVIDIA GeForce GTX 1080
NVIDIA GeForce GTX 1080

Вид сбоку не выдает ничего особого. Толщина в два слота типична для high-end видеокарт. Только водоблоки СВО обычно оказываются тоньше.

NVIDIA GeForce GTX 1080
NVIDIA GeForce GTX 1080

Слотовая заглушка вроде бы кажется стандартной. Но NVIDIA обновила спецификации HDMI и DisplayPort до самых последних стандартов. А старый порт DVI лишился аналоговых контактов. Впрочем, вряд ли геймеры будут жалеть об исчезновении поддержки VGA. Видеокарта GeForce GTX 1080 предлагает 3x DisplayPort 1.3/1.4, 1x HDMI 2.0b и 1x двухканальный DVI-D.

Оставшееся пространство на слотовой заглушке заполнено треугольными отверстиями. NVIDIA добавила их, чтобы горячий воздух мог покидать пределы корпуса ПК, не нагревая другие компоненты внутри. Подобный дизайн системы охлаждения NVIDIA использует уже многие годы.

NVIDIA GeForce GTX 1080
NVIDIA GeForce GTX 1080

В передней части видеокарты NVIDIA оставила отверстие. Небольшая часть воздуха, забираемого радиальным вентилятором, может выбрасываться через это отверстия, оставаясь в корпусе ПК. Здесь, опять же, заметно сходство дизайна с итальянскими гоночными болидами.

NVIDIA GeForce GTX 1080
NVIDIA GeForce GTX 1080

На верхнем торце видеокарты можно видеть логотип GeForce GTX NVIDIA 1080, который подсвечивается зеленым во время работы. Так что если в корпусе вашего компьютера имеется боковое окно, вы сможете любоваться видеокартой с подсветкой.

NVIDIA GeForce GTX 1080
NVIDIA GeForce GTX 1080

Дополнительное питание на видеокарту подается через один 8-контактный разъем PCI Express. Он обеспечивает мощность до 150 Вт. Также 75 Вт могут подаваться через слот PCI Express, в результате чего видеокарта может потреблять до 225 Вт мощности. NVIDIA указывает тепловой пакет 180 Вт, так что имеется запас 45 Вт.

Впрочем, 8-контактный разъем PCI Express может выдерживать и намного больший ток, чем для заявленной мощности 150 Вт. Данный уровень производители блоков питания и видеокарт считают номинальным, но, как показывает опыт, иногда его превышают. В любом случае, для видеокарты GeForce GTX 1080 мы указываем номинальную мощность 225 Вт и тепловой пакет 180 Вт.

NVIDIA GeForce GTX 1080
NVIDIA GeForce GTX 1080

NVIDIA установила на GeForce GTX 1080 два разъема SLI. Но если вы будете использовать конфигурацию SLI в паре с несколькими мониторами и/или с высокой частотой обновления, то потребуются новые мостики SLI, которые мы рассмотрели чуть выше. Мостики SLI HD обеспечивают более высокую пропускную способность для передачи готовых кадров со вторичной видеокарты на основную. С помощью двух обычных мостиков SLI вы можете объединить три или четыре видеокарты GeForce GTX 1080.


Перед тем, как мы приступим к разборке видеокарты GeForce GTX 1080, позвольте сравнить новый дизайн кулера с предшественником Maxwell.

NVIDIA GeForce GTX 1080NVIDIA GeForce GTX 1080

NVIDIA GeForce GTX 1080

По базовому дизайну особых изменений не произошло. NVIDIA продолжила использовать сочетание серебристых (алюминий), черных (лакированный алюминий) и хромированных (в области вентилятора) оттенков. Также NVIDIA сделала кожух более угловатым, в результате он получил более агрессивный внешний вид. Конечно, NVIDIA подчеркивает качественные материалы и высокое качество изготовление, хотя вряд ли они интересны большинству геймеров, кому требуется максимальная производительность в играх и эффективное охлаждение.

NVIDIA GeForce GTX 1080
NVIDIA GeForce GTX 1080

Мы начали разборку с задней части металлической пластины GeForce GTX 1080. Ее можно легко снять, чтобы вторая видеокарта в конфигурации SLI получала больше свежего воздуха. Но на такой шаг следует идти только в том случае, если две видеокарты располагаются в соседних слотах PCI Express (вернее, в слотах, расположенных через слот). Для снятия части задней пластины необходимо открутить восемь маленьких крестовых винтов. Другие крестовые винты удерживают вторую половину задней пластины, их тоже можно легко открутить.

NVIDIA GeForce GTX 1080
NVIDIA GeForce GTX 1080

Затем придется заняться винтами с шестигранной головкой, которые удерживают кулер видеокарты. Здесь используются винты размером M4.0, особых проблем с поиском отвертки возникнуть не должно. Выбор подобных винтов нам кажется оправданным, поскольку шанс свернуть головку здесь ниже.

NVIDIA GeForce GTX 1080NVIDIA GeForce GTX 1080

NVIDIA GeForce GTX 1080

У кулера имеется большое количество контактных площадок для компонентов PCB. На них NVIDIA нанесла теплопроводящие прокладки. По прокладкам хорошо заметна раскладка чипов памяти, они отводят тепло и от компонентов подсистемы питания в задней части видеокарты. GPU контактирует с медным никелированным основанием испарительной камеры. В ней под действием тепла испаряется жидкость, которая передает тепло радиатору в верхней части камеры, конденсируясь. Затем за отведение тепла отвечает уже крупный радиатор.

NVIDIA GeForce GTX 1080
NVIDIA GeForce GTX 1080

Без кулера можно рассмотреть PCB во всех деталях. NVIDIA выбрала сравнительно простой дизайн печатной платы, партнеры компании обычно разрабатывают более сложные дизайны. На левой стороне PCB располагаются компоненты, отвечающие за различные видеовыходы. По центру установлен GPU, окруженный чипами памяти. Последняя треть платы справа выделена под компоненты подсистемы питания.

NVIDIA GeForce GTX 1080
NVIDIA GeForce GTX 1080

Сзади PCB мы не видим ничего особого. Здесь NVIDIA расположила несколько сотен резисторов, высота которых намного меньше, чтобы конфликтовать с задней пластиной. Здесь по резисторам можно догадаться, какие компоненты установлены с противоположной стороны печатной платы: GPU, память и т.д.

NVIDIA GeForce GTX 1080
NVIDIA GeForce GTX 1080

Восемь чипов памяти емкостью 1 Гбайт окружают GPU с трех сторон. Они находятся на одинаковом расстоянии от GPU, что обеспечивает почти одинаковое время передачи сигналов – важный параметр для корректной работы подсистемы памяти. Упаковка GPU после моделей с HBM кажется непримечательной. На зеленой подложке располагаются дополнительные транзисторы.

NVIDIA GeForce GTX 1080
NVIDIA GeForce GTX 1080

GPU на видеокарте GeForce GTX 1080 имеет маркировку GP104-400-A1. Так что перед нами чип с первым степпингом. Он был произведен на заводах TSMC в 14 неделю. У видеокарт GeForce GTX 1070 мы наверняка получим немного иную конфигурацию чипа, который может называться, например, GP104-300.

NVIDIA GeForce GTX 1080
NVIDIA GeForce GTX 1080

Чипы памяти GDDR5X емкостью 1 Гбайт тоже выглядят красиво. На фотографии заметны соединения чипов памяти с GPU. Чипы памяти маркированы MT58K256M32JA-100, напряжение составляет 1,35 В. Упаковка FBGA использует 190 контактов, рабочий диапазон заявлен от 0 до 95 °C.

NVIDIA GeForce GTX 1080
NVIDIA GeForce GTX 1080

Подсистема питания GPU и памяти у эталонной версии GeForce GTX 1080 опирается на шесть фаз. Скорее всего, пять фаз выделены для питания GPU, шестая фаза зарезервирована для памяти. Подсистемы питания должно быть достаточно для теплового пакета 180 Вт, есть и некоторый запас для разгона. У первых альтернативных дизайнов PCB подсистема питания наверняка будет более мощной. Также можно видеть площадки пайки для компонентов, которые у эталонного дизайна отсутствуют.

NVIDIA GeForce GTX 1080
NVIDIA GeForce GTX 1080

Сзади видеокарты можно видеть и другие компоненты, которые тоже участвуют в работе подсистемы питания. Раньше здесь присутствовал контроллер механизма Boost, но NVIDIA, похоже, смогла его интегрировать в чип. В любом случае, здесь остались компоненты, влияющие на работу механизма Boost, чтобы видеокарта всегда достигала максимальной производительности.

NVIDIA GeForce GTX 1080
NVIDIA GeForce GTX 1080

Вернемся к задней стороне PCB, где мы уже отметили большое количество резисторов SMD. Но сразу же за GPU можно заметить и несколько конденсаторов, которые закрываются теплопроводящей прокладкой на задней пластине. При сборке кулера и задней пластины обратно следует убедиться, что все прокладки находятся на своих местах.


На данный момент информации о видеокарте GeForce GTX 1070 немного, хотя она была представлена вместе с GeForce GTX 1080 и базируется на том же GPU. Но NVIDIA немного урезала GPU, также используется и память предыдущего стандарта GDDR5.

Обзор технических спецификаций GeForce GTX 1070
Модель NVIDIA GeForce GTX 1070 AMD Radeon R9 Fury NVIDIA GeForce GTX 970
Цена $449 от 35,9 тыс. рублей
от 425 евро
от 21 тыс. рублей
от 280 евро
Сайт производителя NVIDIA AMD NVIDIA
Техническая информация
GPU GP104 Fiji XT GM204
Техпроцесс 16 нм 28 нм 28 нм
Число транзисторов 7,2 млрд. 8,9 млрд. 5,2 млрд.
Тактовая частота GPU (базовая) 1.506 МГц - 1.050 МГц
Тактовая частота GPU (Boost) 1.683 МГц 1.000 МГц 1.178 МГц
Частота памяти 2.000 МГц 500 МГц 1.750 МГц
Тип памяти GDDR5 HBM GDDR5
Объём памяти 8 GB 4 GB 4 GB
Ширина шины памяти 256 бит 4.096 бит 224 + 32 бит
Пропускная способность памяти 256 Гбайт/с 512,0 Гбайт/с 224 Гбайт/с
Версия DirectX 12 12 12
Потоковые процессоры 1.920 3.584 1.664
Текстурные блоки 120 224 104
Конвейеры растровых операций (ROP) 64 64 64
Тепловой пакет 150 Вт 275 Вт 145 Вт
SLI/CrossFire SLI CrossFire SLI
GeForce GTX 1070
GeForce GTX 1070

NVIDIA на презентации GeForce GTX 1080 указала только вычислительную мощность 6,5 TFLOPS для видеокарты GeForce GTX 1070 и наличие 8 Гбайт видеопамяти GDDR5. Из данной производительности можно сделать вывод о частоте 1,587 МГц при наличии 2.048 потоковых процессоров. Но пока не совсем понятно, какую именно конфигурацию GPU GP104 NVIDIA выберет для GeForce GTX 1070.

Обновление:

Между тем появились некоторые технические подробности о видеокарте GeForce GTX 1070. Она будет базироваться на GPU GP104-200 с 1.920 потоковыми процессорами. Также GPU будет содержать 120 текстурных блоков и 64 конвейера растровых операций (ROP) – последнее указывает на ширину интерфейса памяти 256 бит. Насчет базовой частоты информации нет, но частота Boost составил 1.600 МГц. В таком случае видеокарта будет обеспечивать вычислительную производительность 6,5 TFLOPS. 8 Гбайт памяти GDDR5 будут работать на 2.000 МГц, что даст пропускную способность 256 Гбайт/с. Тепловой пакет составит 150 Вт.

Кроме вычислительной производительности и цены пока известно мало подробностей. NVIDIA рекомендует цену $449 за Founders Edition и $379 за модели GeForce GTX 1070 с альтернативными системами охлаждения. Видеокарта будет доступна с 10 июня, ближе к этой дате мы намереваемся узнать все подробности.


Мы существенно обновили программное обеспечение в виде игр и тестов, но аппаратное обеспечение осталось, по большей части, прежним. Чтобы наша тестовая система была максимально приближена к практическим условиям, мы проводили тесты в закрытом корпусе. Операционная система Windows 10 была установлена на SSD, но для игр мы использовали жесткий диск. На результаты тестов это не влияет.

Тестовая конфигурация
Компоненты
Процессор Intel Core i7-3960X 3,3 ГГц, разгон до 3,9 ГГц
Система охлаждения Corsair H110i GT СВО с замкнутным контуром
Материнская плата ASUS P9X97 Deluxe
Оперативная память G.Skill
SSD: OCZ Arc 100 240 GB
Блок питания Seasonic Platinum Series 1.000 Вт
Операционная система Windows 10 64 Bit
Корпус Fractal Design Define R5

Наша тестовая система содержит компоненты Intel, ASUS, Fractal Design, Corsair, G.Skill, OCZ и Seasonic. Мы выражаем благодарность всем производителям, предоставившим нам комплектующие!

Тестовая система Hardwareluxx для тестов видеокарт, собрана в сентябре 2015
Тестовая система Hardwareluxx для тестов видеокарт, собрана в сентябре 2015

Мы использовали следующие версии драйверов:

Мы использовали следующие игры и тесты:

Всю более подробную информацию о методике тестирования видеокарт вы можете найти в соответствующей статье "Методика тестирования видеокарт Hardwareluxx".


Перейдём к оценке уровня шума, энергопотребления и температуры.

уровень шума

Бездействие

в дБ(A)
Меньше - лучше

Первый луч надежды GeForce GTX 1080 подала по уровню шума в режиме бездействия. С результатом 39,2 дБ(А) первая видеокарта Pascal работала даже тише, чем та же GeForce GTX 980, лучше оказываются только модели GeForce GTX 980 Ti и Radeon R9 Nano с альтернативными системами охлаждения. Впрочем, у многих видеокарт с альтернативными кулерами имеется другое преимущество – они полностью выключают вентиляторы в режиме бездействия. Данная тенденция сегодня распространилась даже на high-end видеокарты. Честно говоря, весьма интересно узнать, осмелятся ли AMD и NVIDIA на подобный шаг с эталонными видеокартами и Founders Edition.

уровень шума

Нагрузка

в дБ(A)
Меньше - лучше

Вторая диаграмма показывает уровень шума GeForce GTX 1080 под нагрузкой, NVIDIA справилась со своим обещанием улучшить кулер. 42,6 дБ(А) – отличный показатель, будет интересно посмотреть на результаты фирменных кулеров производителей видеокарт.

Энергопотребление (вся система)

Бездействие

в Вт
Меньше - лучше

По энергопотреблению в режиме бездействия GeForce GTX 1080 не смогла существенно продвинуться вперед. Даже high-end видеокарты в режиме бездействия потребляют очень мало энергии, GPU снижает частоту до 140 МГц, по памяти мы получаем снижение до 100 МГц, также уменьшаются и напряжения. Только полное выключение видеокарты позволит сэкономить еще несколько ватт.

Энергопотребление (вся система)

Нагрузка

в Вт
Меньше - лучше

Под нагрузкой мы наблюдаем последствия перехода на эффективную архитектуру NVIDIA и 16-нм техпроцесс FinFET. Полная система с видеокартой потребляла 376,9 Вт, GeForce GTX 1080 заняла позицию между Radeon R9 Nano/GeForce GTX 780 и GeForce GTX Titan/GeForce GTX 780 Ti. По сравнению с видеокартой GeForce GTX 980 Ti экономия составила порядка 50 Вт, будет интересно соотнести подобный выигрыш с приростом производительности, о чем мы поговорим ниже.

Энергопотребление (вся система)

Бездействие с 2 мониторами

в Вт
Меньше - лучше

В конфигурации с несколькими мониторами GeForce GTX 1080 показала себя с лучшей стороны, энергопотребление возросло ненамного. В прошлом многие видеокарты работали в таком режиме на полной частоте 3D. Но GeForce GTX 1080 сбрасывала частоты через некоторое время.

Температура

Бездействие

в градусах Цельсия
Меньше - лучше

Перейдем к результатам измерений температуры. В режиме бездействия температура составила 43 °C, здесь нет ничего интересного. Радиальный вентилятор на низкой скорости вращения обладает достаточным запасом производительности, чтобы удержать температуру GPU на низком уровне.

Температура

Нагрузка

в градусах Цельсия
Меньше - лучше

Под нагрузкой GeForce GTX 1080 через некоторое время выходит на целевую температуру 84 °C или чуть ниже. Видеокарта не стала исключением в череде эталонных моделей. Спасением здесь можно назвать СВО с замкнутым контуром, как поступила AMD в случае Radeon R9 Fury X. Впрочем, пока GeForce GTX 1080 обеспечивает обещанную производительность, близость к целевой температуре нас не смущает.


Futuremark 3DMark

Тест 3DMark от Futuremark – один из наиболее популярных синтетических тестов, он позволяет удобно сравнивать разные системы или отдельные компоненты. Отдельные режимы (Preset) позволяют оценить различные аспекты работы системы – вплоть до разрешения UltraHD/4K. Тест изначально разрабатывался под DirectX 11, но сегодня 3DMark также позволяет оценить оптимизацию под DirectX 12, анализируя число вызовов Draw calls.

Futuremark 3DMark

Fire Strike

Баллы Futuremark
Больше - лучше

Futuremark 3DMark

Fire Strike Extreme

Баллы Futuremark
Больше - лучше

Futuremark 3DMark

Fire Strike Ultra

Баллы Futuremark
Больше - лучше

Futuremark 3DMark

API-Overhead DX12

Баллы Futuremark
Больше - лучше


Luxmark 3.0

Luxmark 3.0 – тест рендеринга, который опирается на интерфейс OpenCL и широкую аппаратную базу видеокарт. Luxmark разрабатывался в качестве теста определения производительности LuxRender. Для расчета сцены используется LuxRender 2.x API. Результат выдается в семплах в секунду.

Luxmark 3.0

Sala

Баллы
Больше - лучше


GPUPI 2.2

В тесте GPUPI вычисляется число пи через разные интерфейсы. Программы, такие как SuperPi, уже давно используются для оценки вычислительной производительности "железа", возможен расчет через процессоры и видеокарты. Как видно по названию GPUPI, данный тест опирается для расчета на GPU. Мы использовали OpenCL API и вычисляли число пи до 500 млн. или 1 млрд. знаков. GPUPI позволяет удобно ценить 64-битную производительность "железа".

GPUPI 2.0

500M

Sekunden
Меньше - лучше

GPUPI 2.0

1000M

Sekunden
Меньше - лучше


ComputeBenchCL

ComputeBenchCL – тест OpenCL и RenderScript, позволяющий оценить вычислительную производительность CPU и GPU. Кроме того, он доступен на планшетах и смартфонах, что позволяет сравнивать системы друг с другом. ComputeBenchCL опирается на разные тестовые сценарии, закрывая широкий спектр приложений. В том числе распознавание лиц, симуляцию жидкостей и другие расчеты физики, монтаж видео и т.д.

CompuBenchCL

Face Detection

Mpixel/s
Больше - лучше

CompuBenchCL

Ocean Surface Simulation

Кадры в секунду
Больше - лучше

CompuBenchCL

TV-L1 Optical Flow

Mpixel/s
Больше - лучше

CompuBenchCL

Particle Simulation 64K

Minteractions pro Sekunde
Больше - лучше

CompuBenchCL

Video Composition

Кадры в секунду
Больше - лучше


ComputeMark

ComputeMark – тест вычислительных шейдеров (Compute Shader) DirectX 11. Он фокусируется на производительности GPU, которые проходят через разные тестовые сценарии. Среди них – симуляция газов/огня, поведение сотен объектов под действием гравитации и математические расчеты.

ComputeMark

Общий результат

Баллы
Больше - лучше

ComputeMark

Fluid 2D

Баллы
Больше - лучше

ComputeMark

Fluid 3D

Баллы
Больше - лучше

ComputeMark

Mandel Skalar

Баллы
Больше - лучше

ComputeMark

Mandel Vektor

Баллы
Больше - лучше

ComputeMark

Ray Tracing

Баллы
Больше - лучше


The Witcher 3: Wild Hunt

Ролевая игра Ведьмак 3: Дикая охота базируется на книгах и игровом мире известного фантаста Анджея Сапковски. Протагонист Геральт из Ривии открывает средневековый фантастический мир и выполняет разнообразные квесты. Игровой движок был разработан студией CD Projekt Red самостоятельно, в игре используется версия 3. Ролевая игра опирается на открытый мир и устанавливает новые стандарты компьютерной графики.

The Witcher 3

1.920 x 1.080 1xAA 1xAF

104.1 XX


92 XX
71.1 XX


51 XX
67.9 XX


57 XX
64.5 XX


54 XX
62.9 XX


55 XX
61.5 XX


54 XX
53.6 XX


49 XX
51.8 XX


41 XX
48.1 XX


41 XX
47.1 XX


39 XX
42.9 XX


37 XX
31.8 XX


27 XX
Кадры в секунду
Больше - лучше

The Witcher 3

1.920 x 1.080 MSAA

101.7 XX


95 XX
71.1 XX


57 XX
66.8 XX


57 XX
63.1 XX


54 XX
60.8 XX


57 XX
59.9 XX


52 XX
52.3 XX


48 XX
50.8 XX


41 XX
46.8 XX


41 XX
44.6 XX


39 XX
41.1 XX


45 XX
31.1 XX


28 XX
Кадры в секунду
Больше - лучше

The Witcher 3

2.560 x 1.440 1xAA 1xAF

79.4 XX


75 XX
60.2 XX


50 XX
53.7 XX


45 XX
50.9 XX


43 XX
47.5 XX


42 XX
46.4 XX


42 XX
40.1 XX


35 XX
39.6 XX


37 XX
37.2 XX


32 XX
33.7 XX


29 XX
32.1 XX


26 XX
23.9 XX


22 XX
Кадры в секунду
Больше - лучше

The Witcher 3

2.560 x 1.440 MSAA

76.9 XX


72 XX
58.7 XX


48 XX
52.5 XX


44 XX
49.9 XX


43 XX
46.3 XX


40 XX
45.1 XX


42 XX
39.3 XX


35 XX
38.3 XX


34 XX
36.3 XX


32 XX
33.3 XX


28 XX
31.4 XX


25 XX
23.3 XX


21 XX
Кадры в секунду
Больше - лучше

The Witcher 3

3.840 x 2.160 1xAA 1xAF

45.0 XX


42 XX
42.0 XX


28 XX
34.4 XX


30 XX
32.5 XX


29 XX
29.1 XX


27 XX
26.5 XX


24 XX
24.9 XX


23 XX
22.7 XX


20 XX
22.4 XX


20 XX
20.6 XX


18 XX
19.2 XX


26 XX
Кадры в секунду
Больше - лучше

The Witcher 3

3.840 x 2.160 MSAA

43.2 XX


40 XX
33.2 XX


30 XX
31.4 XX


28 XX
28.8 XX


9 XX
28.0 XX


26 XX
25.8 XX


24 XX
24.1 XX


21 XX
22.2 XX


20 XX
21.7 XX


20 XX
20.2 XX


18 XX
18.2 XX


16 XX
Кадры в секунду
Больше - лучше


Battlefield: Hardline

Battlefield: Hardline – классический шутер от первого лица в линейке Battlefield, однако он отличается действием в городской среде, а вместо военных теперь полиция. Игра Battlefield: Hardline была не так хорошо встречена фанатами серии, но благодаря движку Frostbite графика в игре великолепная, поэтому мы используем ее для наших тестов.

Battlefield Hardline

1.920 x 1.080 1xAA 1xAF

232.2 XX


210 XX
197.9 XX


183 XX
192.8 XX


179 XX
182.2 XX


165 XX
177.2 XX


161 XX
138.3 XX


125 XX
136.9 XX


124 XX
131.1 XX


120 XX
124.8 XX


114 XX
123.1 XX


114 XX
120.1 XX


109 XX
108.7 XX


100 XX
103.8 XX


99 XX
103.2 XX


95 XX
101.4 XX


92 XX
79.2 XX


71 XX
Кадры в секунду
Больше - лучше

Battlefield Hardline

1.920 x 1.080 4xMSAA 16xAF

138.7 XX


126 XX
127.5 XX


117 XX
125.6 XX


110 XX
107.6 XX


97 XX
88.0 XX


77 XX
84.3 XX


74 XX
80.6 XX


72 XX
80.5 XX


70 XX
68.6 XX


60 XX
68.2 XX


61 XX
66.5 XX


59 XX
63.4 XX


57 XX
61.9 XX


57 XX
47.7 XX


43 XX
Кадры в секунду
Больше - лучше

Battlefield Hardline

2.560 x 1.440 1xAA 1xAF

147.6 XX


139 XX
137.8 XX


128 XX
134.8 XX


122 XX
116.2 XX


109 XX
113.6 XX


107 XX
97.7 XX


90 XX
92.1 XX


85 XX
86.3 XX


80 XX
86.1 XX


79 XX
77.4 XX


71 XX
74.0 XX


66 XX
68.8 XX


63 XX
68.4 XX


63 XX
63.3 XX


58 XX
51.5 XX


47 XX
Кадры в секунду
Больше - лучше

Battlefield Hardline

2.560 x 1.440 4xMSAA 16xAF

89.5 XX


79 XX
61.1 XX


53 XX
61.0 XX


27 XX
57.9 XX


51 XX
55.0 XX


49 XX
50.8 XX


46 XX
45.6 XX


42 XX
42.4 XX


39 XX
42.3 XX


38 XX
41.9 XX


39 XX
38.9 XX


35 XX
29.9 XX


27 XX
Кадры в секунду
Больше - лучше

Battlefield Hardline

3.840 x 2.160 1xAA 1xAF

74.8 XX


66 XX
65.9 XX


26 XX
52.5 XX


48 XX
49.6 XX


56 XX
45.1 XX


41 XX
43.2 XX


40 XX
38.8 XX


35 XX
38.2 XX


35 XX
34.6 XX


31 XX
34.6 XX


32 XX
31.6 XX


29 XX
Кадры в секунду
Больше - лучше

Battlefield Hardline

3.840 x 2.160 4xMSAA 16xAF

46.3 XX


39 XX
43.9 XX


16 XX
32.0 XX


28 XX
30.7 XX


27 XX
28.8 XX


25 XX
24.7 XX


22 XX
23.6 XX


21 XX
20.9 XX


18 XX
20.5 XX


18 XX
20.3 XX


18 XX
19.7 XX


18 XX
Кадры в секунду
Больше - лучше


Grand Theft Auto 5

Игра Grand Theft Auto 5 или GTA 5 – одно из знаковых событий года. Действие GTA 5 происходит в выдуманном мире Лос-Сантоса, который напоминает Лос-Анджелес. Мир игры полностью открытый, геймер может исследовать его по своему усмотрению. Из-за реалистичного представления игрового мира GTA 5 серьезно нагружает даже современные видеокарты, поэтому мы добавили игру в наши тесты. GTA 5 опирается на движок RAGE.

Grand Theft Auto 5

1.920 x 1.080 1xAA 1xAF

Кадры в секунду
Больше - лучше

Grand Theft Auto 5

1.920 x 1.080 4xMSAA 16xAF

Кадры в секунду
Больше - лучше

Grand Theft Auto 5

2.560 x 1.440 1xAA 1xAF

Кадры в секунду
Больше - лучше

Grand Theft Auto 5

2.560 x 1.440 4xMSAA 16xAF

Кадры в секунду
Больше - лучше

Grand Theft Auto 5

3.840 x 2.160 1xAA 1xAF

Кадры в секунду
Больше - лучше

Grand Theft Auto 5

3.840 x 2.160 4xMSAA 16xAF

Кадры в секунду
Больше - лучше


Far Cry 4

Far Cry 4 – шутер от первого лица в открытом игровом мире, действие происходит в горах Непала, но сюжет игры выдуманный. Игра опирается на модифицированную версию движка Dunia Engine 2, дополненную движком физики Havok. Far Cry 4 смешивает реальный и выдуманный мир, что придает игре свой шарм. Конечно, открытый мир приводит к серьезным требованиям по аппаратному и программному обеспечению.

FarCry 4

1.920 x 1.080 1xAA 1xAF

117.8 XX


100 XX
83.7 XX


51 XX
81.5 XX


73 XX
81.3 XX


55 XX
80.9 XX


65 XX
78.2 XX


66 XX
74.0 XX


61 XX
71.4 XX


63 XX
69.7 XX


57 XX
65.0 XX


57 XX
61.2 XX


54 XX
47.9 XX


42 XX
Кадры в секунду
Больше - лучше

FarCry 4

1.920 x 1.080 4xMSAA 16xAF

87.2 XX


50 XX
84.8 XX


72 XX
72.1 XX


62 XX
69.3 XX


62 XX
63.1 XX


56 XX
54.2 XX


48 XX
50.1 XX


44 XX
46.5 XX


41 XX
43.3 XX


38 XX
42.1 XX


38 XX
29.1 XX


26 XX
Кадры в секунду
Больше - лучше

FarCry 4

2.560 x 1.440 1xAA 1xAF

95.7 XX


85 XX
90.1 XX


46 XX
72.3 XX


53 XX
71.4 XX


62 XX
70.6 XX


51 XX
59.1 XX


52 XX
57.9 XX


52 XX
54.9 XX


49 XX
51.3 XX


46 XX
45.6 XX


40 XX
43.5 XX


38 XX
30.3 XX


18 XX
Кадры в секунду
Больше - лучше

FarCry 4

2.560 x 1.440 4xMSAA 16xAF

60.0 XX


18 XX
59.1 XX


53 XX
45.8 XX


37 XX
43.8 XX


38 XX
43.4 XX


33 XX
35.1 XX


27 XX
33.9 XX


31 XX
31.1 XX


28 XX
30.1 XX


27 XX
24.9 XX


22 XX
23.9 XX


21 XX
18.9 XX


17 XX
Кадры в секунду
Больше - лучше

FarCry 4

3.840 x 2.160 4xMSAA 16xAF

46.3 XX


29 XX
43.9 XX


11 XX
32.0 XX


21 XX
30.7 XX


19 XX
28.8 XX


16 XX
24.7 XX


13 XX
23.6 XX


15 XX
20.9 XX


11 XX
20.5 XX


13 XX
20.3 XX


13 XX
19.7 XX


5 XX
Кадры в секунду
Больше - лучше


Total War: Attila

Total War: Attila – девятая часть популярного стратегического игрового семейства, в ней присутствуют одно- и многопользовательский режимы. Для симуляции игрового мира и игровых персонажей, число которых на поле боя может измеряться тысячами, используется движок Warscape, специально разработанный для подобных игр. Разработчики попытались не только максимально реалистично вывести каждого персонажа, но и расширить это представление на сотни или даже тысячи солдат в игре. Все это накладывает серьезные требования на видеокарту.

Total War: ATTILA

1.920 x 1.080 1xAA 1xAF

58.6 XX


49 XX
50.9 XX


31 XX
49.3 XX


39 XX
49.0 XX


39 XX
48.7 XX


38 XX
46.9 XX


39 XX
45.4 XX


37 XX
44.3 XX


38 XX
40.4 XX


34 XX
39.1 XX


34 XX
31.5 XX


25 XX
26.5 XX


21 XX
Кадры в секунду
Больше - лучше

Total War: ATTILA

1.920 x 1.080 8xMLAA 16xAF

36.5 XX


34 XX
32.3 XX


18 XX
23.8 XX


14 XX
23.7 XX


16 XX
22.3 XX


14 XX
21.0 XX


14 XX
20.2 XX


13 XX
19.8 XX


14 XX
18.6 XX


11 XX
18.5 XX


13 XX
17.1 XX


11 XX
Кадры в секунду
Больше - лучше

Total War: ATTILA

2.560 x 1.440 1xAA 1xAF

57.5 XX


52 XX
44.1 XX


36 XX
41.3 XX


34 XX
38.8 XX


34 XX
37.6 XX


28 XX
32.5 XX


24 XX
31.7 XX


25 XX
31.6 XX


23 XX
30.3 XX


25 XX
30.3 XX


23 XX
28.2 XX


21 XX
18.3 XX


9 XX
Кадры в секунду
Больше - лучше

Total War: ATTILA

2.560 x 1.440 8xMLAA 16xAF

Кадры в секунду
Больше - лучше

Total War: ATTILA

3.840 x 2.160 1xAA 1xAF

30.3 XX


11 XX
29.3 XX


25 XX
24.2 XX


18 XX
22.8 XX


16 XX
21.0 XX


16 XX
19.4 XX


13 XX
17.5 XX


12 XX
16.2 XX


11 XX
16.1 XX


12 XX
14.5 XX


9 XX
Кадры в секунду
Больше - лучше

Total War: ATTILA

3.840 x 2.160 8xMLAA 16xAF

Кадры в секунду
Больше - лучше


Metro: Last Light Redux

Игра Metro: Last Light вошла в историю не только за то, что многие геймеры считают ее лучшим шутером последних лет, но и за отличную графику. Но любые игры постепенно стареют, поэтому разработчики выпустили Last Light в версии Redux. Графика в игре подверглась дальнейшим оптимизациями и доработкам, то же самое касается игрового движка 4A Engine. Игра Metro: Last Light по-прежнему интенсивно нагружает видеокарты.

Metro: Last Light Redux

1.920 x 1.080 без AA 1xAF

133.8 XX


104 XX
125.2 XX


91 XX
104.0 XX


72 XX
102.3 XX


70 XX
100.4 XX


68 XX
96.5 XX


68 XX
92.6 XX


63 XX
91.0 XX


65 XX
84.4 XX


56 XX
79.6 XX


57 XX
77.8 XX


52 XX
67.8 XX


43 XX
60.6 XX


39 XX
46.3 XX


31 XX
Кадры в секунду
Больше - лучше

Metro: Last Light Redux

1.920 x 1.080 1xSSAA 16xAF

86.3 XX


57 XX
74.8 XX


48 XX
63.4 XX


45 XX
59.3 XX


43 XX
54.6 XX


40 XX
52.9 XX


40 XX
46.6 XX


34 XX
44.4 XX


31 XX
43.4 XX


32 XX
39.7 XX


29 XX
36.4 XX


26 XX
26.4 XX


19 XX
Кадры в секунду
Больше - лучше

Metro: Last Light Redux

2.560 x 1.440 без AA 1xAF

95.7 XX


64 XX
81.0 XX


56 XX
72.9 XX


51 XX
68.8 XX


49 XX
62.6 XX


45 XX
58.6 XX


45 XX
54.7 XX


39 XX
51.1 XX


36 XX
49.8 XX


35 XX
43.8 XX


31 XX
39.8 XX


28 XX
29.8 XX


20 XX
Кадры в секунду
Больше - лучше

Metro: Last Light Redux

2.560 x 1.440 1xSSAA 16xAF

50.3 XX


31 XX
46.4 XX


36 XX
39.2 XX


26 XX
37.1 XX


25 XX
33.7 XX


23 XX
31.7 XX


23 XX
27.0 XX


20 XX
25.3 XX


17 XX
25.3 XX


19 XX
24.4 XX


18 XX
22.6 XX


17 XX
15.1 XX


11 XX
Кадры в секунду
Больше - лучше

Metro: Last Light Redux

3.840 x 2.160 без AA 1xAF

45.5 XX


35 XX
45.4 XX


28 XX
37.4 XX


24 XX
35.1 XX


23 XX
32.9 XX


18 XX
31.8 XX


21 XX
28.8 XX


21 XX
25.3 XX


19 XX
22.7 XX


15 XX
21.8 XX


16 XX
20.4 XX


15 XX
Кадры в секунду
Больше - лучше

Metro: Last Light Redux

3.840 x 2.160 1xSSAA 16xAF

22.2 XX


12 XX
19.7 XX


15 XX
16.7 XX


10 XX
15.9 XX


10 XX
14.6 XX


9 XX
13.9 XX


9 XX
10.9 XX


8 XX
10.6 XX


7 XX
10.4 XX


8 XX
Кадры в секунду
Больше - лучше


Tomb Raider

Eidos постоянно обновляет популярную игровую франшизу Tomb Raider. Несмотря на выход игры Tomb Raider под многочисленные платформы, она накладывает довольно серьезные требования по графике. Eidos использовала игровой движок Crystal Engine, в котором реализованы некоторые функции, которые работают только на видеокартах AMD – например, TressFX. Конечно, мы их отключали, как и NVIDIA API GameWorks в играх, чтобы производители GPU были в равных условиях.

Tomb Raider

1.920 x 1.080 FXAA 1xAF

269.8 XX


210 XX
239.0 XX


184 XX
224.4 XX


176 XX
200.9 XX


156 XX
198.5 XX


152 XX
180.1 XX


130 XX
169.9 XX


124 XX
158.4 XX


116 XX
152.1 XX


120 XX
143.4 XX


110 XX
132.6 XX


102 XX
130.3 XX


104 XX
127.4 XX


102 XX
118.9 XX


98 XX
106.8 XX


86 XX
82.9 XX


66 XX
Кадры в секунду
Больше - лучше

Tomb Raider

1.920 x 1.080 2xSSAA 16xAF

155.7 XX


118 XX
142.4 XX


108 XX
125.8 XX


43 XX
124.1 XX


94 XX
116.8 XX


86 XX
108.7 XX


78 XX
98.9 XX


72 XX
91.6 XX


72 XX
88.8 XX


68 XX
80.8 XX


60 XX
80.3 XX


60 XX
69.5 XX


53 XX
51.6 XX


40 XX
Кадры в секунду
Больше - лучше

Tomb Raider

2.560 x 1.440 FXAA 1xAF

150 XX


118 XX
143.2 XX


116 XX
131.7 XX


100 XX
131.2 XX


48 XX
125.7 XX


102 XX
120.7 XX


92 XX
112.1 XX


86 XX
103.5 XX


80 XX
93.2 XX


76 XX
91.5 XX


74 XX
84.9 XX


68 XX
80.1 XX


64 XX
70.6 XX


58 XX
64.6 XX


56 XX
52.1 XX


42 XX
Кадры в секунду
Больше - лучше

Tomb Raider

2.560 x 1.440 2xSSAA 16xAF

93.5 XX


72 XX
73.6 XX


54 XX
71.6 XX


25 XX
67.0 XX


50 XX
61.1 XX


46 XX
54.9 XX


42 XX
54.2 XX


42 XX
48.9 XX


38 XX
48.8 XX


37 XX
42.2 XX


32 XX
38.3 XX


31 XX
31.1 XX


24 XX
Кадры в секунду
Больше - лучше

Tomb Raider

3.840 x 2.160 FXAA 1xAF

68.3 XX


56 XX
57.6 XX


46 XX
55.3 XX


19 XX
52.1 XX


42 XX
47.1 XX


38 XX
42.7 XX


36 XX
40.9 XX


34 XX
38.4 XX


32 XX
36.1 XX


30 XX
32.6 XX


27 XX
29.9 XX


25 XX
Кадры в секунду
Больше - лучше

Tomb Raider

3.840 x 2.160 2xSSAA 16xAF

42.8 XX


33 XX
33.5 XX


26 XX
30.5 XX


23 XX
29.8 XX


8 XX
27.7 XX


22 XX
24.6 XX


19 XX
24.6 XX


19 XX
22.2 XX


17 XX
21.9 XX


17 XX
19.2 XX


14 XX
17.2 XX


14 XX
Кадры в секунду
Больше - лучше


DiRt Rally

С игрой Dirt Rally студия разработчиков Codemasters вновь сместила акцент на симуляцию по сравнению с предшественницей. В игре доступны 17 автомобилей, в том числе Audi S1 quattro, Lancia Delta и Ford Fiesta RS WRC, а также 36 трасс в трех уголках мира: Греции, Уэльсе и Монте-Карло. После выхода игры в Steam продолжает появляться дополнительный контент, в том числе Pikes Peak, Rally Deutschland и FIA Rallycross Championship.

DiRt Rally

1.920 x 1.080 1xAA 1xAF

135.2 XX


118 XX
131.7 XX


119 XX
125.6 XX


115 XX
113.5 XX


96 XX
64.4 XX


54 XX
42.1 XX


35 XX
40.9 XX


36 XX
38.6 XX


34 XX
34.6 XX


29 XX
34.5 XX


30 XX
32.1 XX


27 XX
18.4 XX


9 XX
Кадры в секунду
Больше - лучше

DiRt Rally

1.920 x 1.080 4xMSAA 16xAF

113.8 XX


90 XX
113.0 XX


100 XX
110.3 XX


97 XX
104.1 XX


91 XX
59.5 XX


48 XX
40.2 XX


32 XX
36.8 XX


32 XX
36.2 XX


31 XX
31.7 XX


23 XX
30.6 XX


26 XX
30.4 XX


26 XX
17.2 XX


10 XX
Кадры в секунду
Больше - лучше

DiRt Rally

2.560 x 1.440 1xAA 1xAF

112.5 XX


98 XX
106.7 XX


96 XX
101.3 XX


95 XX
93.4 XX


83 XX
44.5 XX


36 XX
28.6 XX


23 XX
27.5 XX


24 XX
25.9 XX


22 XX
23.1 XX


19 XX
22.9 XX


18 XX
21.4 XX


17 XX
16.9 XX


8 XX
Кадры в секунду
Больше - лучше

DiRt Rally

2.560 x 1.440 4xMSAA 16xAF

98.7 XX


90 XX
83.2 XX


75 XX
80.5 XX


72 XX
76.9 XX


67 XX
40.2 XX


33 XX
26.0 XX


21 XX
25.8 XX


21 XX
24.1 XX


20 XX
21.1 XX


17 XX
20.4 XX


16 XX
19.5 XX


16 XX
13.1 XX


7 XX
Кадры в секунду
Больше - лучше

DiRt Rally

3.840 x 2.160 1xAA 1xAF

Кадры в секунду
Больше - лучше

DiRt Rally

3.840 x 2.160 4xMSAA 16xAF

Кадры в секунду
Больше - лучше


Middle-Earth: Shadow of Mordor

Действие игры Middle-earth: Shadow of Mordor происходит во вселенной "Властелина Колец" Толкиена. В игре используется движок Monolith Productions LithTech, который обеспечивает высокое качество графики вместе с текстурами Ultra. На первый взгляд, игра кажется не такой "тяжелой", но с высоким уровнем детализации и соответствующим разрешением она превращается в приличную нагрузку для видеокарт.

Middle-earth: Shadow of Mordor

1.920 x 1.080 FXAA+Kamera

139.3 XX


84 XX
133.2 XX


76 XX
127.1 XX


66 XX
102.1 XX


58 XX
101.9 XX


57 XX
98.1 XX


54 XX
94.0 XX


58 XX
79.4 XX


57.2 XX
73.6 XX


49 XX
67.7 XX


34 XX
65.9 XX


37 XX
60.4 XX


35 XX
59.6 XX


35 XX
35.2 XX


17 XX
Кадры в секунду
Больше - лучше

Middle-earth: Shadow of Mordor

2.560 x 1.440 FXAA+Kamera

107.7 XX


54 XX
91.8 XX


31 XX
77.1 XX


55 XX
73.1 XX


51 XX
68.7 XX


44 XX
52.4 XX


31 XX
50.6 XX


33 XX
45.5 XX


25 XX
40.7 XX


25 XX
38.7 XX


31 XX
37.9 XX


24 XX
21.4 XX


13 XX
Кадры в секунду
Больше - лучше

Middle-earth: Shadow of Mordor

3.840 x 2.160 FXAA+Kamera

53.6 XX


42 XX
46.4 XX


13 XX
44.5 XX


36 XX
40.8 XX


29 XX
37.6 XX


28 XX
28.1 XX


13 XX
25.9 XX


12 XX
25.4 XX


19.7 XX
21.9 XX


18 XX
20.7 XX


16 XX
16.7 XX


11 XX
Кадры в секунду
Больше - лучше


Ashes of Singularity

Игра Ashes of Singularity разрабатывается студией Stardock, мы использовали раннюю версию игры. Эта игра одной из первых поддерживает DirectX 12 API под Windows 10, поэтому мы решили добавить ее в наши тесты. Сценарий Draw Call в 3DMark фокусируется на измерениях определенной функциональности, а под Ashes of Singularity мы получаем уже более широкую реализацию функций DirectX 12.

Ashes of the Singularity

1.920 x 1.080 Mid

Кадры в секунду
Больше - лучше


DirectX 12 начинает играть все более важную роль в этом году, не говоря о следующем. За последние месяцы пользователи много спорили о том, чья реализация поддержки DX12 лучше. Пока что преимущество было на стороне AMD, но с архитектурой Pascal видеокарта GeForce GTX 1080 от NVIDIA, по меньшей мере, догнала «красного» конкурента.

Мы провели тесты последних игр DX12, сравнив GeForce GTX 1080 с видеокартами GeForce GTX 980 Ti и AMD Radeon R9 Fury. Целью нашего сравнения был анализ выигрыша DirectX 12 по сравнению с DirectX 11 на разных видеокартах. Для сравнения архитектур Maxwell и Pascal мы выбрали GeForce GTX 980 Ti. Здесь нас интересуют не столько абсолютные значения, сколько относительная разница.

Ashes of the Singularity

Ashes of the Singularity

1.920 x 1.080 High - среднее

Кадры в секунду
Больше - лучше

В тестах Ashes of the Singularity выводится средняя частота кадров, которую мы привели на диаграмме выше. Как можно видеть, видеокарта GeForce GTX 1080 при переходе от DirectX 11 к DirectX 12 показала прирост 22,8%. Отключение асинхронных шейдеров снижает производительность на 2,8%. Существенно больший выигрыш демонстрирует Radeon R9 Fury X, переход на DirectX 12 дает прирост производительности 90,8%, отключение асинхронных шейдеров уменьшает производительность на 2,3%. Как и раньше, видеокарта GeForce GTX 980 Ti почти не выигрывает, демонстрируя прирост около 6%. А выключение асинхронных шейдеров существенно снижает производительность.

Ashes of the Singularity

1.920 x 1.080 High - Low Draw Calls

Кадры в секунду
Больше - лучше

Ashes of the Singularity

1.920 x 1.080 High - Medium Draw Calls

Кадры в секунду
Больше - лучше

Ashes of the Singularity

1.920 x 1.080 High - Heavy Draw Calls

Кадры в секунду
Больше - лучше

Также интересно посмотреть на результаты тестов с разным количеством вызовов Draw Calls. Здесь мы наблюдаем немного иное поведение. Преимущество DirectX 12 оказывается сильнее при увеличении Draw Calls.

Rise of the Tomb Raider

Rise of the Tomb Raider

2.560 x 1.440 очень высокие

Кадры в секунду
Больше - лучше

В Rise of the Tomb Raider мы вновь наблюдаем проблемы с новым графическим API: если поддержка DX12 реализована не лучшим образом, преимуществ почти нет или совсем нет. Как показали первые тесты Rise of the Tomb Raider, только в некоторых сценариях заметно преимущество DirectX 12. С видеокартами GeForce GTX 1080, GeForce GTX 980 Ti и Radeon R9 Fury X выигрыша мы не наблюдаем. Ниже приведены графики времени вывода кадра (frame time).

Rise of the Tomb Raider DX11 и DX12 - Radeon R9 Fury X против GeForce GTX 1080
Rise of the Tomb Raider DX11 и DX12 - Radeon R9 Fury X против GeForce GTX 1080

В глаза сразу же бросается разница по производительности между Radeon R9 Fury X и GeForce GTX 1080. Впрочем, нас интересует не она, а разница в производительности между DirectX 11 и DirectX 12. У GeForce GTX 1080 особых отличий не наблюдается, но у Radeon R9 Fury X под DirectX 12 мы видим меньшие пики, чем под DirectX 11.

GeForce GTX 1080 - Rise of the Tomb Raider DX11 vs DX12Radeon R9 Fury X - Rise of the Tomb Raider DX11 vs DX12

Сравнение между DX11 и DX12, разделенное по видеокартам

На видеокарте GeForce GTX 1080 первая часть теста DirectX 12 идет более сглаженно, но затем мы наблюдаем тоже довольно сильную турбулентность. У Radeon R9 Fury X какую-либо тенденцию выделить сложно, но пики по времени вывода кадра под DirectX 11 выше.

Hitman

Hitman

2.560 x 1.440 очень высокие

Кадры в секунду
Больше - лучше

Несколько иную картину мы видим иную картину. Видеокарта GeForce GTX 1080 выигрывает на небольшой процент (2,3%), у Radeon R9 Fury X преимущество составляет порядка 5%, а GeForce GTX 980 Ti не выигрывает от DirectX 12 – производительность даже ниже. Кроме сравнения средних fps между DirectX 11 и DirectX 12 мы привели графики времени вывода кадра, которые позволяют глубже разобраться в ситуации.

Hitman DX11 und DX12 - Radeon R9 Fury X gegen GeForce GTX 1080
Hitman DX11 и DX12 - Radeon R9 Fury X против GeForce GTX 1080

Чтобы графики Hitman было проще интерпретировать, мы перешли на логарифмическую шкалу по оси ординат. Победителя здесь назвать сложно, поскольку везде мы наблюдаем существенные пики по времени вывода кадра.

GeForce GTX 1080 - Hitman DX11 vs DX12Radeon R9 Fury X - Hitman DX11 vs DX12

Сравнение между DX11 и DX12, разделенное по видеокартам

Только с разделенными графиками GeForce GTX 1080 и Radeon R9 Fury X картина проясняется. У GeForce GTX 1080 мы вновь получаем более сглаженный график времени вывода кадров под DX12. То же самое верно и для Radeon R9 Fury X, хотя здесь пики оказались выше, чем под DirectX 11.


Здесь мы привели результаты тестов нескольких игр с разными API, отказавшись от DirectX 12. Мы привели графики времени вывода кадров для GeForce GTX 1080, GeForce GTX 980 Ti, Radeon R9 390X и Radeon R9 Fury.

Anno 2205:

График времени вывода кадров Anno 2205
График времени вывода кадров Anno 2205

Протестированным видеокартам нелегко в Anno 2205. По производительности Radeon R9 390X и Radeon R9 Fury X близки к GeForce GTX 1080, мы получаем время вывода кадра 10 мс и меньше, то есть поднимаемся к уровню 100 fps и выше. Требования Anno 2205 к производительности видеокарты очень сильно зависят от этапа прохождения игры, насколько крупный город создан и сколько на экране объектов.

The Division:

График времени вывода кадров The Division
График времени вывода кадров The Division

В The Division все четыре видеокарты показывают сравнительно равномерные графики. У всех видеокарт иногда наблюдаются пики, которые будут заметны в игре как подтормаживания. С точки зрения производительности GeForce GTX 1080 превосходит конкурентов, но здесь важно обращать внимание не только на графики времени вывода кадров, но и на работу «железа» с драйвером и игровым движком, чтобы игра шла максимально плавно.

Fallout 4:

График времени вывода кадров Fallout 4
График времени вывода кадров Fallout 4

Хорошим примером того, как графики времени вывода кадров не должны выглядеть, стала игра Fallout 4. Обе видеокарты NVIDIA показали очень равномерные графики, но производительность двух моделей AMD нас обеспокоила. Не только уровень fps был существенно ниже, но и разброс по времени вывода кадров оказался значительно больше. Похоже, что у видеокарт AMD с этой игрой наблюдаются проблемы. Геймерам придется ослабить графические настройки, чтобы решить проблемы с производительностью.

Hitman:

График времени вывода кадров Hitman
График времени вывода кадров Hitman

В новой игре Hitman видеокарты показали себя очень близко по времени вывода кадров. Разница по производительности между Radeon R9 Fury X и GeForce GTX 1080 невелика, значительные пики по времени вывода кадров наблюдаются у все видеокарт.

Far Cry Primal:

График времени вывода кадров Far Cry Primal
График времени вывода кадров Far Cry Primal

Еще одним положительными для NVIDIA примером стала игра Far Cry Primal. Особенно в первой трети тестовой сцены обе видеокарты AMD показали довольно широкий разброс по времени вывода кадров, подобная неравномерность заметна в игре. Затем графики всех видеокарт становятся более сглаженными. Быстрее всех по-прежнему GeForce GTX 1080.

Rise of the Tomb Raider:

График времени вывода кадров Rise of the Tomb Raider
График времени вывода кадров Rise of the Tomb Raider

Сравнительно плоские графики несколько обманчивы, поскольку разброс между средним и минимальным значением fps довольно велик. Обе видеокарты AMD борются с пиками по времени вывода кадров, на двух видеокартах NVIDIA подобных «подтормаживаний» нет, они более равномерные.

DOOM:

График времени вывода кадров Rise of the Tomb Raider
График времени вывода кадров DOOM

В последний момент мы смогли провести тесты DOOM. Новая видеокарта GeForce GTX 1080 и здесь показала себя с лучшей стороны, с довольно плавным графиком. А вот GeForce GTX 980 Ti и Radeon R9 Fury X пришлось напряженно сражаться друг с другом. В целом, графики видеокарт NVIDIA оказались более плавными, чем у AMD.


256-битный интерфейс памяти, несмотря на реализованную технологию сжатия, может ограничивать производительность – по крайней мере, теоретически. Мы решили проверить, действительно ли память GDDR5X на 2.500 МГц будет ограничивать производительность при работе GPU на частоте Boost 1.825 МГц. Мы решили не добавлять разгон GPU, просто проанализировав влияние более высокой частоты памяти на производительность GeForce GTX 1080.

Скриншот GPU-Z видеокарты GeForce GTX 1080 с разогнанной GDDR5X
Скриншот GPU-Z видеокарты GeForce GTX 1080 с разогнанной GDDR5X

В будущем NVIDIA наверняка оснастит чипы Pascal памятью HBM2, которая должна обеспечить дополнительный прирост производительности, связанный с очень высокой пропускной способностью. Но позвольте сначала рассмотреть GDDR5X и работу этой памяти на разных частотах. Мы провели тесты в режимах 2.500 МГц (320 Гбайт/с), 2.625 МГц (336 Гбайт/с), 2.725 МГц (348,8 Гбайт/с) и 2.880 МГц (368,64 Гбайт/с).

The Witcher 3

2.560 x 1.440 1xMSAA Very High

Кадры в секунду
Больше - лучше

Rise of the Tomb Raider

2.560 x 1.440 2xSMAA Very High

Кадры в секунду
Больше - лучше

Far Cry Primal

2.560 x 1.440 SMAA Very High

Кадры в секунду
Больше - лучше

Metro: Last Light Redux

2.560 x 1.440 2xSSAA Very High

Кадры в секунду
Больше - лучше

Как можно видеть по результатам тестов, существенной разницы от разгона памяти нет. При увеличении частоты памяти на чуть более чем 15% производительность увеличивается до 6%. То есть хорошего масштабирования производительности от частоты памяти мы не получаем. Это означает, что GeForce GTX 1080 не так сильно зависит от шины памяти. То же самое касается и разогнанной GeForce GTX 1080, о чем мы подробнее расскажем на следующей странице. Но если вы хотите выжать из видеокарты максимум, то имеет смысл разогнать и память тоже.

 


 

По просьбам наших читателей мы добавили в тесты видеокарту GeForce GTX 980 Ti с альтернативным дизайном (Custom - ASUS ROG Matrix GeForce GTX 980 Ti), а не только эталонную версию. Кроме того, наши читатели попросили провести сравнение GeForce GTX 1080 с разогнанной моделью GeForce GTX 980 Ti. Многие пользователи все же разгоняют свои видеокарты GeForce GTX 980 Ti существенно выше заводского разгона производителей.

Мы вновь использовали видеокарту ASUS ROG Matrix GeForce GTX 980 Ti, которую протестировали несколько месяцев назад. Без вмешательства пользователя она работает на частотах 1.392-1.417 МГц, память работает на 1.800 МГц. Видеокарту можно разогнать еще сильнее. Мы провели тест с частотой GPU 1.500 МГц, частотой памяти 2.000 МГц. Наш образец GeForce GTX 1080 работал в режиме Boost на частотах 1.809-1.825 МГц, но запас разгона имелся, мы увеличили частоту GPU до 2.114 МГц, а памяти – до 2.880 МГц. Ниже мы приводим результаты тестов двух разогнанных видеокарт:

Futuremark 3DMark

Fire Strike Extreme

Баллы Futuremark
Больше - лучше

Battlefield Hardline

2.560 x 1.440 4xMSAA 16xAF

Кадры в секунду
Больше - лучше

Tomb Raider

2.560 x 1.440 2xSSAA 16xAF

Кадры в секунду
Больше - лучше

Total War: Attila

2.560 x 1.440 1xAA 1xAF

Кадры в секунду
Больше - лучше

The Witcher 3

2.560 x 1.440 4xMSAA

Кадры в секунду
Больше - лучше

Энергопотребление (вся система)

Нагрузка

в Вт
Меньше - лучше

В некоторых тестах разогнанная GeForce GTX 980 Ti действительно обошла GeForce GTX 1080 без разгона. Впрочем, состязаться с разогнанной GTX 1080 старая GTX 980 Ti уже не может. В других тестах разогнанная GeForce GTX 980 Ti довольно близко подходит к GeForce GTX 1080 без разгона.


Наша видеокарта GeForce GTX 1080 без какого-либо вмешательства смогла добраться до уровня Boost 1.825 МГц на практике, нам было весьма интересно, сможем ли мы побить магическую планку 2 ГГц. Действительно, мы без особых проблем заставили работать видеокарту на частоте GPU более 2.000 МГц. Мы использовали утилиту EVGA Precision Tool, в которой подняли планку Power Target на максимум, чтобы не упираться в ограничения по энергопотреблению. Затем мы в ручном режиме попытались найти максимальную частоту для максимального напряжения 1,162 В. В конце концов мы получили 2.114 МГц, что почти на 16 процентов выше максимальной частоты Boost без разгона.

Впервые мы получили возможность разогнать память GDDR5X. Довольно быстро мы обнаружили, что даже разгон GPU до рекордных 2.114 МГц никак не ограничивает возможности разгона памяти. Мы смогли увеличить частоту на 250 МГц до 1.500 МГц, на которой мы и остановились.

Разгон привел к следующим результатам производительности:

Futuremark 3DMark

Fire Strike Extreme

Баллы Futuremark
Больше - лучше

Battlefield Hardline

2.560 x 1.440 4xMSAA 16xAF

Кадры в секунду
Больше - лучше

Tomb Raider

2.560 x 1.440 2xSSAA 16xAF

Кадры в секунду
Больше - лучше

Total War: Attila

2.560 x 1.440 1xAA 1xAF

Кадры в секунду
Больше - лучше

The Witcher 3

2.560 x 1.440 4xMSAA

Кадры в секунду
Больше - лучше

Температура

Нагрузка

в градусах Цельсия
Меньше - лучше

Уровень шума

Нагрузка

в дБ(A)
Меньше - лучше

Энергопотребление (вся система)

Нагрузка

в Вт
Меньше - лучше

В целом, мы остались более чем довольны первыми результатами разгона. Мы редко наблюдаем подобный потенциал разгона с первыми GPU, производящимися по новому техпроцессу с новой архитектурой. Будет очень интересно посмотреть на результаты разгона первых моделей с альтернативной системой охлаждения, а также с альтернативными дизайнами PCB. Также системы водяного охлаждения наверняка смогут выжать больше из 16-нм техпроцесса FinFET и архитектуры Pascal. То же самое можно сказать и насчет охлаждения жидким азотом – но здесь предстоит подождать, прежде чем видеокарты попадут в руки экстремальных оверклокеров.


Многие страницы текста, десятки тестов и объяснение всех новых технологий – все это мы привели в рамках данного обзора. Но какое можно сделать заключение по поводу видеокарты GeForce GTX 1080?

Примерно год назад AMD привлекла к себе внимание энтузиастов новинкой Radeon R9 Fury, технология High Bandwidth Memory на одной подложке с GPU казалась нам революционной. В этом году настала очередь NVIDIA удивлять. В марте компания объявила ускоритель Tesla P100, который стал первой «видеокартой» с 16-нм GPU, изготавливаемому по техпроцессу FinFET, и памятью HBM 2-го поколения. Но NVIDIA до сих пор не продает Tesla P100 на открытом рынке, поставляя ее только производителям суперкомпьютеров. Здесь можно упомянуть и сервер DGX-1 с восемью Tesla P100. Для производства вычислительных ускорителей NVIDIA тесно сотрудничает с TSMC и Samsung.

На видеокартах GeForce GTX 1080 память HBM2 не используется, но чипы производятся по 16-нм техпроцессу FinFET и относятся к архитектуре Pascal. После многих лет топтания на месте (хотя производители постоянно оптимизировали 28-нм техпроцесс под увеличение эффективности) 16-нм технология NVIDIA и 14-нм техпроцесс AMD кажутся прорывными. Все же мы не привыкли к тактовым частотам порядка 1.800 МГц под нагрузкой.

При столь серьезном изменении техпроцесса и архитектуры интересно сравнить новинку с предшественником. Отдел маркетинга NVIDIA любит показывать большие числа и высокие столбики на слайдах. Впрочем, прироста производительности порядка 50 процентов мы не встречали долгое время. Видеокарту GeForce GTX 1080 можно назвать отличным примером, когда новый техпроцесс и новая архитектура обеспечили значимый прирост производительности. Прирост GeForce GTX 1080 по сравнению с GeForce GTX 980 Ti составил между 5 и 30 процентами. В среднем, выигрыш составил 20-25 процентов. Особенно высокие разрешения выигрывают от производительности GPU и 8 Гбайт памяти.

Если сравнивать GeForce GTX 1080 с прямым предшественником GeForce GTX 980 (с уверенностью можно сказать о грядущем появлении GeForce GTX 1080 Ti на более мощной ступени архитектуры Pascal), то мы получим прирост производительности от 50 до 70 процентов, здесь преимущества на высоких разрешениях еще более заметны. Сравнение с Radeon R9 Fury X зависит от игры/теста, хотя данная зависимость прослеживается и для упомянутых выше видеокарт. Иногда Radeon R9 Fury X на 10 процентов медленнее, а иногда на целых 50 процентов. Но в некоторых играх видеокарта даже обгоняет GeForce GTX 1080. С первыми видеокартами Polaris, которые AMD планирует выпустить этим летом, «красная» компания вряд ли сможет конкурировать с GeForce GTX 1080. Здесь следует дождаться GPU Vega, но они появятся ближе к концу года – если окажутся верны слухи о том, что AMD смогла ускорить производство чипов.

Но дополнительная производительность – только одна сторона медали. NVIDIA также говорит о существенно улучшенной эффективности, в наших тестах видеокарта действительно потребляла примерно на 45 Вт меньше GeForce GTX 980 Ti. В сочетании с упомянутым приростом производительности подобный шаг очень радует. По сравнению с GeForce GTX 980 ситуация обратная, GeForce GTX 1080 потребляла на 26 Вт больше, но здесь следует учитывать значимое преимущество по производительности, которое все равно приведет к росту эффективности. Вывод можно сделать следующий: NVIDIA благодаря новому техпроцессу и новой архитектуре смогла вновь улучшить соотношение производительности на ватт. Одновременное улучшение архитектуры и техпроцесса намного лучше, чем обновление только архитектуры, что мы видели последние годы. Поэтому шаг NVIDIA можно назвать значимым.

Пару слов о кулере. NVIDIA использовала для версии Founders Edition видеокарты GeForce GTX 1080 слегка обновленный эталонный кулер. У GeForce GTX 980 даже не было испарительной камеры, которая появилась только у эталонных кулеров GeForce GTX Titan X и GeForce GTX 980 Ti, но здесь камера вновь присутствует. В результате GeForce GTX 1080 приятно удивила низким уровнем шума. Редкая эталонная видеокарта может конкурировать с GeForce GTX 1080 по тишине. Конечно, хотелось бы увидеть выключение вентилятора в режиме бездействия, но у NVIDIA GeForce GTX 1080 такой функции нет.

По температурам NVIDIA показала привычную картину, после небольшого периода нагрузки температура поднималась до целевой 83 °C, что ограничивало механизм Boost. Но видеокарта все равно смогла показать частоту Boost 1.825 МГц под постоянной нагрузкой, что выше минимальной планки Boost, выставленной NVIDIA. Первые видеокарты с альтернативными кулерами должны показать более высокие уровни Boost, хотя здесь чудес ожидать не стоит, поскольку частота 1.865 МГц у нашего образца уже упиралась в предельное энергопотребление. В любом случае, следует дождаться видеокарт от партнеров NVIDIA. Возможно, заводской разгон преподнесет сюрпризы.

NVIDIA GeForce GTX 1080
NVIDIA GeForce GTX 1080

Если вы решите приобрести видеокарту GeForce GTX 1080, то об актуальности видеовыходов в будущем задумываться не придется. AMD подверглась жесткой критике за отсутствие HDMI 2.0 у видеокарт Fiji. Компания исправила свою ошибку, заявив для видеокарт Polaris поддержку HDMI 2.0 и DisplayPort 1.3. NVIDIA учла ошибки конкурента, видеокарты Pascal оснащаются HDMI 2.0b и DisplayPort 1.3/1.4. В результате видеокарта готова не только для всех обозримых разрешений в будущем, но и для высоких частот обновления экрана. То же самое касается и поддержки HDR, которая станет весьма актуальной в будущем году.

Технология GPU Boost 3.0 перешла на новую версию, здесь мы тоже видим серьезный потенциал. Опять же, AMD не совсем убедила нас по потенциалу разгона GPU Fiji, который был весьма ограниченным. GPU GP104 видеокарты GeForce GTX 1080 легко достиг частоты 2.000 МГц и даже выше. С помощью водяного охлаждения можно без проблем добраться и до 2,5 ГГц. Пока сложно сказать, на что способна видеокарта с охлаждением жидким азотом. Но и для «обычных» оверклокеров потенциал разгона GeForce GTX 1080 не может не радовать.

Здесь следует поговорить еще об одной проблеме – свисте дросселей. У нашего образца GeForce GTX 1080 в нормальном диапазоне частоты кадров от 40 до 120 fps никаких аномалий не наблюдалось. Но в меню некоторых игр, когда частота составляла около 600 fps, свист дросселей появлялся. Связан он только с нашим образцом или проявляется на других видеокартах, мы сможем сказать только после 27 мая, когда видеокарты появятся в продаже.

Перейдем к оценке цены. NVIDIA указала рекомендованную цену GeForce GTX 1080 789 евро. Что на 170 евро дороже самой дешевой GeForce GTX 980 Ti (от 41,6 тыс. рублей в России). Конечно, стоит дождаться появления видеокарт в рознице. Стоит ли тратить 789 евро на видеокарту зависит от того, с какой модели вы планируете переходить на GeForce GTX 1080. Но мы не думаем, что многие геймеры готовы расстаться с суммой 800 евро или 50-60 тыс. рублей в России.

Альтернативы? Пока что альтернатив GeForce GTX 1080 нет. Ни одна видеокарта на рынке не может конкурировать с флагманом NVIDIA. По соотношению цена/производительность некоторые альтернативы остаются. Например, та же GeForce GTX 980 Ti в ближайшем будущем вряд ли потеряет актуальность.

 

Преимущества NVIDIA GeForce GTX 1080:

Недостатки NVIDIA GeForce GTX 1080:

Новый техпроцесс и архитектура сопровождаются увеличением производительности и снижением энергопотребления. В результате GeForce GTX 1080 стала самой быстрой видеокартой с одиночным GPU. Стоит отметить приличный объем памяти 8 Гбайт, новый механизм Boost с приличным запасом разгона, хороший кулер (по уровню шума) и самые современные видеовыходы. Из недостатков – высокая цена и ограничение частоты Boost температурой. Все это позволяет присудить видеокарте GeForce GTX 1080 Founders Edition от NVIDIA нашу награду «Отличное железо»!

Личное мнение

Томительное ожидание, наконец, закончилось. После месяцев стагнации на рынок вышла новая видеокарта, которая вновь немного обошла флагмана AMD. Так что лето будет горячим. NVIDIA удивила многих. Сюрпризы начались еще на GPU Technology Conference. Мы ожидали, что NVIDIA расскажет о новых GPU, но объявление Tesla P100 или GPU GP100 стало отличной новостью. Несколько недель спустя была объявлена видеокарта GeForce GTX 1080. Пусть у нее нет памяти HBM2, но GPU все равно базируется на архитектуре Pascal, да и 16-нм техпроцесс FinFET вполне современный. Видеокарта действительно получилась на славу! (Андрей Шиллинг)