Hardwareluxx > Статьи > Железо > Мониторы > Тест и обзор: ASUS ROG Swift PG278Q с поддержкой G-Sync и 144 Гц

Тест и обзор: ASUS ROG Swift PG278Q с поддержкой G-Sync и 144 Гц

PDFПечатьE-mail
Опубликовано:
Андрей Шиллинг

Страница 1: Тест и обзор: ASUS ROG Swift PG278Q с поддержкой G-Sync и 144 Гц

asus-swift-pg278q-logoНа рынке мониторов жизнь идет неспешно. Для настольных дисплеев максимальный размер диагонали достиг 30 дюймов, разрешение увеличилось до 2.560 x 1.600. Но производители вносят улучшения в других сферах, что хорошо видно по монитору ASUS ROG Swift PG278Q, поступившему в нашу тестовую лабораторию. Он имеет диагональ 27 дюймов с разрешением 2.560 x 1.440 – вполне привычные значения. Но вместо максимальной частоты обновления 60 Гц панель может поддерживать 120 или 144 Гц при подключении видеокарты G-Sync. Конечно, нас заинтересовал подобный монитор, особенно с учётом игр и связанных с ними требований.

Но сначала позвольте напомнить, почему интересны 120/144 Гц и технология G-Sync. Всё же решение проблемы вряд ли имеет смысл рассматривать без самих проблем. А они хорошо видны по первым тестам FCAT. В конфигурации с несколькими GPU мы столкнулись с разрывами кадров, задержкой ввода, подёргиванием и т.д. С одним GPU тоже не все обстояло гладко. Вы можете подробнее ознакомиться с данной проблемой в нашей статье по поводу FCAT. Во второй части мы провели анализ технологии Alternate Frame Rendering (AFR) и поговорили о проблеме задержки ввода. В третьей части мы провели дополнительные тесты, которые выявили существование ряда проблем.

NVIDIA всё это время работала над поиском решений, которые оказались как программными, так и аппаратными. Благодаря оптимизации взаимодействия между драйвером и GPU влияние проблем удалось уменьшить. AMD вскоре присоединилась к NVIDIA со своей технологией "Frame Pacing", которую мы тоже протестировали.

Но для AMD и NVIDIA быстро стало понятно, что многие проблемы программным путём не решить, поэтому обе компании стали разрабатывать свои аппаратные решения. NVIDIA в прошлом году объявила технологию G-Sync. К сожалению, дальше объявления дело не пошло, соответствующие мониторы вышли на рынок значительно позже. С помощью технологии NVIDIA G-Sync обеспечивается взаимодействие между GPU и монитором на более глубоком уровне, уже не средствами одного только монитор, а с активным участием GPU. Оба устройства при этом должны поддерживать G-SYNC. Проприетарная технология NVIDIA работает только с видеокартами GeForce и сертифицированными мониторами, такими как поступивший в нашу тестовую лабораторию ASUS ROG Swift PG278Q. Соединение между GPU и модулем G-Sync в мониторе осуществляется через интерфейс DisplayPort. Но звуковой сигнал уже не может передаваться. Другие интерфейсы, такие как DVI или HDMI, использовать тоже не получится.

AMD пошла несколько иным путём. Компания пожелала создать открытый стандарт и стала взаимодействовать с организацией VESA. Стандарт был назван "Adaptive Sync", он входит в рамки спецификации DisplayPort 1.2a. Технология "Adaptive Sync" позволяет дисплею обновлять картинку только при получении нового кадра с видеокарты – таким образом, частота обновления экрана синхронизируется. В принципе, "Adaptive Sync" или схожие технологии нельзя назвать новыми. В Embedded Display Port она упоминается с 2009 года, но NVIDIA привлекла к этой теме внимание в прошлом году с объявлением G-Sync. Но NVIDIA использует собственный протокол для передачи по кабелю DisplayPort, поэтому G-Sync поддерживается только видеокартами с поколения "Kepler", то есть GeForce GTX 650 Ti Boost и более свежими, а также специально адаптированными мониторами.

Но решение AMD не будет работать сразу же, необходимо дождаться реализации со стороны производителей мониторов. Первые прототипы мы уже видели на различных презентациях, но мониторы выйдут на рынок не раньше второй половины 2015.

Теперь позвольте перейти непосредственно к ASUS ROG Swift PG278Q:

Обзор спецификаций ASUS ROG Switft PG278Q
Производитель и модель ASUS ROG Swift PG278Q
Розничная цена: Узнать цену в России
от 800 евро в Европе
Сайт производителя: www.asus.com
Диагональ: 27"
Цвет корпуса: Черный
Формат: 16:9
Панель: TN
Глянцевая панель: Нет
Разрешение: 2.560 x 1.440 пикселей
Контрастность: 1000:1 (статическая)
Яркость: Макс. 350 кд/м²
Время отклика пикселя: 1 мс (GTG)
Углы обзора: Горизонтальный: 170 градусов
Вертикальный: 160 градусов
Интерфейсы: 1x DisplayPort 1.2a
2x USB-3.0 "вниз"
1x USB-3.0 "вверх"
HDCP: -
Габариты (со стойкой): 619,8 x 363 x 237,9 мм (ШxВxГ)
Вес (без стойки): 7,0 кг
Эргономика: Поворот панели, наклон панели, перевод в портретный режим, регулировка высоты
Замок Kensington: Да
Крепление на стену: Да, VESA 100 x 100 мм
Встроенные динамики: Нет
Блок питания: Внешний
Дополнительно: G-Sync и 144 Гц

Комплект поставки

В комплект поставки ASUS ROG Swift PG278Q входит всё, что требуется для первого использования. Вы получите кабель питания, кабели DisplayPort и USB 3.0, руководство пользователя и CD поддержки. В качестве бонуса ROG производитель добавил бейсболку с логотипом ROG.

 

Социальные сети

Страницы обзора

Ваш голос

Ø Голосование: 0

Теги

Комментарии (6)

#1
Регистрация: 20.06.2014

Новичок
Всего сообщений: 30
Иногда компания Asus меня очень сильно удивляет, может быть не только меня, но как они выпускают такие продукты? Кто купит себе монитор за 800 евро с такими характеристиками? За намного меньшие деньги можно купить себе отличный монитор 4К!
#2
Регистрация: 26.09.2014

Постоялец
Всего сообщений: 680
Как Вы думаете, сможет ли AMD в полной мере конкурировать со своим Adaptive Sync с G-Sync от NVIDIA? Что то тут не то, ведь NVIDIA - это все таки софтверный гигант. Неужели в NVIDIA работают такие глупые специалисты, которым не хватило ума внедрить этот уже известный стандарт на программном уровне, чем его делать на затратном "аппаратном"?
#3
Регистрация: 03.02.2013

Модератор
Всего сообщений: 98
Chipi: Как Вы думаете, сможет ли AMD в полной мере конкурировать со своим Adaptive Sync с G-Sync от NVIDIA? Что то тут не то, ведь NVIDIA - это все таки софтверный гигант. Неужели в NVIDIA работают такие глупые специалисты, которым не хватило ума внедрить этот уже известный стандарт на программном уровне, чем его делать на затратном "аппаратном"?


Как мне кажется, технология FreeSync от AMD намного лучше, чем G-Sync от NVIDIA, поскольку решила не использовать дополнительный аппаратный блок, а пошла другим путём - вела переговоры с VESA над принятием стандарта, теперь FreeSync будет идти вместе с DisplayPort 1.2a. Конечно, NVIDIA заявляет, что их технология лучше и совершеннее, но так ли это мы узнаем с выходом нового стандарта. В FreeSync для синхронизации используются переменные интервалы VBLANK. Интервалы VBLANK указывают на время между выводом последней строчки предыдущего кадра до первой строчки нового кадра. Так что реализация Adaptive Sync весьма неплохая.
Почему NVIDIA пошла своим путём, можно только догадываться. Лично я считаю, что компания просто не захотела идти по общепринятым промышленным стандартам.
#4
Регистрация: 26.09.2014

Постоялец
Всего сообщений: 680
Захур Даниил: Как мне кажется, технология FreeSync от AMD намного лучше, чем G-Sync от NVIDIA, поскольку решила не использовать дополнительный аппаратный блок


Это понятно. Только то, что в стандарте от AMD нет дорогого аппаратного блока - это еще не факт, что их система лучше.

Захур Даниил: Конечно, NVIDIA заявляет, что их технология лучше и совершеннее


Вот именно в этом и весь вопрос. Почему NVIDIA заявляет о своем превосходстве, чем они это аргументируют?

Захур Даниил: Лично я считаю, что компания просто не захотела идти по общепринятым промышленным стандартам.


Если причина только в этом, тогда на стандарт G-Sync спроса не будет и на нем можно ставить крест. Даже я понимаю, что дорогой аппаратный блок - это дорога в тупик.. Как руководство компании умудрилось допустить такую глупость, если этот стандарт уже давно существует на бумаге без всяких электронных блоков? Ведь они потратили время и деньги на бессмысленную технологию. В NVIDIA же должны были понимать, что ответным шагом от AMD будет внедрение этого стандарта на программном уровне? Хотелось бы услышать комментарий на этот вопрос от NVIDIA.
Я в другом обзоре читал, что G-Sync избавляет не только от разрывов кадров, но он может сделать картинку с частотой 35-40 к/сек более плавной, чем на более дорогой карте без G-Sync при 50-60 к/сек. Вы можете это подтвердить?
#5
Регистрация: 03.02.2013

Модератор
Всего сообщений: 98
Что именно качественнее - FreeSync или G-Sync можно будет узнать только после выхода технологии от AMD на мониторах.
То что картинка на меньшей частоте с G-Sync идёт более плавно, чем с большей частотой, но без G-Sync, закономерно. Но утверждать это я не берусь, поскольку не доводилось самому проверять это на практике.
#6
Регистрация: 26.09.2014

Постоялец
Всего сообщений: 680
Захур Даниил:
То что картинка на меньшей частоте с G-Sync идёт более плавно, чем с большей частотой, но без G-Sync, закономерно. Но утверждать это я не берусь, поскольку не доводилось самому проверять это на практике.


Но зато это доводилось автору этого обзора, только он об этом сказал несколько иначе. Зачем показывать FPS в играх с включенным G-Sync, если все это ни о чем? Новый стандарт от NVIDIA - это нечто большее, чем решение проблем с разрывом кадров. Вот люди говорят: зачем это нужно, это дорого, лучше эти деньги вложить в мощную карту и т.д.. НО! сколько стоит мощная видеокарта? Ее цена может превышать стоимость этого монитора, а что мы получаем на выходе? На выходе мы все равно получаем разрывы кадров, подергивания и низкую плавность при высокой частоте кадров. Какой смысл покупать карты за 800$, если они не решают этих проблем? Например, вчерашний топ Radeon 7970 уже давно продают за 200$, а Radeon 290X продавали на 300% дороже!!! Хотя разница в производительности между ними всего 20%. Та же ситуация и с картами NVIDIA. Так люди же все равно переплачивают за эти 20% FPS свыше 400-500$? Тогда почему они не хотят заплатить 200$ за более крутую функцию G-Sync, ведь от нее пользы больше? У нас то народ гонится за высокой частотой 60 к/сек из-за проблем с плавностью, но теперь можно играть с еще более плавной картинкой и при 40 FPS. Вот именно это, как мне кажется, автор обзора не донес в полной мере до читателя.
Вам необходимо войти, чтобы оставлять комментарии!