PDA

Просмотр полной версии : NVIDIA G-Sync в теории и на практике



Stegan
20.10.2013, 08:08
<p><img src="http://www.hardwareluxx.de/images/stories/logos/nvidia.gif" width="100" height="100" alt="nvidia" style="margin: 10px; float: left;" />В минувшую пятницу NVIDIA <a href="http://www.hardwareluxx.ru/index.php/news/hardware/grafikkarten/28242-tearing-input-lag-nvidia-g-sync.html">представила новую технологию G-Sync</a>, которая призвана решить проблемы разрывания картинки, подёргиваний и большого времени отклика, многие годы досаждавшие геймерам. Конечно, NVIDIA за прошедшие годы серьёзно оптимизировала производительность, качество графики, а...<p><a href="/index.php?option=com_content&amp;view=article&amp;id=28252 &amp;catid=51&amp;Itemid=144" style="font-weight:bold;">... read more</a></p>

kachaev
22.10.2013, 10:20
"Приходится смириться с разрыванием картинки, либо включить VSync и получить задержки и подёргивания."
Господа, прежде чем писать такую чушь, изучите теория в.синх. Узнайте что такое инпут-лаг , фризы, откуда то и другое берётся и т.д.
Ну а после изучения вопроса прочитайте свой перл-"Но производительность видеокарты при этом снижается до уровня обновления картинки монитора, игра начинает "подтормаживать"."

kachaev
22.10.2013, 10:25
Или не давайте писать новости автору,который по теме ни бу,ни му, ни кукареку.