Setting96.ru

Строительный журнал
0 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Синхронизация видеокарты и компьютера

Синхронизация видеокарты и компьютера

Дело в том, что большинство мониторов настроено на фиксированную частоту обновления — 60 Гц, и находится в ожидании, что графическая карта 60 раз в секунду будет отправлять полностью обсчитанное отдельное изображение, которое монитор отрисует построчно сверху вниз. Это неплохо работает в большинстве программ, а вот с играми получается хуже. Бывает так, что возникают разрывы изображения и зависания.

Причина всех проблем состоит в том, что графические процессоры отрисовывают картинку не с фиксированными скоростями. Частота смены кадров в игре похожа на поездку на американских горках, в зависимости оттого, какое количество деталей необходимо обсчитать в одном изображении. Мощные видеокарты в разрешении Full HD достигают максимальной частоты кадров свыше 100 в секунду, однако в отдельных сценах, требующих большого объема вычислений, частота падает значительно ниже 60 кадров/с.

Независимо от разрешения проблема одна и та же: вывод изображения видеокартой и его воспроизведение на мониторе рассинхронизированы. Если видеокарта создает более 60 кадров/с, монитор во время формирования одного изображения уже переключается на следующее. Следствием являются разрывы изображения. Если изображение построено наполовину, и в этот момент происходит обновление отображения следующего изображения, то в верхней части монитора еще видно предыдущую картинку, а под ней уже создается новая — и изображение "разрывается".

Совершенно другая проблема возникает в ситуации, когда видеокарта не способна достаточно быстро рассчитывать необходимые изображения. В этом случае одинаковые изображения должны быть переданы несколько раз, что приводит к "торможению" эпизодов игры.

Технологии AMD FreeSync и Nvidia G-Sync призваны решить проблемы с рассинхронизацией и тормозами. Они изменяют тактику работы и приспосабливают монитор к частоте кадров видеокарты. При этом происходит динамическая синхронизация с выходным сигналом графического процессора. Для того чтобы это все заработало на вашем компьютере, нужна соответствующая видеокарта с поддержкой одной из этих технологий, сертифицированный монитор и драйвер. Видеокарты от Nvidia поддерживают только G-Sync мониторы, а от AMD — только FreeSync. Т.е. сертифицированный FreeSync монитор нельзя использовать с графическим адаптером с функцией G-Sync.

Технологии синхронизации монитора и видеокарты

Adaptive Sync — технология, при которой видеокарта обрабатывает каждое изображение столько времени, сколько для этого необходимо, и немедленно отправляет результат на монитор, ожидающий это изображение. Если видеокарта создает только 60 изображений в секунду, монитор также выдает только 60 кадров в секунду. Если видеокарта создает 120 кадров/с, то и монитор работаете соответствую шей частотой 120 Гц.

AMD FreeSync представляет собой официальную реализацию стандарта Adaptive Sync. Компания NVIDIA со своей технологией G-Sync на основе этой идеи разработала свое решение. Поэтому эти две технологии очень похожи, однако существуют и различия. Nvidia G-Sync охватывает диапазон частот от 30 до 144 Гц. Технология AMD FreeSync теоретически осуществляет синхронизацию в диапазоне от 9 до 240 Гц, однако в настоящее время FreeSync-мониторы поддерживают диапазон от 40 до 144 Гц.

В G-Sync-мониторы встроен собственный аппаратный модуль (преобразователь) с процессором обработки изображений и памятью, с помощью которого осуществляется управление т.н. "вертикальным интервалом гашения". Этот термин относится к промежутку между двумя кадрами, а именно — времени от вывода последней строчки кадра "n" до вывода первой строки кадра "п+1". В случае, если расчет следующего кадра еще не завершен, модуль G-Sync может просто отображать существующий кадр. Если кадр уже рассчитан видеокартой, она посредством модуля G-Sync проверяет, занят ли монитор в настоящий момент времени формированием изображения или находится в интервале гашения. Графическая карта передает новый кадр только в том случае, если изображение в данный момент не формируется.

AMD FreeSync-мониторы работают немного иначе: они оснащены контроллером сигнализации в разъеме DisplayPort. Контроллер управляет длительностью вертикального интервала гашения

Технологии AMD FreeSync и Nvidia G-Sync предъявляют достаточно высокие требования к мониторам. С одной стороны, востребованными являются малые периоды срабатывания для эксплуатации с частотой 144 Гц, с другой стороны, мониторы также должны работать, даже если видеокарта формирует кадры с небольшой частотой. В режиме 30 Гц одно изображение поступает примерно каждые 33,3 мс. В этом случае жидкие кристаллы матрицы монитора очень быстро возвращаются в исходное состояние, и изображение теряет яркость. Для быстрого переключения в быстрый режим работы мониторы используют особую функцию Overdrive, которая обеспечивает скачок напряжения и ускоряет переключение пикселей матрицы. При отсутствии функции Overdrive время отклика монитора весьма значительное.

Обе технологии пока работают только через DisplayPort, поддержка HDMI планируется в будущем. Возможно, у AMD поддержка HDMI появится первой, по крайней мере, в теории этот стандарт во FreeSync уже заложен.

Читать еще:  Отключить синхронизацию папок в виндовс

Синхронизация видеокарты и компьютера

Технология AMD FreeSync появилась позже, но уже доросла до второй версии. Как и G-Sync, она обеспечивает динамическое изменение частоты обновления экрана монитора – в соответствии с частотой вывода кадров видеокартой серии Radeon. Таким образом решается проблема «притормаживаний», типичная для традиционной вертикальной синхронизации V-Sync, что делает изображение в игре более плавным.

В отличие от технологии NVIDIA G-Sync, которая требует применения дискретных чипов, FreeSync реализуется на уровне интерфейса. Она представляет собой реализацию промышленного стандарта DisplayPort Adaptive-Sync, который позволяет изменять частоту обновления в режиме реального времени посредством интерфейса DisplayPort. Новейшая версия интерфейса HDMI также поддерживает FreeSync. Технология FreeSync не требует добавления каких-либо чипов в мониторы, но для ее работы требуется монитор с интерфейсом DisplayPort или HDMI, а также видеокарта с графическим процессором Radeon.

Помимо улучшенной плавности изображения, технология FreeSync 2 повышает качество картинки. Компенсация низкой частоты кадров (Low Framerate Compensation – LFC) расширила диапазон изменения частоты обновления экрана мониторов с FreeSync, что обеспечивает плавность изображения, даже когда скорость игры падает ниже 30 кадров в секунду. Кроме того, FreeSync 2 поддерживает удвоенный цветовой охват sRGB и расширенный динамический диапазон HDR.

Заключение

Обе технологии адаптивной синхронизации, NVIDIA G-Sync и AMD FreeSync, работают эффективно. Улучшение изображения после их активации будет заметным, особенно в динамичных играх со сложными сценами, таких как шутеры от первого лица, гонки, спортивные симуляторы. Однако очень сложно сравнить обе технологии между собой на основе каких-либо количественных данных. Можно полагаться лишь на наши собственные глаза, поэтому у каждого пользователя будет свое субъективное мнение о том, какая из них лучше.

Объективным различием между двумя технологиями является стоимость. Помимо наличия совместимой видеокарты с соответствующим графическим процессором, для работы NVIDIA G-Sync требуется монитор с дополнительным дискретным чипом и платной лицензией от NVIDIA, что отражается на себестоимости и цене готового продукта. Мониторы с G-Sync стоят дороже, чем их аналоги с технологией AMD FreeSync, и именно поэтому мониторов с FreeSync на рынке больше. С другой стороны, оно того действительно стоит: мониторы с G-Sync обычно более высокого класса с точки зрения технических характеристик и, в сочетании с высокопроизводительными видеокартами GeForce, выдают великолепную картинку. Если же брать в расчет ценовую разницу, мониторы с FreeSync и видеокарты Radeon представляют собой более выгодное решение с точки зрения максимальной отдачи от вложенных средств.

Как выбрать видеокарту для компьютера?

Видеокарта является самым дорогостоящим компонентом игрового ПК – ее цена может достигать суммарной стоимости всех остальных комплектующих вместе взятых. Поэтому, чтобы видеокарта прослужила максимально долго (не сломалась и, главное, не устарела слишком быстро), к ее выбору нужно отнестись максимально серьезно. Определиться с производителем графического чипа (AMD или NVIDIA) и с производителем видеокарты (ASUS, MSI, Gigabyte и др.) – это только полдела. Намного важнее правильно выбрать конкретную модель, которая может отличаться не только производительностью, но и обвесом: объемом видеопамяти, системой охлаждения, подсистемой питания и интерфейсной панелью.

Интегрированные и дискретные

Все современные графические ускорители можно условно разделить на две большие группы: интегрированные и дискретные. Первые встроены в центральный процессор (все современные платформы Intel и AMD) или чипсет материнской платы (например, старенькие Intel G41 и AMD 760G). Вторые представляют собой отдельные платы расширения с интерфейсом PCI-E. Для офисных и мультимедийных задач (аппаратное воспроизведение FullHD и даже 4К-видео) более чем достаточно интегрированного графического ускорителя. Более того, на интегрированной графике можно построить даже игровой ПК начального уровня (см. статью «Начальный игровой компьютер за 300 долларов (весна 2016)».

Но для тех, кто серьезно увлекается компьютерными играми (играет много, часто и в разное), а также профессионально занимается фотообработкой, видеомонтажом и трехмерным моделированием, в обязательном порядке нужна дискретная видеокарта. Исходя из цены, дискретные видеокарты можно разделить на пять категорий.

Ультрабюджетные видеокарты (менее $100)

Самые дешевые видеокарты шутливо называют «затычками», а их единственная задача – вывод изображения с тех ПК, у которых интегрированной графики нет. По производительности они ничуть не лучше современных интегрированных решений. К примеру, дискретные GeForce GT 730 и Radeon R7 240 – это один в один Intel HD 530. Поэтому покупать ультрабюджетки сейчас имеет смысл только на замену сломавшейся видеокарте старого ПК, но уж никак не как часть нового компьютера.

Читать еще:  Как сделать синхронизацию папок в windows

Бюджетные видеокарты (до $150)

GeForce GTX 750 и Radeon R7 360 — относительно недорогие видеокарты, позволяющие
запускать современные игры, как минимум, на низких настройках графики

Видеокарты, позволяющие запускать все современные игры на FullHD-разрешении при, как минимум, низких настройках графики, стартуют с отметки $110 (GeForce GTX 750 и Radeon R7 360). Другое дело, что у таких видеокарт практически нет запаса производительности и, вероятно, уже через год их придется менять на что-то помощнее. Если же сразу доплатить несколько десятков долларов (GeForce GTX 750 Ti и 950, Radeon R7 370 и RX 460), об апгрейде видеокарты можно будет не думать пару-тройку лет. Но только при условии, что вы будете согласны в будущем играть на низких настройках графики.

Нижний средний сегмент видеокарт (до $200)

Видеокарты за две сотни долларов (GeForce GTX 960, 1050 и 1050 Ti, Radeon R9 380) позволяют замахнуться на средне-высокие настройки графики при FullHD-разрешении. У таких решений запас производительности на три-четыре года, но со временем, естественно, придется поубавить настройки графики.

Верхний средний сегмент видеокарт (до $400)

Для FullHD-разрешения большего и не нужно (GeForce GTX 1060, Radeon RX 470, RX 480) – ультра-настройки графики вам обеспечены, а запаса производительности хватит лет на пять. Менять такую видеокарту придется только в том случае, если вы обновитесь до 2K или 4K-монитора.

Флагманские видеокарты (свыше $400)

Для ультра-настроек на 2К-разрешении понадобиться видеокарта GeForce GTX 980 Ti

Видеокарты, рассчитанные на разрешения вплоть до 4K, а также высокочастотные FullHD-мониторы (120-144 Гц) и шлемы виртуальной реальности, стоят от 400 долларов и чуть ли не до бесконечности. Обязательной для ультра-настроек на 2К-разрешении является GeForce GTX 980 Ti и 1070, а на 4К – GTX 1080. Столь же мощных аналогов у компании AMD на момент написания статьи, к сожалению, нет (лишь анонсированы видеокарты Vega).

Видеопамять

Объем видеопамяти у разных видеокарт на одинаковом графическом чипе может отличаться в два, а то и четыре раза. В случае ультрабюджетных решений объем памяти свыше 1 ГБ – бесполезная переплата. Для бюджетных видеокарт 1 ГБ памяти уже мало, в самый раз будет 2 ГБ, а вот 4 ГБ – уже сомнительно. Минимум 4 ГБ, а лучше 6-8 ГБ рекомендуется для среднеценовых решений. Для флагманских же графических ускорителей обязательный минимум 8 ГБ и в ближайшем будущем объем должен увеличиться до 12-16 ГБ. В свою очередь о типе памяти (DDR3, GDDR5, GDDR5X и HBM) и разрядности шины памяти (64, 128, 256 или 384 бита) волноваться не стоит – сейчас каждая видеокарта оснащается ровно тем, что для нее подходит лучше всего. К примеру, 128-битная GeForce GTX 960 мощнее 256-битной Radeon R7 370.

Система охлаждения

Полностью пассивное охлаждение – это удел исключительно ультрабюджетных видеокарт. Большинство же современных решений оснащаются гибридным охлаждением: в простое вентиляторы не вращаются и запускаются лишь в играх. Энергоэффективные бюджетные видеокарты (до 75 Вт), для которых не требуется дополнительный разъем питания, вполне могут охлаждаться простеньким кулером, состоящим из небольшого бруска алюминия и одного вентилятора. Моделям до 150 Вт желательно обзавестись вторым вентилятором. Для отвода до 200 Вт тепла требуется уже более сложный радиатор, состоящий из отдельных алюминиевых ребер и медных теплотрубок. А с 250-Вт видеокартами, не выходя за рамки умеренного шума, способна справиться только трехвентиляторная либо водяная система охлаждения.

Собирая ПК с двумя видеокартами или с другими картами расширения (звуковой, сетевой, видеозаписывающей), важно обратить внимание на толщину кулера видеокарты – один, два или три слота. В противном случае все необходимое может попросту не поместиться в компьютер. Отдельно стоит упомянуть низкопрофильные видеокарты, сделанные с расчетом на тонкие компьютерные корпуса (см. статью «Как выбрать корпус для компьютера?»).

Подсистема питания

Помимо кулера, за стабильность работы и долговечность видеокарты отвечает подсистема питания. Чем больше фаз питания и чем качественнее электронные компоненты (мосфеты, дроссели и конденсаторы) у конкретной модели видеокарты по сравнению с референсным (стандартным) решением NVIDIA или AMD, тем более высокие нагрузки (заводской или ручной разгон) способна она выдерживать. Питаться видеокарта может как непосредственно через разъем PCI-E, так и через специальные 6 или 8-контактные кабели компьютерного блока питания (см. статью «Как выбрать блок питания для компьютера?»).

Интерфейсы подключения

Современные дискретные видеокарты подключаются к материнской
плате ПК посредством разъема PCI-E x16

Практически все современные дискретные видеокарты подключаются к материнской плате настольного ПК посредством разъема PCI-E x16 (поколение интерфейса – 2.0 или 3.0 – не играет роли). Исключением являются лишь внешние USB-видеокарты, но они предназначены для подключения к ноутбуку дополнительных мониторов, а вовсе не для игр.

Читать еще:  Синхронизация почты на hotmail

Мониторы же к видеокарте подключаются посредством цифровых интерфейсов HDMI, DVI и DisplayPort, а также аналогового VGA (D-Sub). Порты HDMI и DisplayPort могут быть представлены как полноразмерными, так и mini-версиями (для подключения монитора потребуется переходник). Интерфейс DVI существует в двух версиях: только цифровой DVI-D и спаренный с аналоговым сигналом DVI-I (через пассивный переходник можно конвертировать в VGA).

Многие современные флагманские видеокарты полностью лишены интерфейса VGA (напрочь отсутствует цифро-аналоговый преобразователь), но подключить к ним VGA-монитор все же можно через активный переходник с собственным ЦАП.

Не только игры, но и работа

Используются видеокарты не только для игр, но и для профессиональных задач: фотообработки, видеомонтажа, трехмерного моделирования и др. На основе видеокарт даже строят суперкомпьютеры – мощнейшие вычислительные системы на планете, занимающиеся научными вычислениями. Ускорить профессиональные приложения способна даже бюджетная видеокарта, раскошеливаться на флагманскую модель не обязательно. В зависимости от конкретного приложения, эффективнее могут быть как решения AMD, так и NVIDIA. Например, в видеоредакторе Adobe Premiere видеокарты обоих брендов могут аппаратно ускорять конвертацию видео из одного формата в другой. Но только видеокарты NVIDIA ускоряют работу плагинов, накладывающих на видео различные визуальные и звуковые эффекты. А некоторое узкоспециальное ПО вообще совместимо только с профессиональными видеокартами – NVIDIA Quadro и AMD FirePro.

Синхронизация видеокарты и компьютера

Как отключить вертикальную синхронизацию видеокарты?

Вертикальная синхронизация предназначена для того, чтобы в компьютерной игре картинка на экране не разрывалась. При работе синхронизации изображение и частота монитора синхронизируются и обновляются одновременно. Это помогает избавиться от артефактов и всяческих нежелательных эффектов при игре, и, как правило, повышает стабильность изображения. Однако, случается так, что включенная синхронизация может существенно снизить производительность в игре. Это бывает довольно редко, но встречается в наши дни.

Если Вы хотите отключить эту опцию непосредственно в игре, тогда Вам нужно найти пункт под названием «Опции», «Параметры», либо «Настройки». Далее что-либо похожее на подпункт «Настройки видео». В нем найдите опцию «Вертикальная синхронизация» (иногда он не переводится и обозначен как V-Sync или Vertical Sync). Затем выберите нужное состояние этой опции «Выключить» (в английских версиях – Disabled). В зависимости от игры нужно дополнительно нажать «Применить», но эта кнопка присутствует не во всех играх. Изменения вступят в силу либо сразу же, либо Вы увидите сообщение, что нужен перезапуск игры.

Однако, случается и так, что приложение либо игра не имеют опции включения/выключения вертикальной синхронизации. В этом случае настройку приходится производить через драйвер, установленный для Вашей модели видеокарты. В зависимости от того, nVidia это или Radeon, процесс настройки несколько различен.

Если видеокарта принадлежит семейству nVidia, то следует кликнуть правой клавишей мыши по рабочему столу, в открывшемся меню найти пункт «Панель управления nVidia». Либо тот же пункт можно найти через панель управления в меню «Пуск». Если Вы не смогли найти этого пункта ни первым, ни вторым способом, то стоит посмотреть на часы в трее, рядом с ними должен быть значок nVidia, по нему следует кликнуть два раза, в результате откроется нужная Вам панель управления с настройками видеокарты.

В открывшемся меню Вы увидите две части, левая содержит категории, а правая более подробные настройки и информацию. Вам нужен в левой части пункт «Управление параметрами 3D». Далее посмотрите на правую часть окна. Там будет закладка под названием «Глобальные параметры», в которой и находится нужная опция «Вертикальный синхроимпульс». Теперь Вы можете ее отключить, если Вам это понадобится.

Если же видеокарта компании Radeon, то все настройки будут производиться через фирменное приложение «Catalyst». Для его запуска нужно щелкнуть правой клавишей мыши по рабочему столу и выбрать пункт Catalyst Control Center. Если его там не будет, тогда действия аналогичны действиям с видеокартами nVidia, то есть либо через панель управления ищем, либо у часов в трее следует найти красный круглый значок, и кликаем но нему дважды.

Далее все действия выполняются по принципу панели управления видеокарт nVidia. Ищем пункт «Игры», после — «Настройки 3D». Далее находим подпункт «Ждать вертикального обновления». Выключать его нужно ползунком, передвинув до упора влево.

голоса
Рейтинг статьи
Ссылка на основную публикацию
ВсеИнструменты
Adblock
detector