- Конфликт встроенной видеокарты и внешней
- Жесткая борьба видеокарт: Видеоматериалы
- HD 7870
- реклама
- реклама
- реклама
- реклама
- RX 560
- R9 290
- GTS 450
- GTX 750 Ti
- GTX 1070
- Как избавиться от разрывов изображения в играх: о вертикальной синхронизации V-sync
- Содержание
- Содержание
- Tearing
- Частота обновления монитора
- V-Sync — вертикальная синхронизация
- G-Sync — синхронизация от Nvidia
- FreeSync — синхронизация от AMD
- FastSync и Enhanced Sync
- Артефакты изображения
- Заключение
Конфликт встроенной видеокарты и внешней
, в интернете масса способов ее устранить, но мне они не помогли.Вытащив внешнюю ВП и Подключив VGA кабель на встроенную видеокарту у меня все заработало при высоком разрешении на том же паке драйверов для Nvidia.
Помогите разобраться, мне бы хотелось пользоваться своей внешней 210, как это устроить?
Мат. плата — MSI K9N6SGM-V (MS-7309 ver. 1.3)
Процессор AMD Athlon 64 X2 Dual core proc 5000+
Встроенная ВП — nvidia geforce 6150se nforce 430
Внешняя ВП — GeForce GT 210 1GB
Windows не имеет значения, пробывал стакать на 3-х разных ОС с разным разрядом.
Ах да Без драйверов внешняя видеоплата ВЫДАЕТ изображение в низком разрешении при наличии встроенной и не наблюдается никаких BSODов.
Помощь в написании контрольных, курсовых и дипломных работ здесь.
Конфликт встроенной и дискретной видеокарты
Ноутбук. Установил Windows 10. Запускаю диспетчер устройств. Обновляю драйвер у встроенной.
Совместная работа встроенной и внешней видеокарты Radeon не могу настроить
Суть такая: есть мать на 880 чипсете со встроенной видеокартой Radeon HD4250. и внешняя видеокарта.
Конфликт встроенной графики и gtx 1050ti
Конфликт встроенной графики и gtx 1050ti процессор ryzen 2200g Вообщем когда включаю пк доходит.
В чем разница встроенной видеокарты на 512 mb, от не встроенной на 512 mb?
В чем разница встроенной видеокарты на 512 mb, от не встроенной на 512 mb?
Источник
Жесткая борьба видеокарт: Видеоматериалы
HD 7870
реклама
Эта статья является ответвлением другой одноименной статьи, и здесь в основном будут видеозаписи из которых я выбирал результаты для основной статьи.
Начнем пожалуй со старой Asus HD 7870, по началу ничего примечательного нет, просто запись теста, разве что видео записано в 60 FPS когда карта захвата работает в режиме 30 FPS, а демо тем временем выдает 10-15 FPS.
Здесь я уже догадался снизить уровень громкости чтобы не превышать громкость при захвате, но при этом упустил момент с записью двух источников звука, т.е. записался как тестовый ПК, так и основной ПК на котором воспроизводился звук тестового ПК.
реклама
Здесь ничего примечательного, просто запись теста.
На этом интро мне пришлось начать отказываться от второго монитора и делать все через задержки карты захвата с разрешением рабочего стола 1920×1080, ибо данное интро само не умеет переводить разрешение экрана в указанное, а монитор не умеет в разрешения выше чем 1440×900.
реклама
Вот и начались игры, здесь я делаю настройки в игре которые будут использованы при всех остальных тестах, играть через карту захвата крайне неприятно в плане задержек, но что поделать, монитора лишнего с разрешением 1920×1080 или выше у меня нет, чтобы подключить и использовать карту захвата только для записи.
Данное видео уже сделано после RX 560, и здесь я наглядно демонстрирую в самом начале настройку из-за которой мне пришлось устанавливать обратно видеокарты и делать тест заново.
реклама
А еще можно заметить что цветопередача от видео к видео страдает, это я меняю между собой HDMI разветвители от MacroSilicon и Lontium, просто разветвитель на основе Lontium обрезает RGB диапазон и картинка в итоге теряет контрастность, такое же обрезание RGB диапазона драйверы nVidia частенько устраивают в зависимости от конфигурации системы.
Здесь я забыл начать запись с рабочего стола, но ничего страшного, тут использовался HDMI разветвитель на основе Lontium, а еще я не сразу понял что нужно сделать на игровой арене.
Игра очень напомнила старый добрый AlienShooter, играть через карту захвата с задержками было крайне неприятно в итоге, но в целом у меня появилось желание купить данную игру в отличие от следующего «образца».
Вот и первая игра на основе UnrealEngine что питает неадекватную любовь к видеокартам nVidia и ярое отвержение к видеокартам AMD.
Но помимо предвзятости игрового движка были замечены проблемы с главным меню игры, а еще не пропускаемые вставки видео перед запуском игры.
Просто предупреждаю всех желающих поиграть в эту «игру», я вырезал музыку инструментами YouTube которая играла в главном меню, на неё заявлены авторские права и забирают монетизацию если она есть, или начинают встраивать рекламу в видео если монетизация не используется.
Это крайне некрасиво со стороны разработчиков использовать в игре музыку которую агрессивно монетизируют.
Кто-то скажет что некрасиво было качать игру бесплатно, но, есть одно НО, скачав игру бесплатно и проверив её, я увидел сплошные проблемы и монетизацию музыки из главного меню на YouTube, я боюсь представить какой кривой ужас происходит в самой игре если судить по массе гневных отзывов в Steam от людей которые потратили деньги на игру.
Тут скорее разработчики игры должны сказать спасибо, что я вообще взял эту игру в тесты и хоть чуть-чуть поднял из пучины неизвестности, вдруг они продолжат работу и доведут игру до адекватного состояния в будущем.
Еще одна игра на UnrealEngine, и так же не без косяков обошлось, каждый раз приходилось с каждой видеокартой устанавливать разрешение экрана заново ибо при старте игра задавала не разрешение рабочего стола а разрешение монитора.
Т.е. если у меня будет разрешением монитора отмечено 3840×2160 то игра установит именно это разрешение, даже если реально монитор рассчитан на 1920×1080 или 2560×1440.
Вот и токийский гуль (голубь. ), до записи видео я пытался найти место более подходящее для замера производительности, но в итоге меня встречали бесконечное наполненные противниками коридоры на которые я потратил как минимум пол часа.
Эта игра чем то напоминает BloodRayne II, правда все слишком замкнуто в помещениях, возможно это только начало такое и дальше будет лучше, но меня не хватило выйти из этих бесконечных однообразных коридоров.
RX 560
Далее идет RX 560, в первом видео ничего интересного кроме раздвоенного звука.
При следующей записи я уже устранил раздвоение звука.
Просто запись теста, ничего особого.
Здесь можно заметить что интро растягивает себя в уже установленное разрешение экрана, даже если выбрать в настройках разрешение 1920×1080, оно все равно будет запущено при разрешении рабочего стола которое было установлено в 1440×900.
В дальнейшем буду оставлять без комментариев видеозаписи в которых ничего примечательного не происходит.На этом моменте я вырезал не пропускаемые видеовставки из игры, полагаю многим не нужно объяснять насколько могут раздражать видео перед запуском игр.
Хоть игра и показывает в настройках 1920×1080, но по оверлею MSI Afterburner я прекрасно вижу что игра меня пытается обмануть.
R9 290
При каждой смене видеокарты нужно править уровень громкости.
На этом моменте была обнаружена подстава в настройках игры из-за которой мне пришлось перезаписывать тесты на двух предыдущих видеокартах.
Всегда одна и та же проблема с разрешением экрана.
GTS 450
Данная видеокарта далеко не все смогла запустить, так что выложил только то что вышло запустить.
Да, курсор мыши на переднем плане, никогда такого с видеокартами от AMD не случалось, но с видеокартами от nVidia это будет частое явление.
На этом моменте мне в глаза сильно бросился косяк nVidia с ограниченным RGB диапазоном.
Проблема с разрешением будет преследовать даже на видеокартах от nVidia.
Если снизить настройки графики, то вероятно выйдет поиграть в эту игру при разрешении 1920×1080.
GTX 750 Ti
И снова курсор мыши всплыл.
GTX 1070
Вот и настал черед GTX 1070, здесь я столкнулся с необходимостью отключать вертикальную синхронизацию в настройках драйвера, однако диапазон RGB на удивление выставился полным.
Потом я столкнулся с проблемой захвата звука, в процессе я не смог её решить, но как оказалось в будущем нужно было сбросить настройки карты захвата и физически её отключить от ПК, а после подключить заново всё.
Но проблема записи звука была решена уже после записи всех тестов, когда у меня уже появилось желание основательно ковыряться с этим косяком.
Озадаченный курсор мыши, как всегда, на переднем плане с видеокартами от nVidia.
Только видеокарта семейства Pascal в лице GTX 1070 вызывает ошибку при выходе из игры и подготовку отчета об ошибке, я это уже далеко не в первый раз замечаю.
Источник
Как избавиться от разрывов изображения в играх: о вертикальной синхронизации V-sync
Содержание
Содержание
Проблемы с качеством изображения в видеоиграх могут возникнуть у любого геймера. Независимо от того насколько мощный у вас ПК. Хотя на старых «машинах» такое встречается все же чаще. В статье разберем, что такое V-sync и чем отличается от G-Sync или FreeSync.
Tearing
Разрывы кадров (известные также как тиринг, от англ. Tearing), словно некто порезал картинку в игре на части и неровно склеил, могут серьезно попортить нервы геймеру. Не дав вам возможности, не то что с головой погрузиться в игру, но и просто нормально ее пройти. Выглядит это так:
Чтобы понять, как бороться с разрывами изображения, нужно знать причину их появления. Тут все предельно просто — тиринг вызван отсутствием синхронизации работы видеокарты и монитора. То есть видеокарта генерирует кадры с непостоянной частотой (это называется FPS, фреймрейт). Скорость создания новых кадров зависит от сложности 3D-сцены в видеоигре. Монитор же способен выводить кадры только с фиксированной частотой. Вот из этого несоответствия и рождаются разрывы изображения.
Если бы видеокарта по умолчанию успевала бы отрисовывать кадры перед отправкой их на монитор (как показано на схеме), то разрывы картинки канули бы в Лету. Но это недостижимая мечта.
Для плавной картинки, которую способно воспринимать человеческое зрение нужно минимум 25 к/с, иначе задержки становятся видны невооруженным глазом. Например, у вас монитор с частотой обновления 60 Гц (60 к/с). И слабенькая видеокарта, которая не справляется с генерацией кадров. Она не поспевает за монитором — тот обновляет картинку быстрее, чем видеокарта обрабатывает новые сцены. Поэтому, вместо нового целого кадра, который видеочип не успел создать полностью, монитору приходится показывать половину нового и половину старого кадра. Это и есть разрыв изображения.
Понятно, что эта конкретная проблема вызвана программной стороной медали. Поэтому и исправлять ее мы будем тоже программно.
Частота обновления монитора
Но прежде небольшое лирическое отступление про мониторы. Разные модели могут отличаться частотой обновления изображения. Стандартные 60 Гц — для обычных геймеров, максимальные 240 Гц — для киберспортсменов. Чем выше частота (известная также как вертикальная разверстка монитора), тем чаще обновляется изображение. И тем выше шанс, что задержек изображения и разрывов станет меньше. Однако в корне это проблему не решает. Есть куда более изящное решение, не требующее от вас покупки нового «киберспортивного» монитора.
Схема, наглядно показывает разницу во времени для мониторов с разной частотой обновления.
Еще лучше разницу частоты обновления в мониторах демонстрирует данное видео.
V-Sync — вертикальная синхронизация
И тут на сцену выходит технология V-Sync, известная как вертикальная синхронизация. Каждый внимательный геймер находил такой пункт в настройках практически любой видеоигры. При желании ее можно найти и в интерфейсе для вашей видеокарты под названием «Вертикальный синхроимпульс» (для интерфейса Nvidia). Это пригодится, если в настройках игры нет пункта «Вертикальная синхронизация» (такое часто можно наблюдать в инди-играх).
Вертикальная синхронизация — это технология, которая синхронизует работу видеокарты и монитора. При ее включении генерация кадров графическим процессором привяжется к частоте отображения кадров монитора.
Какие плюсы несет игроку такая привязка? Во-первых, гарантированно исчезнут разрывы изображения.Теперь кадры будут поступать на монитор в такт с частотой обновления изображения. Картинка в видеоигре станет плавной и красивой.
Во-вторых, если видеокарта мощная и выдает FPS больше, чем позволяет отобразить стандартный монитор (60 Гц), то вертикальная синхронизация снизит нагрузку на видеочип. Это позволит уменьшить нагрев видеокарты и шум системы охлаждения. Нетрудно догадаться, что это продлит срок службы графического процессора.
Казалось бы, все прекрасно. Врубай V-Sync и наслаждайся игрой. Но не тут то было. Подводные камни вертикальной синхронизации куда больше айсберга, потопившего легендарный Титаник. Большинство геймеров V-Sync выключают и терпят разрывы кадров. Почему?
Схематичная работа видеокарты и монитора при отключенной вертикальной синхронизации. Картинку рвет на две части.
Потому что включенная V-Sync может вызывать задержки вывода картинки (тормоза, фризы, инпут-лаг) во время игры. Это связано с тем, что рендеринг кадра в сложной сцене занимает больше времени, чем цикл отображения изображения на мониторе. И, если без V-Synk монитор покажет нам разорванную картинку из двух кадров, но без задержек, то в обратном случае мы увидим на экране снова старый кадр. То есть игра, хоть и на короткое время, но подвиснет.
Схематичная работа видеокарты и монитора при включенной вертикальной синхронизации. Один и тот же кадр нам показывают два раза. А это означает подвисание картинки.
Чем это хуже разрыва изображения? Тем, что в динамичной игре (особенно онлайн) а-ля CS Go или Doom Eternal вас просто подстрелят во время такого фриза. Или вы не сможете нормально прицелиться и совершить выстрел. Уж лучше разрыв кадра, чем пуля или в лоб или удар энергетическим топором по голове во время фриза. Мародер не даст соврать.
Тогда зачем она нужна? Вертикальная синхронизация хороша для «медленных» игр с одиночным прохождением. Таких, где вопрос визуальной красоты стоит важнее, чем скорость геймплея. Например, The Vanishing of Ethan Carter. Также ее рекомендуют включать, если вы играете в старую игру на мощном ПК (чтоб увеличить срок службы видеочипа).
Существует еще Adaptive Sync — адаптивная синхронизация, которая представляет собой улучшенную версию вертикальной. Она «адаптируется» под ситуацию и работает так: если появились разрывы — убирает их, включая V-Sync. А если картинка сильно тормозит — ускоряет ее, отключая V-Sync. Что приводит к появлению тиринга. Это, своего рода, «костыль», который кардинально проблему не решает.
В итоге игроки оказываются перед выбором: плавная картинка с задержками или рваное изображение, но без тормозов. Куда не кинь — всюду клин. Однако разработчики NVIDIA сумели избавить игровую индустрию и от этой дилеммы.
G-Sync — синхронизация от Nvidia
Отличие G-Sync от V-Sync заключается в том, что за рендеринг кадров и вывод их на монитор здесь полностью отвечает видеокарта. Она генерирует кадры и «приказывает» монитору их выводить только тогда, когда кадр полностью отрисован. При таком подходе частота обновления изображения из постоянной величины превращается в динамическую (при V-Sync или без нее — время обновления всегда жестко фиксировано). То есть, как только кадр готов, он сразу же появляется на экране — игроку не приходится ждать окончания цикла обновления изображения.
Плавность изображения – результат работы G-Synk. Кадры поступают на монитор сразу же после их полной отрисовки
Технология G-Sync избавляет геймера от разрывов изображения, зависаний картинки, рывков и артефактов, связанных с выводом кадров на монитор. Плавная быстрая цельная картинка — предел мечтаний true-геймера, но…
Во-первых, G-Sync имеет ограниченный диапазон использования, выраженный в FPS: от 30 к/с до 240 к/с. Максимальная планка зависит от вашего монитора. Например, 30–60 к/с для стандартного 60 Гц экрана. И если FPS упадет ниже границы и станет 25 к/с, то толку от G-Sync будет не больше, чем от обычной вертикальной синхронизации.
Во-вторых, воспользоваться G-Sync смогут только те пользователи, у которых и видеокарта, и монитор поддерживают данную технологию. И к тому же, оснащены популярным интерфейсом DisplayPort 1.2. И если с видеочипом все просто (G-Sync поддерживают все видеокарты, начиная с GeForce GTX 650 Ti Boost и выше), то монитор, возможно, придется сменить. А модели, поддерживающие данную технологию, стоят дороже, чем устройства без нее. Но и тут у нас есть альтернатива…
FreeSync — синхронизация от AMD
FreeSync — это аналог и ответ компании AMD на технологию Nvidia G-Sync. Она обеспечивает все те же прелести, что и ее предшественник, но за меньшую стоимость. Это объясняется тем, что G-Sync это запатентованная технология от Nvidia, использование которой требует лицензии (то есть дополнительных трат от производителей мониторов). FreeSync от AMD распространяется бесплатно.
Для ее использования вам понадобятся: подходящая видеокарта, монитор и интерфейс DisplayPort. Здесь подойдет видюха, начиная с серии Radeon HD 7000, выпущенной в 2012 году и любые новые экземпляры. Мониторов, поддерживающих данную технологию, тоже немало. И стоят они значительно дешевле, чем их G-Synk конкуренты. Еще один плюс FreeSync — увеличенный диапазон использования от 9 к/с до 240 к/с.
Отметим, что FreeSync можно запустить, даже имея на борту связку — видеокарта Nvidia+FreeSync монитор. Нужна лишь любая видеокарта Nvidia Geforce серии 10 (с архитектурой Pascal) и более новые, поддерживающие DisplayPort Adaptive-Sync. И немного сноровки для включения FreeSync в настройках NVidia.
Существует несколько уровней технологии FreeSync. На скриншоте хороша видна разница между ними.
Оценить разницу в ощущениях от изображения без вертикальной синхронизации, с ней, а также с G-Sync (на FreeSync будет аналогично) можно на видео ниже.
Когда целесообразно использовать G-Sync или FreeSync? Если у вас частота монитора существенно выше FPS. Например, у вас топовый 144 Гц монитор и устаревшая видеокарта выдающая, например, 30 к/с. В таком случае использование этих технологий эффективно и оправдано. Если ситуация обратная — современная видеокарта последних серий и монитор 60 Гц — читаем дальше.
FastSync и Enhanced Sync
Чтобы окончательно вас запутать в ворохе всех этих технологий, добавим, что существуют еще два вида синхронизаций — FastSync (быстрая синхронизация) от Nvidia и Enhanced Sync (улучшенная синхронизация) от AMD. Это две аналогичные технологии, которые условно можно назвать промежуточным звеном между V-Sync и G-Sync (FreeSync).
Преимущества быстрой/улучшенной синхронизаций налицо: они убирают разрывы и задержки изображения и при этом не требуют покупки нового монитора. Только наличие подходящей видеокарты. Для Fast Sync это видеокарты с архитектурой Pascal и Maxwell, включая Geforce GTX 1080, GeForce GTX 1070 и GeForce GTX 1060. Enhanced Sync поддерживается любыми графическими процессорами и их комбинациями на основе архитектуры GCN и (или) дисплеями с поддержкой технологии AMD Eyefinity.
Но и здесь есть свои ограничения. Чтобы вышеупомянутые технологии приносили толк, нужно чтобы FPS был значительно выше, чем частота монитора. Например, при FPS 120 к/с и частоте монитора 60 Гц использовать быструю/улучшенную синхронизацию имеет смысл.
Кому это нужно? Обладателям мощных видеокарт и стандартных мониторов 60 Гц. Если монитор 144 Гц, а видеокарта устаревшая и выдает FPS в 75 к/с, то FastSync и Enhanced Sync вам не нужны. Здесь необходимо использовать G-Sync или FreeSync.
Важный момент! Технологии синхронизации могут работать в связке, выдавая максимальную плавность картинки и отсутствие задержки.FastSync+G-Sync, Enhanced Sync+FreeSync — это лучшие на сегодняшний день сочетания, гарантирующие великолепные впечатления от игрового процесса.
Стоит знать еще и то, что быстрая синхронизация (Fast Sync) пока не поддерживается для игр DX12.
Артефакты изображения
С разрывами, подергиваниями и подвисаниями, связанными с проблемами вывода кадров с видеокарты на монитор разобрались. Все остальные неприятности, вызванные другими причинами — это артефакты изображения.
Они представляют собой различные искажения картинки. Это не разрывы кадра. Чаще всего полосы на экране, точки, квадратные и прямоугольные скопления, фантомы и другие искажения. Отметим, что неполадки должны наблюдаться именно во время запуска игр или других «тяжелых» графических приложений, нагружающих видеокарту. Если точки на мониторе висят постоянно, то это битые пиксели. Не перепутайте!
Вот здесь на скриншоте явно не артефакт изображения:
Артефакты изображения могут иметь программное или аппаратное происхождение (как показывает практика, чаще всего второй вариант).
Что можно сделать, чтобы избавиться от артефактов программно:
- Снизить качество графики с «Ультра» до «Низких». Это логично, если видеокарта не справляется с нагрузкой и греется, нужно ее уменьшить.
- Обновить драйвера видеокарты, а также другие необходимые для игры программы — DirectX, библиотеки Visual C++ и .Net Framework. Обычно при установке игры и активном интернет-соединении все вышеперечисленное устанавливается автоматически.
- Откатить драйвера видеокарты и обновления Windows до предыдущей версии. Это обратная сторона медали — бывает, что забагованное обновление ломает стабильную работу системных приложений, вызывая артефакты изображения в играх.
- Провести диагностику видеопамяти. Если найдены ошибки, снижаем тактовую частоту видеочипа и тестируем снова. Снижение частоты особенно актуально для разогнанных видеокарт. Да, это снизит ее производительность, но продлит срок службы и избавит от артефактов. Для этих целей можно воспользоваться программой VMT.
Проблема может крыться и в самой игре. Скачали пиратский репак — получили проблему с изображением. Крайне редкое явление, но может случиться. Тут поможет установка другой версии игры.
Большинство аппаратных проблем, вызывающих артефакты изображения, своими руками решить невозможно. Просто перечислим их для развития кругозора:
- Физическое повреждение видеокарты. На глаз определить сложно (если вы не специалист). Например, вздувшиеся конденсаторы заметить можно, (они видны далеко не на всех видеокартах), а вот отслоение графического чипа вы вряд ли заметите.
- Недостаток питания. Мощные видеокарты требуют дополнительного питания. Вставить ее в слот на материнке одно, другое — нужно дополнительно подключить к блоку питания. И может оказаться так, что новую видюху старый БП просто не тянет. Чаще всего видеокарта просто откажется работать, но функционирование вполсилы с артефактами потенциально возможно.
- Неисправность материнской платы или центрального процессора. Могут вызывать проблемы с изображением, только если видеокарта встроенная. Последние — для гейминга не лучший вариант, но для старых игр — вполне сгодятся.
Единственный момент, который можно исправить самостоятельно — это если искажения возникают из-за перегрева видеокарты (проверяем температуру специальной программой, например Everest). Можно почистить ее от пыли, заменить термопасту или поменять систему охлаждения на более мощную.
Но и здесь стоит понимать, что если графический процессор устаревший и не справляется с современными играми, то хоть лед к нему приложите (так делать точно не стоит) — кардинально ситуацию это не исправит.
В случае возникновения подозрения, что шалит именно «железо», несем его в специализированный сервисный центр.
Заключение
Если вы заядлый геймер или киберспортсмен и сталкмиваетесь с вышеперечисленными проблемами, то покупка монитора с частотой 144 Гц (и выше) с поддержкой G-Sync или FreeSync технологии + соответствующая видеокарта — вопрос решенный.
Если же вы просто играете время от времени и динамичные шутеры — это не про вас, то вполне можно обойтись стандартным монитором 60 Гц и маломощной видеокартой. В таком случае не забудьте включить виртуальную синхронизацию!
Источник