
Обзор от покупателя на Видеокарта GIGABYTE GeForce RTX 2060 1830Mhz PCI-E 3.0 6144Mb 192 bit HDMI 3xDisplayPort GAMING OC (GV-N2060GAMING OC-6GD)
23.10.2020Попробую рассказать Вам о своих впечатлениях за месяц владения видеокартой, вышедшей 15 января 2019 года, в ожидании которой, как альтернативы для менее мощной GTX 1070 (изначально рассматривал к приобретению её), я находился. Пусть она и не на голову, но на 10-15 % мощнее последней (имею ввиду GTX 1070), судя по первым тестам в сети интернет. Для новой “народной” сборки домашнего компьютера, как я думал в самый раз. Как вы уже догадались это видеокарта с графическим процессором Nvidia GeForce RTX 2060.
Первым делом подкупила технология Ray Tracing – трассировка лучей, о которой ниже я Вам расскажу при игре на этой видеокарте ну и плюс мощность, почти как у 1070ti, а также новый стандарт памяти и её скорость.
На момент написания обзора испробовал в двух играх с поддержкой Ray Tracing’а – это Battlefield 5, которая шла в подарок к этой видеокарте при её покупке и Metro Exodus, как с авто настройками через GeForce Experience так и вручную, выставив настройки для комфортной игры. Драйвер на данный момент установлен 419.17. В предпоследней версии “дров” добавили технологию “интеллектуального” сглаживания – DLSS. О ней позже.
Купил я версию от Gigabyte с тремя радиаторами, которые пронизывают четыре 6 мм медные трубки и тремя вентиляторами по 80 мм, подумал, что такая конструкция обеспечит эффективное охлаждение при низком уровне шума.
Коробка:
и комплект поставки:
Поставляется карта в антистатическом пакете с диском (драйвер и утилита) и “мануалом”.
Пройдемся по техническим характеристикам:
Базовая частота: 1680 МГц
Частота в бусте: 1830 МГц
Возможность разгона: Да
Тип памяти: GDDR6
Объем памяти: 6 gb
Частота памяти: 14000 МГц
Разъемы: 1 – HDMI, 3 – DisplayPort (с “антипылевыми” заглушками)
TDP: 160 Вт
Длина: 280 мм
Разъем дополнительного питания: 8 pin
Необходимая мощность блока питания: 500 Вт
и доступному функционалу:
Первые два основных момента это Raytracing и DLSS, но о них подробнее еще рано.
У данной видеокарты есть RGB подсветка надписи “Gigabyte” (извините за качество фото)
– настраивается цвет и эффекты в официальной программе от “гиги” (не за шаги) – RGB Fusion,
без программы в стандарте цвет меняется просто затуханием и включением, через программу можно задать свой алгоритм изменения и его скорость, а можно и вовсе отключить её. Лично мне эта подсветка не нужна.
Через оф. утилиту опять же от Gigabyte, зовётся она Aorus Engine,
можно разгонять карту, что я пока не пробовал делать.
Есть “бэкплейт”,
металлическая пластина на стороне обратной от стороны охлаждения, которая убережет плату от изгиба со временем ну и заберет часть тепла на себя (пассивное охлаждение), но вот пломб на винтах (вскрытие/гарантия) – нет.
Появилась поддержка AMD Freesync (это для всех видеокарт nvidia, с вроде бы январским драйвером и более поздними версиями) с мониторами, поддерживающими данную технологию (но только при подключении через DisplayPort)
Также мы можем занять два слота расширения, установив эту видеокарту, это же тоже некий функционал =).
Моя сборка, как любят обзорщики – “тестовый стенд”:
Процессор – Intel Core i5 8400
Материнская плата обычная от Gigabyte на B360 чипсете
Оперативная память Corsair Vengeance две планки по 8 gb с частотой 2400 МГц
SSD’шник на 120 Гб, на котором установлена система
HDD 1Tb для всего прочего
Блок питания Be Quiet System Power 9 500 Вт
Корпус Thermaltake Versa H17
5 корпусных вентиляторов Arctic Cooling с возможностью управления частотой вращения через 4 pin разъемы в материнской плате
Монитор Samsung 27″ 1920×1080
Я ничего не разгонял. Всё как поставил (и забыл или забил, как угодно), так и осталось работать в стоке.
Теперь про мои впечатления и про новые технологии (пора бы уже):
– Raytracing, про эту технологию уже есть огромное количество видео обзоров, что это и как, ну “в двух словах” – более реалистичное отражение на поверхностях объектов различных предметов, световых эффектов, которые могут на них отражаться за счет направленного светового потока (естественно искусственного), это как я понял и своими словами, может и неправильно, но вот, что я уяснил еще: да, технология добавляет реализма, но есть как минимум два “но”:
1) В жизни всё гораздо сложнее (в плане отражения/преломления света). В сети интернет есть хорошее видео от наших обзорщиков, где они объясняют суть этой фишки с точки зрения квантовой физики (показывают смоделированную сцену с двумя фигурами разного цвета и направленного с разных сторон и под разным углом источника света, как вливает цвет одного объекта на цвет отражения второго объекта на стене сцены и т.п.), очень познавательно и интересно. В общем смоделировать “жизнь” в игре – это очень трудоёмкий процесс (если уж совсем придираться), соответственно требующий “более” высокотехнологичных видеокарт. Тем не менее технология, хоть какая, но есть!
2) Поверьте, в игре Battlefield 5, с учетом динамики сражений в боях, вы просто на просто этот “рэй трэйсинг” не успеете увидеть. В Metro Exodus, в отдельных тёмных локациях технология наоборот как бы освещает их (падение света через отверстия в канализационных трубах от луны, к примеру, с последующим его отражением от стенок).
Идём далее…
– DLSS или “интеллектуальное сглаживание”, должно было добавить прирост производительности при включенном RTX, но пока что я увидел только “мыльную” картинку при 1920×1080, говорят на более высоком разрешении гораздо лучше, в общем для моего FHD ну так себе решение, хотя вот патч “первого дня” для Metro Exodus якобы исправил эту проблему.
Итак, что я отметил для себя:
– Производительность находится на высоком уровне, скрины с FPS я выкладывать не буду, тестов полно в интернете. Карты хватает для высоких/ультра настроек всех современных игр (естественно не через утилиту Geforce Experience, а вручную) (Kingdome Come Deliverance, Metro Exodus, Battlefield 5, World of Tanks, Need For Speed Payback, Watch Dogs 2, GTA 5, Battlefield 1, Tom Clancy’s The Division – это те, что есть у меня);
– По поводу настроек через Geforce Experience – Вы знаете, это уже не смешно, что ни драйвер для этой видеокарты, настройки в Battlefield 5 рекомендуются то с RTX то без RTX, это как? А для чего тогда этой карте данная технология? Скажу, что оптимально (если без DLSS) – все настройки на “ультра”, DirectX 12 соответственно и RTX на минимум, это для всех локаций (на некоторых локациях, менее зависящих от уровня RTX вашей карты (я про количество тензорных ядер и т.п.) можно включать и значения RTX гораздо выше, чем минимальные, опять же всё методом проб). Для себя же я просто включил DX12, отключил RTX и все настройки оставил на “ультра”. Для чего же я взял такую карту, если этим RTX не пользуюсь, спросите Вы. Наличие RTX ядер (я напишу не по-научному, непрофессионально, но так, как я понял) – это дополнительный прирост производительности видеокарты, опять же вычитал это в просторах интернета, следовательно карту я взял с запасом производительности на будущее. И в конце концов, технологию эту никто не отменял, поигравшись с игровыми настройками, её можно включить (чисто для успокоения, что вроде она есть=));
– Температура с таким охлаждением в BF 5 без RTX (max t) – 61 градус, с RTX (max t) – 67 градусов. В обоих случаях вентиляторы карты не слышно, поэтому думаю нет смысла писать про количество их оборотов. Тихо и тихо, эффективно и эффективно. Дополнительно при нагреве PCIE16x разъема начиная с 40 градусов, смоделировал алгоритм повышения частоты вращения 5-ти 120 мм корпусных вентиляторов через специальную программу, что естественно тоже влияет на температуру видеокарты, поэтому возможно без них видеокарта и больше прогреется (не замерял). До 50-ти градусов, вентиляторы “видюхи” не вращаются, а вот после 50 их старт слышно, но только старт, далее тишина (особенность систем охлаждения от Gigabyte, как я понял не является деффектом);
– Да, бывает слышно “потрескивание” дросселей, но оно не такое громкое.
Вроде расписал всё, что хотел, как обычный потребитель. Видеокартой я доволен. Проблем пока не выявил. Никаких артефактов и всего прочего, что мне бы бросалось в глаза или резало слух (я про посторонние шумы) – нет. Считаю, что на начало 2019 года, такая карта является хорошим вариантом с запасом производительности впрок. Про цену ничего комментировать не буду, все итак знают, что сейчас всё дорого. Дешевле подобную карту с одним/двумя вентиляторами охлаждения покупать себе не стал бы, но я в то же время понимаю, что может кто-то и хочет собрать компактную систему или корпус не позволяет поставить карту такой длины.
Карту рекомендую.