Обзор и тестирование NVIDIA GeForce GTX TITAN X: избиение младенцев. Обзор и тестирование супервидеокарты NVIDIA TITAN X: демонстрация превосходства карты nvidia titan x

Представляем базовый детальный материал с исследованием Nvidia Geforce GTX Titan X.

Объект исследования : Ускоритель трехмерной графики (видеокарта) Nvidia Geforce GTX Titan X 12288 МБ 384-битной GDDR5 PCI-E

Сведения о разработчике : Компания Nvidia Corporation (торговая марка Nvidia) основана в 1993 году в США. Штаб-квартира в Санта-Кларе (Калифорния). Разрабатывает графические процессоры, технологии. До 1999 года основной маркой была Riva (Riva 128/TNT/TNT2), с 1999 года и по настоящее время - Geforce. В 2000 году были приобретены активы 3dfx Interactive, после чего торговые марки 3dfx/Voodoo перешли к Nvidia. Своего производства нет. Общая численность сотрудников (включая региональные офисы) около 5000 человек.

Часть 1: Теория и архитектура

Как вы уже знаете, ещё в середине прошлого месяца компания Nvidia выпустила новую топовую видеокарту под названием Geforce GTX Titan X, которая стала мощнейшей на рынке. У нас сразу же вышел подробный обзор по этой новинке, но он содержал лишь практические исследования, без теоретической части и синтетических тестов. Так получилось из-за разных обстоятельств, в том числе от нас не зависящих. Но сегодня мы исправляем этот недочёт и очень подробно рассмотрим мартовскую новинку - за месяц не произошло ничего такого, чтобы она потеряла актуальность.

Ещё в далёком 2013 году Nvidia выпустила первое решение новой марки видеокарт Geforce GTX Titan, названного по имени суперкомпьютера в Окриджской национальной лаборатории. Первая модель новой линейки установила новые рекорды, как по производительности, так и по цене - рекомендованная цена для рынка США была установлена в $999. Это была первая элитная видеокарта серии Titan, которая затем продолжилась не самой популярной двухчиповой Titan Z и ускоренной Titan Black, получившей полностью разблокированный графический процессор GK110 ревизии B.

И вот весной 2015 года настало время для ещё одной новинки Nvidia из «титановой» премиальной серии. Впервые GTX Titan X была показана президентом компании Дженсеном Хуангом на игровой конференции для разработчиков GDC 2015 на мероприятии по игровому движку Epic Unreal Engine. По сути, эта видеокарта в любом случае незримо участвовала на шоу, будучи установленной во многие демостенды, но Дженсен представил её официально.

До выхода Geforce GTX Titan X, быстрейшей одночиповой видеокартой являлась Geforce GTX 980 , основанная на чипе GM204 той же графической архитектуры Maxwell, представленном в сентябре прошлого года. Эта модель является весьма энергоэффективной, обеспечивая приличную вычислительную мощь при потреблении всего лишь 165 Вт энергии - то есть, она вдвое более энергоэффективна по сравнению с предыдущим поколением Geforce.

При этом GPU архитектуры Maxwell поддерживают грядущий DirectX 12 (включая Feature Level 12.1) и другие новейшие графические технологии компании: имитацию глобального освещения Nvidia Voxel Global Illumination (VXGI, о нёй мы писали в статье по GTX 980), новый метод сглаживания Multi-Frame sampled AA (MFAA), динамическое повышенное разрешение Dynamic Super Resolution (DSR) и др. Сочетание производительности, энергоэффективности и возможностей сделало чип GM204 самым лучшим продвинутым графическим процессором на момент его выхода.

Но всё когда-то меняется, и на замену GPU с 2048 вычислительными ядрами и 128 текстурными модулями пришёл новый графический процессор на основе этой же архитектуры Maxwell второго поколения (первое мы помним по чипу GM107, на котором основана видеокарта Geforce GTX 750 Ti) и теми же возможностями, но уже с 3072 вычислительными ядрами CUDA и 192 текстурными блоками - всё это упаковали уже в 8 миллиардов транзисторов. Понятное дело, Geforce GTX Titan X сразу же стал самым мощным решением.

На самом деле, топовый чип второго поколения Maxwell, который мы теперь знаем под кодовым именем GM200, был готов у Nvidia ещё какое-то время до его анонса. Просто не было особого смысла выпускать ещё одну топовую модель видеокарты, когда даже Geforce GTX 980 на основе GM204 прекрасно справлялась с задачей быстрейшей одночиповой видеокарты в мире. Компания Nvidia какое-то время ждала выхода более мощного решения от AMD на базе GPU, произведённого по тому же 28 нм техпроцессу, но так и не дождалась.

Вероятно, чтобы продукт совсем не «прокис» в отсутствие реальной конкуренции, его всё же решили выпустить, закрепив за собой звание компании, выпускающей самые мощные GPU. И действительно, ждать решения соперника смысла не было, ведь его отложили как минимум до июня - столько времени ждать просто невыгодно. Ну а в случае чего, всегда можно выпустить ещё более мощную видеокарту на основе этого же графического процессора, но работающего на более высокой частоте.

Но зачем вообще нужны столь мощные решения в эпоху распространения мультиплатформенных игр с довольно средними требованиями к мощности GPU? Во-первых, совсем скоро должны появиться первые игровые приложения, использующие возможности DirectX 12, пусть даже и мультиплатформенные - ведь ПК-версии таких приложений практически всегда предлагают более качественную графику, дополнительные эффекты и текстуры более высокого разрешения. Во-вторых, уже сейчас вышли DirectX 11 игры, которые могут использовать все возможности мощнейших GPU - вроде Grand Theft Auto V, про которую мы подробнее расскажем ниже.

Важно, что графические решения архитектуры Maxwell от Nvidia полностью поддерживают так называемый уровень возможностей Feature Level 12.1 из DirectX 12 - максимальный из известных на данный момент. Компания Nvidia уже давно предоставляла игровым разработчикам драйверы с поддержкой будущей версии DirectX, а теперь они стали доступны и пользователям, установившим Microsoft Windows 10 Technical Preview. Неудивительно, что именно видеокарты Geforce GTX Titan X использовались для демонстрации возможностей DirectX 12 на игровой конференции разработчиков Game Developers Conference, где модель и была впервые показана.

Так как рассматриваемая модель видеокарты от компании Nvidia основана на топовом графическом процессоре архитектуры «Maxwell» второго поколения, которую мы уже рассматривали и которая в деталях схожа с предыдущей архитектурой «Kepler», то перед прочтением данного материала полезно ознакомиться с более ранними статьями о видеокартах компании Nvidia:

  • Nvidia Geforce GTX 970 - Неплохая замена GTX 770
  • Nvidia Geforce GTX 980 - Последователь Geforce GTX 680, обгоняющий даже GTX 780 Ti
  • Nvidia Geforce GTX 750 Ti - Maxwell начинает с малого... несмотря на Maxwell
  • Nvidia Geforce GTX 680 - новый однопроцессорный лидер 3D-графики

Итак, давайте рассмотрим подробные характеристики видеоплаты Geforce GTX Titan X, основанной на графическом процессоре GM200.

Графический ускоритель Geforce GTX Titan X
Параметр Значение
Кодовое имя чипа GM200
Технология производства 28 нм
Количество транзисторов около 8 млрд.
Площадь ядра около 600 мм 2
Архитектура Унифицированная, с массивом общих процессоров для потоковой обработки многочисленных видов данных: вершин, пикселей и др.
Аппаратная поддержка DirectX DirectX 12, с поддержкой уровня возможностей Feature Level 12.1
Шина памяти 384-битная: шесть независимых контроллеров памяти шириной по 64 бита с поддержкой GDDR5-памяти
Частота графического процессора 1000 (1075) МГц
Вычислительные блоки 24 потоковых мультипроцессора, включающих 3072 скалярных ALU для расчетов с плавающей запятой одинарной и двойной точности (с темпом 1/32 от FP32) в рамках стандарта IEEE 754-2008;
Блоки текстурирования 192 блока текстурной адресации и фильтрации с поддержкой FP16- и FP32-компонент в текстурах и поддержкой трилинейной и анизотропной фильтрации для всех текстурных форматов
Блоки растеризации (ROP) 6 широких блоков ROP (96 пикселей) с поддержкой различных режимов сглаживания, в том числе программируемых и при FP16- или FP32-формате буфера кадра. Блоки состоят из массива конфигурируемых ALU и отвечают за генерацию и сравнение глубины, мультисэмплинг и блендинг
Поддержка мониторов Интегрированная поддержка до четырех мониторов, подключенных по интерфейсам Dual Link DVI, HDMI 2.0 и DisplayPort 1.2
Спецификации референсной видеокарты Geforce GTX Titan X
Параметр Значение
Частота ядра 1000 (1075) МГц
Количество универсальных процессоров 3072
Количество текстурных блоков 192
Количество блоков блендинга 96
Эффективная частота памяти 7000 (4×1750) МГц
Тип памяти GDDR5
Шина памяти 384-бит
Объем памяти 12 ГБ
Пропускная способность памяти 336,5 ГБ/с
Вычислительная производительность (FP32) до 7 терафлопс
Теоретическая максимальная скорость закраски 96 гигапикселей/с
Теоретическая скорость выборки текстур 192 гигатекселей/с
Шина PCI Express 3.0
Разъемы Один разъем Dual Link DVI, один HDMI 2.0 и три DisplayPort 1.2
Энергопотребление до 250 Вт
Дополнительное питание Один 8-контактный и один 6-контактный разъемы
Число слотов, занимаемых в системном корпусе 2
Рекомендуемая цена $999 (США), 74990 руб (Россия)

Новая модель Geforce GTX Titan X получила наименование, продолжающее линейку премиальных решений Nvidia специфического позиционирования - к нему просто добавили букву X. Новинка пришла на замену модели Geforce GTX Titan Black, и в текущей продуктовой линейке компании располагается на самом верху. Выше её остаётся разве что двухчиповая Geforce GTX Titan Z (хотя её уже можно и не упоминать), а ниже - одночиповые модели GTX 980 и GTX 970. Рекомендованная цена на новую плату составляет $999, и это ожидаемо для платы линейки Titan, так как она является лучшим по производительности решением на рынке одночиповых видеокарт.

Рассматриваемая модель компании Nvidia сделана на базе чипа GM200, имеющего 384-битную шину памяти, а память работает на частоте 7 ГГц, что даёт пиковую пропускную способность в 336,5 ГБ/с - в полтора раза больше, чем в GTX 980. Это весьма впечатляющее значение, особенно если вспомнить новые методы внутричипового сжатия информации, используемые в Maxwell второго поколения, помогающие использовать имеющуюся ПСП куда эффективнее, чем GPU конкурента.

С такой шиной памяти, объём установленной на видеокарту видеопамяти мог быть 6 или 12 ГБ, но в случае элитной модели было принято решение по установке 12 ГБ, чтобы продолжить тренд, заданный первыми моделями GTX Titan. Этого более чем достаточно для запуска любых 3D-приложений без оглядки на параметры качества - такого объёма видеопамяти хватит абсолютно для любой существующей игры в любом разрешении экрана и при любых настройках качества, что делает видеокарту Geforce GTX Titan X особенно заманчивой с видом на перспективу - её владелец никогда не столкнётся с нехваткой видеопамяти.

Официальная цифра энергопотребления для Geforce GTX Titan X составляет 250 Вт - столько же, что и у других одночиповых решений элитной серии Titan. Интересно, что 250 Вт примерно на 50% больше по сравнению с GTX 980, на столько же выросло и количество основных функциональных блоков. Никаких проблем довольно высокое потребление не приносит, референсный кулер прекрасно справляется с рассеиванием такого количества тепла, а уж системы энтузиастов после GTX Titan и GTX 780 Ti давно готовы к подобному уровню энергопотребления.

Архитектура

Модель видеокарты Geforce GTX Titan X основана на новом графическом процессоре GM200, который включает все архитектурные возможности чипа GM204, поэтому всё сказанное в статье по GTX 980 относится в полной мере и к премиальной новинке - советуем ознакомиться сначала с тем материалом, в котором более полно рассмотрены именно архитектурные особенности Maxwell.

Графический процессор GM200 можно назвать экстремальной версией GM204, возможной в рамках технологического процесса 28 нм. Новый чип больше по размеру, значительно быстрее и более требователен к питанию. По данным компании Nvidia, «большой Maxwell» включает 8 миллиардов транзисторов, которые занимают площадь порядка 600 мм 2 - то есть, это самый большой графический процессор компании. «Большой Maxwell» имеет на 50% больше потоковых процессоров, на 50% больше блоков ROP и на 50% большую ПСП, поэтому и имеет почти в полтора раза большую площадь.

Архитектурно видеочип GM200 полностью соответствует младшей модели GM204, он также состоит из кластеров GPC, в которые собрано по несколько мультипроцессоров SM. Топовый графический процессор содержит шесть кластеров GPC, состоящих из 24 мультипроцессоров, всего он имеет 3072 вычислительных CUDA ядер, а текстурные операции (выборка и фильтрация) производятся при помощи 192 текстурных модулей. И при базовой частоте в 1 ГГц, производительность текстурных модулей составляет 192 гигатекселя/сек, что более чем на треть превышает аналогичную характеристику предыдущей мощнейшей видеокарты компании - Geforce GTX 980.

Мультипроцессор второго поколения Maxwell разбит на четыре блока CUDA-ядер по 32 штуки (всего 128 ядер на SMM), каждый из которых имеет собственные ресурсы для распределения команд, планирования обработки и буферизации потока инструкций. Благодаря тому, что каждый вычислительный блок имеет свои блоки диспетчера, вычислительные CUDA-ядра используются более эффективно, чем в Kepler, что также снижает и энергопотребление GPU. Сам по себе мультипроцессор по сравнению с GM204 не изменился:

Для улучшения эффективности использования кэшей в GPU, были сделаны многочисленные изменения в подсистеме памяти. Каждый из мультипроцессоров в GM200 имеет выделенные 96 КБ общей памяти, а кэши первого уровня и текстур объединены в 24 КБ блоки - по два блока в мультипроцессоре (всего 48 КБ на SMM). Графические процессоры предыдущего поколения Kepler имели лишь 64 КБ общей памяти, которая также выполняла функции кэш-памяти первого уровня. В результате всех изменений, эффективность CUDA-ядер Maxwell примерно в 1,4 раза выше, чем в аналогичном чипе Kepler, а энергоэффективность новых чипов примерно вдвое выше.

В целом, в графическом процессоре GM200 всё устроено точно так же, как и в рассмотренном нами в 2014 году чипе GM204. Не тронули даже вычислительные ядра, которые умеют выполнять операции с плавающей запятой двойной точности с темпом всего лишь 1/32 от скорости вычислений одинарной точности - точно как у Geforce GTX 980. Такое впечатление, что в Nvidia признали, что выпуск специализированных решений для профессионального рынка (GK210) и для игрового (GM200) вполне обоснован.

Подсистема памяти у GM200 по сравнению с GM204 усилена - она основана на шести 64-битных контроллерах памяти, что в сумме составляет 384-битную шину. Чипы памяти работают на эффективной частоте в 7 ГГц, что даёт пиковую пропускную способность в 336,5 ГБ/с, что в полтора раза выше, чем у Geforce GTX 980. Не забываем и о новых методах сжатия данных от Nvidia, которые позволяют добиться большей эффективной ПСП, по сравнению с предыдущими продуктами - на той же 384-битной шине. В обзоре Geforce GTX 980 мы тщательно рассматривали это нововведение второго поколения чипов Maxwell, которое обеспечивает им на четверть более эффективное использование видеопамяти, по сравнению с Kepler.

Как и все последние видеокарты Geforce, модель GTX Titan X имеет базовую частоту - минимальную для работы GPU в 3D-режиме, а также турбо-частоту Boost Clock. Базовая частота для новинки составляет 1000 МГц, а частота Boost Clock - 1075 МГц. Как и раньше, турбо-частота означает лишь среднюю частоту работы GPU для некоего набора игровых приложений и других 3D-задач, используемых в Nvidia, а реальная частота работы может быть и выше - она зависит от 3D-нагрузки и условий (температуры, потребления энергии и т.д.)

Получается, что частота GPU у новинки примерно на 10% выше, чем было у GTX Titan Black, но ниже, чем у GTX 980, так как большие графические процессоры всегда приходится тактовать на меньшей частоте (а GM200 по площади заметно больше, чем GM204). Поэтому общая 3D-производительность новинки будет примерно на 33% выше, чем у GTX 980, особенно если сравнивать Turbo Boost частоты.

Во всём остальном, чип GM200 ровно ничем не отличается от GM204 - по своим возможностям и поддерживаемым технологиям решения идентичны. Даже модули по работе с дисплеями и видеоданными оставили точно такими же, что и у GM204, на котором основана модель Geforce GTX 980. Соответственно, всё то, что мы писали про GTX 980 и GTX 970, в полной мере относится и к Titan X.

Поэтому по всем остальным вопросам функциональных тонкостей новинки вы можете обратиться к обзорам Geforce GTX 980 и GTX 750 Ti , в которых мы подробно писали об архитектуре Maxwell, устройстве потоковых мультипроцессоров (Streaming Multiprocessor - SMM), организации подсистемы памяти и некоторых других архитектурных отличиях. Там же вы можете ознакомиться и с функциональными возможностями, вроде аппаратной поддержки ускорения расчета глобального освещения VXGI, новых методов полноэкранного сглаживания и улучшенных возможностей графического API DirectX 12.

Решение проблем с освоением новых техпроцессов

Можно уверенно говорить о том, что на рынке видеокарт все давно устали от 28 нм техпроцесса - мы наблюдаем уже четвёртый год использования именно его, а шаг вперёд у TSMC сделать сначала не получалось вовсе, а потом вроде получилось начать 20 нм производство, но толку от него для больших GPU не было - выход годных довольно низкий, и преимуществ по сравнению с отработанным 28 нм не обнаружилось. Поэтому Nvidia и AMD пришлось выжимать из существующих возможностей как можно большее, и в случае чипов архитектуры Maxwell компания Nvidia явно преуспела в этом. По мощности и энергоэффективности GPU этой архитектуры стали явным шагом вперёд, на который AMD просто ничего не ответила - как минимум пока.

Так, из GM204 инженеры Nvidia смогли выжать гораздо больше производительности по сравнению с GK104, при том же уровне энергопотребления, хотя чип увеличился на треть, а большая плотность размещения транзисторов позволила поднять их число ещё больше - с 3,5 млрд. до 5,2 млрд. Понятно, что в таких условиях в составе GM204 оказалось куда больше исполнительных блоков, что вылилось и в большую 3D-производительность.

Но в случае самого большого чипа архитектуры Maxwell, конструкторы Nvidia не могли слишком сильно увеличивать размер чипа, по сравнению с GK110, он и так имеет площадь порядка 550 мм 2 , и увеличить его площадь на треть или хотя бы четверть не представлялось возможным - такой GPU стал бы слишком сложным и дорогим в производстве. Пришлось чем-то пожертвовать (по сравнению со старшим Kepler), и этим чем-то стала производительность вычислений с двойной точностью - её темп у GM200 точно такой же, что и у других решений Maxwell, хотя старший Kepler был универсальнее, подходя и для графических и для любых неграфических расчётов.

Такое решение далось для Kepler нелегко - уж слишком большая часть площади этого чипа была занята FP64-ядрами CUDA и другими специализированными блоками для вычислений. В случае большого Maxwell было решено обойтись графическими задачами и его сделали просто в виде укрупнённой версии GM204. Новый чип GM200 стал чисто графическим, в нём нет специальных блоков для FP64-вычислений, и их темп остался прежним - лишь 1/32 от FP32. Зато большая часть площади GK110, занятая FP64 ALU, освободилась и на их место было помещено большее количество важных для графики FP32 ALU.

Такой ход позволил заметно увеличить графическую (да и вычислительную, если брать FP32-вычисления) производительность по сравнению GK110 без роста энергопотребления и при незначительном увеличении площади кристалла - менее чем на 10%. Интересно, что Nvidia намеренно пошла на разделение графических и вычислительных чипов в этот раз. Хотя GM200 остаётся весьма производительным в FP32-вычислениях, и вполне возможен выход специализированных решений Tesla для вычислений с одинарной точностью, достаточных для многих научных задач, но Tesla K40 остаётся самой производительной для FP64-вычислений.

В этом и отличие от оригинальной Titan, кстати - первое решение линейки могло использоваться и в профессиональных целях для вычислений с двойной точностью, так как оно также имеет темп 1/3 для FP64-расчётов. И многие исследователи использовали GTX Titan в качестве начальной карты для своих CUDA-приложений и задач, при успехе переходя на решения Tesla. Вот для этого GTX Titan X уже не подойдёт, придётся ждать GPU следующих поколений. Если они не будут разделены на графические и вычислительные чипы изначально, конечно.

В картах расширения такое разделение есть уже сейчас - модель Tesla K80 содержит пару чипов GK210, не применяемых в видеокартах и отличающихся от GK110 удвоенным регистровым файлом и разделяемой памятью для большей производительности именно вычислительных задач. Получается, что GK210 можно считать исключительно «вычислительным» процессором, а GM200 - чисто «графическим» (с определённой долей условности, ведь оба GPU имеют одинаковые возможности, просто разной специализации).

Посмотрим, что получится в следующих поколениях графических архитектур компании Nvidia, производимых уже на более «тонком» техпроцессе - возможно, такое разделение в них не понадобится, по крайней мере поначалу. Или наоборот, мы сразу же увидим жёсткое разделение по моделям GPU с разной специализацией (в вычислительных моделях будет больше вычислительных возможностей, а в графических - TMU и ROP блоков, например), хотя архитектура останется единой.

Особенности конструкции видеокарты

Но вернёмся к Geforce GTX Titan X. Это мощнейшая видеокарта, предназначенная для энтузиастов ПК-игр, поэтому она должна иметь и соответствующий внешний вид - оригинальный и солидный дизайн платы и кулера. Как и предыдущие решения линейки Titan, модель Geforce GTX Titan X накрыта алюминиевым корпусом, который и придаёт тот самый премиальный вид видеокарте - она действительно смотрится солидно.

Весьма впечатляюще смотрится и система охлаждения - в конструкции кулера Titan X используется испарительная камера из медного сплава - она охлаждает графический процессор GM200. Испарительная камера соединена с большим двухслотовым радиатором из алюминиевого сплава, который рассеивает тепло, переданное от видеочипа. Вентилятор выводит нагретый воздух вне корпуса ПК, что положительно сказывается на общем температурном режиме в системе. Вентилятор работает очень тихо даже при разгоне и при длительной работе под нагрузкой, и в результате, GTX Titan X с потреблением 250 Вт является одной из самых тихих видеокарт в своём классе.

В отличие от референсной платы Geforce GTX 980, новинка не содержит специальную съёмную пластину, которой прикрыта задняя поверхность платы - это сделано для обеспечения максимального притока воздуха к PCB для её охлаждения. Для питания платы используется набор из одного 8-контактного и одного 6-контактного разъёмов дополнительного питания PCI Express.

Так как Geforce GTX Titan X предназначена для энтузиастов, предпочитающих решения с максимальной производительностью, то все компоненты новой видеокарты подбирались с этим расчётом и даже с некоторым запасом по возможностям и характеристикам.

Например, для обеспечения графического процессора в составе Geforce GTX Titan X энергией, используется 6-фазная система питания с возможностью дополнительного усиления. Для обеспечения работы GDDR5-памяти дополнительно применяется ещё одна двухфазная система питания. 6+2-фазная система питания видеокарты обеспечивает рассматриваемую модель более чем достаточным количеством энергии, даже с учётом разгона. Так, референсная плата Titan X способна подвести до 275 Вт питания к GPU при условии установки максимального значения целевого питания (power target) в 110%.

Также, для дальнейшего улучшения разгонного потенциала, было улучшено охлаждение всех компонентов новинки, по сравнению с оригинальной видеокартой Geforce GTX Titan - изменённый дизайн платы и кулера привёл к улучшению оверклокерских возможностей. В итоге, почти все образцы Titan X способны работать на частоте до 1.4 ГГц и более - при референсном же воздушном кулере.

Длина референсной платы Geforce GTX Titan X составляет 267 мм, на ней установлены следующие разъёмы для вывода изображения: один Dual-Link DVI, один HDMI 2.0 и три DisplayPort. Geforce GTX Titan X поддерживает вывод изображения на дисплеи с разрешением до 5K, и является очередной видеокартой с поддержкой HDMI 2.0, чего до сих пор нет у конкурента - это позволяет подключать новинку к 4K-телевизорам, обеспечивая максимальное качество картинки при высокой частоте обновления в 60 Гц.

Поддержка игровых разработчиков

Nvidia всегда была компанией, которая отличается очень тесной работой с производителями ПО, а особенно - игровыми разработчиками. Чего стоит только PhysX - самый популярный игровой движок физических эффектов, который применяется уже более 10 лет в более чем 500 играх. Широкое распространение PhysX связано в том числе с тем, что он интегрирован в одни из самых популярных игровых движков: Unreal Engine 3 и Unreal Engine 4. Так, на конференции игровых разработчиков Game Developers Conference 2015, компания Nvidia анонсировала свободный доступ к исходным кодам CPU-ориентированной части PhysX 3.3.3 для разработчиков на C++ в вариантах для Windows, Linux, OS X и Android.

Разработчики теперь смогут модифицировать код PhysX движка так, как они пожелают, и модификации даже могут быть затем включены в основной код Nvidia PhysX. Открыв исходники PhysX для всех желающих, Nvidia дала доступ к своему физическому движку ещё более широкому кругу разработчиков игровых приложений, которые могут использовать этот продвинутый физический движок в своих играх.

Nvidia продолжает продвигать и ещё одну свою технологию - довольно новый алгоритм имитации динамического глобального освещения VXGI, который включает поддержку специального аппаратного ускорения на видеокартах с графическими процессорами Maxwell второго поколения, таких как Geforce GTX Titan X.

Внедрение VXGI в игру позволит разработчикам обеспечить весьма качественный расчёт динамического глобального освещения в реальном времени, использующем все возможности современных GPU и обеспечивающем высочайшую производительность. Чтобы понять важность расчёта глобального освещения (рендеринга с учётом не только прямого освещения от источников света, но и его отражения от всех объектов сцены), достаточно посмотреть на пару картинок - с включенным GI и без него:

Понятно, что этот пример искусственный, и в реальности игровые дизайнеры используют специальные методы для имитации глобального затенения, расставляя дополнительные источники света или используя предварительный расчёт освещения - но до появления VXGI они или не были полностью динамическими (предварительно рассчитывались для статической геометрии) или не имели достаточную реалистичность и/или производительность. В будущих же играх вполне можно применять VXGI, и совсем не только на топовых GPU.

Техника VXGI очень понравилась игровым разработчикам. По крайней мере, многие из них попробовали метод в тестовых сценах, очень воодушевлены результатами и рассматривают возможность её включения в свои игры. А вот вам ещё одна сцена с качественным расчётом глобального освещения - по ней тоже видно, насколько важно учитывать лучи света, отражённые от всех поверхностей сцены:

Пока разработчики не внедрили VXGI в собственные движки, можно воспользоваться специальной версией движка Unreal Engine 4 VXGI GitHub, который предоставлен всем заинтересованным разработчикам - это даёт возможность быстрой интеграции VXGI в их игровые (и не только!) проекты, использующие этот популярный игровой движок - впрочем, для этого будут нужны некоторые модификации, VXGI нельзя просто «включить».

Рассмотрим ещё одну технологию Nvidia - полноэкранное сглаживание методом MFAA, обеспечивающее отличную производительность и при этом - приемлемое качество сглаживания. Мы уже писали об этом методе и лишь вкратце повторим суть и перспективы. Поддержка MFAA является одной из ключевых возможностей графических процессоров Maxwell, по сравнению с GPU предыдущих поколений. Используя возможность по программированию позиций для выборок сглаживания при методе MSAA, эти выборки меняются каждый кадр таким образом, что MFAA является практически полноценным MSAA, но при меньшей нагрузке на GPU.

В результате, картинка с включенным MFAA выглядит практически как с MSAA, но потери производительности при этом значительно ниже. К примеру, MFAA 4x обеспечивает скорость на уровне MSAA 2x, а качество сглаживания близко к MSAA 4x. Поэтому в тех играх, где производительности для достижения высокой частоты кадров недостаточно, применение MFAA будет вполне оправдано и может улучшить качество. Вот пример получаемой производительности с MSAA и MFAA на видеокарте Titan X по сравнению с обычной Titan (в 4К-разрешении):

Метод сглаживания MFAA совместим со всеми играми, использующими DirectX 10 и DirectX 11 и имеющими поддержку MSAA (за исключением редких проектов вроде Dead Rising 3, Dragon Age 2 и Max Payne 3). MFAA можно включить вручную в панели управления Nvidia. Также MFAA интегрирована в Geforce Experience, и этот метод автоматически включится для разных игр в случае оптимизации при помощи Geforce Experience. Единственной проблемой является то, что на данный момент MFAA всё ещё не совместима с технологией Nvidia SLI, что обещают исправить в будущих версиях видеодрайверов.

Современные игры на Geforce GTX Titan X

Со всей своей мощью и возможностями, Geforce GTX Titan X способен справиться не только с нынешними играми, но и будущими проектами с поддержкой грядущей версии DirectX 12. Но «поставить на колени» новинку можно и сейчас - с помощью самых требовательных современных игр при максимальных настройках качества, с включенным полноэкранным сглаживанием и высоким разрешением рендеринга - вроде 4K.

В условиях высоких разрешений и включенном сглаживании мощная подсистема памяти становится особенно важной, и у Geforce GTX Titan X с ней всё в полном порядке - 384-битный интерфейс памяти и чипы, работающие на эффективной частоте 7 ГГц обеспечивают пропускную способность в 336,5 ГБ/с - хоть это и не рекорд, но довольно прилично.

А ещё очень важно, чтобы все данные помещались в видеопамять, так как при включении MSAA в разрешении 4K во многих играх объёма видеопамяти просто не хватает - нужно более чем 4 ГБ памяти. И в Titan X есть не просто 6 ГБ, а целых 12 ГБ видеопамяти, ведь эта линейка создана для тех энтузиастов, которые не терпят компромиссов. Понятно, что с таким объёмом набортной памяти игроку не нужно задумываться о том, не снизится ли производительность игры в высоком разрешении при включении мультисэмплинга - во всех играх при любых настройках 12 ГБ будет более чем достаточно.

На данный момент, в абсолютно любой игре можно задавать любые настройки и выбирать любые разрешения - Titan X обеспечит достаточную частоту кадров при (почти) любых условиях. Вот какие игры выбрала Nvidia для демонстрации производительности своего решения:

Как видите, частота кадров в 40 FPS и более обеспечивается в большинстве самых «тяжёлых» современных игр, с включенным полноэкранным сглаживанием, в том числе таких проектах, как Far Cry 4 - в этой игре при Ultra-настройках и сглаживании в 4K-разрешении добиться приемлемой скорости рендеринга можно только на Titan X или на многочиповых конфигурациях.

А с выходом игр будущего, которые будут иметь поддержку DirectX 12, можно ожидать ещё большего роста требований к производительности GPU и видеопамяти - улучшение качества рендеринга «бесплатно» не даётся. Кстати, на тот момент Nvidia ещё не протестировала свою видеокарту Titan X в новейшей игре, вышедшей совсем недавно - ПК-версии Grand Theft Auto V. Эта серия игр является самой популярной среди современных проектов, в ней вы выступаете в роли различных криминальных элементов в декорациях города Лос-Сантос, подозрительно похожего на реальный Лос-Анджелес. ПК-версию GTAV очень ждали и она наконец-то вышла в середине апреля - через месяц после Titan X.

Даже консольные версии (речь о консолях текущего поколения, разумеется) игры Grand Theft Auto V были весьма неплохи по качеству картинки, а уж ПК-версия игры предлагает ещё несколько возможностей для её улучшения: значительно увеличенную дальность прорисовки (объектов, эффектов, теней), возможность игры при 60 FPS и более, в том числе в разрешениях вплоть до 4K. Кроме этого обещают богатый и плотный трафик, множество динамических объектов в сцене, улучшенные погодные эффекты, тени, освещение и т.д.

Применение пары технологий Nvidia GameWorks позволило ещё больше улучшить качество картинки в GTAV. Напомним, GameWorks - это специальная платформа для игровых и графических разработчиков, обеспечивающая их 3D-технологиями и утилитами, предназначенными для видеокарт Nvidia. Добавление технологий GameWorks в игры позволяет сравнительно просто добиться качественной имитации реалистичного дыма, шерсти и волос, волн, а также глобального освещения и других эффектов. GameWorks значительно облегчает задачу разработчиков, обеспечивая примерами, библиотеками и SDK, готовыми к применению в игровом коде.

Игра Grand Theft Auto V использует пару таких технологий от Nvidia: ShadowWorks Percentage-Closer Soft Shadows (PCSS) и Temporal Anti-Aliasing (TXAA), которые улучшают и так неплохую графику в игре. PCSS - это специальная техника рендеринга теней, имеющая лучшее качество, по сравнению с типичными методами мягких теней. PCSS имеет три преимущества: степень мягкости краёв теней зависит от расстояния между объектом, отбрасывающим тень и поверхностью, на которой она рисуется, также обеспечивается более качественная фильтрация, снижающая количество артефактов в виде рваных краёв теней, а использование теневого буфера позволяет грамотно обрабатывать пересечения теней от разных объектов и не допускать появления «сдвоенных» теней.

В результате при включении PCSS в игре обеспечиваются мягкие реалистичные динамические тени, куда лучшего качества, по сравнению с тем, что мы видели на игровых консолях. А для игры вроде Grand Theft Auto V с постоянно перемещающимся по горизонту ярким солнцем качество теней весьма важно, они всегда на виду. По следующим скриншотам можно оценить разницу между двумя самыми качественными методами, применяющимися в игре (алгоритм AMD против метода Nvidia):

Явно видно, что метод PCSS позволяет получить мягкие края теней, которые прогрессивно замыливаются тем больше, чем дальше расстояние между объектом, от которого тень, и поверхностью, «принимающей» тень. При этом, включение PCSS почти не сказывается на итоговой производительности в игре. Хотя этот метод обеспечивает лучшее качество и реализм теней, включение этой опции практически «бесплатно» для производительности.

Ещё одним важным дополнением к ПК-версии игры GTAV можно назвать метод сглаживания Nvidia TXAA. Temporal Anti-Aliasing - это новый алгоритм сглаживания, созданный специально для устранения проблем обычных методов сглаживания, видимых в динамике - когда отдельные пиксели мерцают. Для фильтрации пикселей на экране при помощи этого метода используются сэмплы не только внутри пикселя, но и снаружи его, также совместно с сэмплами из предыдущих кадров, что позволяет получить «киношное» качество фильтрации.

Особенно хорошо преимущество метода перед MSAA заметно на таких объектах с полупрозрачными поверхностями, как трава, листья деревьев и сетки заборов. Также TXAA помогает качественно сгладить попиксельные эффекты. В целом, метод очень качественный и приближается по качеству к профессиональным методам, применяемым в 3D-графике, но результат после TXAA получается слегка более размытый, по сравнению с MSAA, что нравится не всем пользователям.

Падение производительности от включения TXAA зависит от игры и условий, и коррелирует в основном со скоростью MSAA, который также используется в этом методе. Но по сравнению с методами сглаживания чисто постобработкой, вроде FXAA, которые обеспечивают максимальную скорость при меньшем качестве, TXAA призван максимизировать качество при некотором дополнительном падении производительности. Но при таком богатстве и детализации мира, как мы видим в Grand Theft Auto V, включение качественного сглаживания будет весьма полезным.

ПК-версия игры имеет богатые графические настройки, позволяющие получить необходимое качество картинки с требуемой производительностью. Так, GTAV на ПК обеспечивает приемлемую скорость рендеринга и его качества на всех решениях компании Nvidia, начиная примерно с Geforce GTX 660. Ну а чтобы получить полноценное наслаждение всеми графическими эффектами игры, рекомендуется использовать что-то вроде Geforce GTX 970/980 или даже Titan X.

Для проверки настроек в игру встроен тест производительности - этот бенчмарк содержит пять сцен, близких к реальному геймплею, что позволит оценить скорость рендеринга в игре на ПК с разными аппаратными конфигурациями. Но обладателям видеокарт Nvidia можно поступить проще, оптимизировав игру для собственного ПК при помощи Geforce Experience. Это ПО подберёт и настроит оптимальные настройки при сохранении играбельной скорости рендеринга - и всё это делается нажатием одной кнопки. Geforce Experience найдёт лучшее сочетание характеристик и для Geforce GTX 660 с FullHD-монитором, и для Titan X с 4К-телевизором, обеспечив лучшие настройки для конкретной системы.

Полная поддержка игры GTAV появилась в новой сборке драйверов Geforce версии 350.12 WHQL, имеющей специальный оптимизированный профиль для этого приложения. Эта версия драйверов обеспечит оптимальную производительность в игре, в том числе с использованием других технологий компании Nvidia: 3D Vision, 4K Surround, Dynamic Super Resolution (DSR), GameStream, G-SYNC (Surround), Multi Frame Sampled Anti-Aliasing (MFAA), Percentage Closer Soft Shadows (PCSS), SLI и других.

Также, специальный драйвер версии 350.12 WHQL содержит обновленные SLI-профили для нескольких игр, включая и новый профиль для Grand Theft Auto V. В дополнение к SLI-профилям, драйвер обновляет и добавляет профили и для технологии 3D Vision, и профиль для GTAV получил оценку «Excellent», что означает отличное качество стереоизображения в данной игре - обладателям соответствующих очков и мониторов стоит попробовать!

Поддержка технологий виртуальной реальности

Тема виртуальной реальности (Virtual Reality - VR) сейчас является одной из самых громких в игровой индустрии. Во многом, в возрождении интереса к VR «виновата» компания Oculus, которую затем приобрел Facebook. До некоторого времени они показывали лишь прототипы или комплекты SDK, но у них есть планы и по выпуску коммерческой версии шлема Oculus Rift в конце текущего года. Другие компании также не остаются в стороне. К примеру, известная компания Valve анонсировала планы по партнёрству с компанией HTC для выпуска собственного шлема виртуальной реальности также к концу 2015 года.

Естественно, что и производители графических процессоров видят в VR перспективу, и компания Nvidia плотно работает с поставщиками программных и аппаратных решений для виртуальной реальности для того, чтобы обеспечить максимально комфортную их работу совместно с видеокартами Geforce (а то и Tegra, кто знает?). И это - не просто маркетинговые лозунги, ведь чтобы использование VR было комфортным, нужно решить несколько проблем, в том числе снизить задержки между действием игрока (движение головы) и результирующим отображением этого движения на дисплее - слишком большой лаг не просто портит впечатление от виртуальной реальности, но может вызвать так называемую морскую болезнь (укачивание, motion sickness).

Для того, чтобы снизить эту задержку, программное обеспечение VR Direct от Nvidia поддерживает такую возможность, как асинхронное искажение времени (asynchronous time warp). С применением асинхронного искажения времени, отрендеренная некоторое время назад сцена может сдвигаться, основываясь на более поздних движениях головы игрока, которую захватили сенсоры шлема. Это сокращает задержку между действием и выводом изображения, так как GPU не нужно перерасчитывать весь кадр полностью перед сдвигом. Компания Nvidia уже предоставляет драйверную поддержку для разработчиков VR-приложений, и они могут применить асинхронное искажение времени в своём ПО.

Кроме задержки вывода, очень важным для достижения комфортного геймплея в шлеме виртуальной реальности является не просто обеспечение высокой частоты кадров, а вывод кадров для каждого глаза с максимально плавной их сменой. Соответственно, после популяризации VR-шлемов будущего поколения, многие из игроков захотят опробовать из в современных играх, весьма требовательных к мощности GPU. И в некоторых случаях придётся создавать двухчиповую SLI-конфигурацию из пары мощнейших видеокарт вроде Geforce GTX Titan X.

Чтобы обеспечить максимальный комфорт в таких случаях, Nvidia предлагает технологию VR SLI, позволяющую разработчикам игр назначить конкретный GPU из пары для каждого из глаз, чтобы снизить задержки и улучшить производительность. В таком случае, картинку для левого глаза будет рендерить один графический процессор, а для правого - второй GPU. Это очевидное решение снижает задержки и идеально для приложений виртуальной реальности.

Пока что VR SLI и asynchronous time warp недоступны в публичных драйверах Nvidia, но это и не особенно нужно, ведь для их использования требуется изменение исполнимого кода игр. А предварительные версии видеодрайверов для Geforce с поддержкой VR SLI и асинхронного искажения времени доступны для избранных партнёров Nvidia, таких как Epic, Crytek, Valve и Oculus. Ну а публичный драйвер выйдет ближе к выходу конечных VR-продуктов в продажу.

Добавим, что столь мощная видеокарта как Geforce GTX Titan X, применялась во многих демонстрациях виртуальной реальности на игровой конференции для разработчиков в этом году - Game Developers Conference 2015. Вот лишь несколько примеров: «Thief in the Shadows» - совместная разработка Nvidia, Epic, Oculus и WETA Digital – студии, создававшей визуальные эффекты в кинотрилогии «Хоббит», «Back to Dinosaur Island» - перезагрузка известной 14 лет назад демо-программы «X-Isle: Dinosaur Island» от Crytek, а также демонстрации от Valve: «Portal», «Job Simulator», «TheBluVR» и «Gallery». В общем, дело за выходом VR-шлемов в продажу, а уж Nvidia к этому будет готова.

Выводы по теоретической части

С архитектурной точки зрения, новый топовый GPU второго поколения архитектуры Maxwell получился весьма интересным. Как и его «родственники», GM200 взял всё самое лучшее из прошлых архитектур компании, получив дополнительную функциональность и все улучшения второго поколения Maxwell. Поэтому функционально новинка выглядит просто отлично, соответствуя моделям линейки Geforce GTX 900. При помощи серьёзной модернизации исполнительных блоков, инженеры компании Nvidia добились в Maxwell удвоения показателя соотношения производительности к потреблению энергии, прибавив при этом в функциональности - вспоминаем аппаратную поддержку ускорения глобального освещения VXGI и графического API DirectX 12.

Топовая видеокарта модели Geforce GTX Titan X предназначена для игроков-ультраэнтузиастов, которые хотят получить максимальное качество и производительность от самых современных ПК-игр, запущенных в высочайших разрешениях, с максимальными настройками качества, с полноэкранным сглаживанием, и всё это - с приемлемой частотой кадров. С одной стороны, столь мощный GPU требуется немногими играми, да и можно поставить пару менее дорогих видеокарт. С другой - из-за проблем многочиповых решений с увеличенными задержками и неплавностью смены кадров, многие игроки предпочтут один мощный GPU паре менее сильных. Не говоря уже о том, что одночиповая карта обеспечит ещё и меньшее энергопотребление и шум от системы охлаждения.

Естественно, в таких условиях главным вопросом Geforce GTX Titan X является цена решения. Но дело в том, что она продаётся в той нише, где понятия оправданности цены и соотношения цены и качества просто не нужны - решения максимальной производительности всегда стоят заметно дороже, чем близкие к ним, но всё же не такие производительные. И Titan X - это экстремально мощная и дорогая видеокарта, предназначенная для тех, кто готов платить за максимум скорости в 3D-приложениях.

Geforce GTX Titan X позиционируется как премиальная (люксовая, элитная - называйте как угодно) видеокарта, и к рекомендованной стоимости не должно быть никаких претензий - тем более, что предыдущие решения линейки (GTX Titan и GTX Titan Black) стоили поначалу ровно столько же - $999. Это решение для тех, кому нужен самый быстрый графический процессор из существующих, несмотря на его цену. Более того, для самых богатых энтузиастов и рекордсменов в 3D-бенчмарках, доступны системы из трёх и даже четырёх видеокарт Titan X - это просто быстрейшие видеосистемы в мире.

Вот такие запросы Titan X полностью оправдывает и обеспечивает - топовая новинка даже в одиночестве показывает высочайшую частоту кадров во всех игровых приложениях и почти во всех условиях (разрешение и настройки), а объём быстрой GDDR5-видеопамяти в 12 ГБ позволяет не думать о нехватке локальной памяти на несколько лет вперёд - даже игры будущих поколений, с поддержкой DirectX 12 и т.п., просто не смогут забить эту память настолько, что её не хватит.

Как и в случае с первым GTX Titan в 2013 году, новинка в лице GTX Titan X установила новую планку производительности и функциональности для сегмента премиальных видеокарт. В своё время GTX Titan стала довольно успешным продуктом для компании Nvidia, и нет никаких сомнений в том, что GTX Titan X повторит успех предшественницы. Тем более, что основанная на самом большом видеочипе архитектуры Maxwell модель стала самой производительной на рынке безо всяких оговорок. Так как видеокарты вроде GTX Titan X производит сама Nvidia и продаёт референсные образцы своим партнёрам, то с доступностью в магазинах нет никаких проблем с самого момента её анонса.

GTX Titan X соответствует своему высочайшему уровню по всем параметрам: мощнейший GPU семейства Maxwell, отличный дизайн видеокарт в стиле предыдущих моделей Titan, а также великолепная система охлаждения - эффективная и тихая. По скорости 3D-рендеринга это лучшая видеокарта современности, предлагающая более чем на треть большую производительность, по сравнению с лучшими моделями, вышедшими до Titan X - вроде Geforce GTX 980. И если не рассматривать двухчиповые видеосистемы (вроде пары тех же GTX 980 или одной Radeon R9 295X2 от конкурента, имеющих проблемы, присущие многочиповым конфигурациям), то Titan X можно назвать лучшим решением для небедных энтузиастов.

В следующей части нашего материала мы исследуем скорость рендеринга новой видеокарты Nvidia Geforce GTX Titan X на практике, сравнив её скорость с производительностью самых мощных видеосистем от компании AMD и со скоростными показателями предшественников производства Nvidia, сначала в нашем привычном наборе синтетических тестов, а потом и в играх.

Главный вывод: GeForce GTX TITAN X - это самая быстрая одночиповая игровая видеокарта современности. Быстродействия нового флагмана NVIDIA хватает настолько, чтобы беззаботно наслаждаться современными 3D-развлечениями в Full HD и WQHD при самых максимальных настройках графики. Правда, это умеет и GeForce GTX 980. «Постой, а как же 4K?» - вопросит читатель. Да, хоть я и назвал статью «Первая для Ultra HD», но в части современных игр при максимальных настройках качества графики GeForce GTX TITAN X демонстрирует лишь условно играбельный уровень FPS. Однако это лучший показатель среди одночиповых видеокарт. Поэтому лично для меня именно GeForce GTX TITAN X - это первая видеокарта, которая реально способна удовлетворить требование геймера, желающего покорять виртуальные просторы на столь высоком разрешении. Пусть в некоторых случаях и придется покопаться в настройках. А вот уже парочка таких «титанов» способна приструнить любой намечающийся некстген. Лишь бы драйверы и оптимизация не подвели. Впрочем, это тема для отдельной статьи.

Именно 12 Гбайт видеопамяти предоставляет большой запас прочности для GeForce GTX TITAN X. Конечно, кто-то справедливо заметит, что такой объем избыточен. Однако тот же Assassin’s Creed Unity в 4K-разрешении не при самых-самых максимальных настройках качества графики уже «отъедает» у видеокарты 5-6 Гбайт видеопамяти. То есть почти половину. Именно поэтому (и мы убедились в этом наглядно) даже у сверхдорогих связок из нескольких 3D-ускорителей может возникнуть бутылочное горлышко в виде 4 Гбайт GDDR5. Так что для гейминга в Ultra HD уже сейчас необходимо иметь некоторый запас.

Как всегда, референс от NVIDIA показал себя с хорошей стороны. Видеокарта обладает достойным разгонным потенциалом. Кулер на базе испарительной камеры достаточно эффективно охлаждает 250-ваттный чип. Работает шумновато, но вполне терпимо.

Конечно, выпусти NVIDIA эту видеокарту в сентябре прошлого года (да не за ~1000 баксов - прим. автора), то вау-эффект получился бы, на мой взгляд, более сильным. Однако нам ли удивляться отработанной годами схеме NVIDIA? Цена - это самый сильный ограничивающий фактор для покупки GeForce GTX TITAN X. В нашей стране, переживающей очередной экономический кризис, - так тем более.

Напоследок лишь отмечу, что «зеленые» достаточно высоко задрали планку производительности, до которой будущему флагману AMD (Radeon R9 390X?) придется как минимум дотянуться, чтобы восстановить status quo. Либо сделать что-то приближенное по производительности, но заметно более бюджетное. Согласитесь, за этим будет очень интересно проследить.

Видеокарта NVIDIA GeForce GTX TITAN X получает награду «Выбор редакции».

Предыдущее изображение Следующее изображение

Видеоускоритель GeForce GTX Titan X в настоящее время (апрель 2015 года) является самым технологически совершенным в мире. Он обладает беспрецедентной производительностью, не имеющей аналогов в мире. Видеокарта Titan X предназначена для профессиональных и опытных геймеров, а также для энтузиастов PC. Плата построена на базе новой архитектуры Maxwell от компании NVIDIA, которая характеризуется удвоенной, по сравнению с прошлым поколением GPU Kepler, производительностью и невероятной энергоэффективностью.

Видеокарта GeForce GTX Titan X оснащена графическим процессором GM200, в котором включены абсолютно все 3072 вычислительных ядра CUDA , что является максимальной величиной для модельного ряда GeForce GTX 900.

Инновационный графический процессор GM200 обладает рядом впечатляющих игровых технологий, которые как достались по наследству от предыдущих поколений ускорителей, так и были разработаны инженерами NVIDIA с нуля. Наряду с известными технологиями поддержки 3D дисплеев 3D Vision, адаптивной синхронизации G-Sync и алгоритмами сглаживания MSAA и TXAA, в видеокартах семейства GeForce GTX 900 появилась технология многокадрового сглаживания (MFAA), гарантирующая прирост производительности на 30%; метод сглаживания с использованием сверхвысокого разрешение DSR ; а также воксельная глобальная иллюминация (VXGI), которая ускоряет эффекты динамического освещения для обеспечения захватывающего игрового процесса кинематографического качества.

Данный ускоритель, как и прочие карты модельного ряда, получил обновлённую технологию автоматического разгона NVIDIA GPU Boost 2.0, которая отслеживает работу видеокарты, ещё эффективней управляя температурой GPU , повышением тактовой частоты процессора и напряжением, что позволяет добиться максимальной производительности GPU .

В продукт внедрена технология адаптивной синхронизации NVIDIA Adaptive Vertical Sync. Эта технология включается при высокой частоте смены кадров для устранения разрывов изображения, а при низкой — отключается, чтобы свести дрожание кадров к минимуму.

Разработчик гарантирует полноценную работу видеокарты с новым API Microsoft DirectX 12, который позволяет значительно снизить нагрузку на центральный процессор и ускорить рендер изображений.

В целом, новый ускоритель является идеальным решением для игр в сверхвысоком разрешении UHD 4K на максимальных настройках качества. Он также обеспечивает достаточную производительность в набирающих популярность системах виртуальной реальности.

Достоинства

Максимальная производительность Высочайшая производительность решения для энтузиастов позволяет играть во все современные компьютерные игры с 4K разрешением и максимальным качеством изображения. Имеет значительный запас для будущих игр. Поддержка SLI Возможность объединения в группу позволяет создавать конфигурации из двух, трёх и четырёх карт (при использовании SLI -совместимой материнской платы) для дополнительного повышения быстродействия игр. Подключение дополнительных дисплеев Возможность одновременного использования Dual-link DVI , HDMI и DisplayPort для работы в мультимониторных конфигурациях, содержащих до 4 дисплеев. Хороший разгон Благодаря отработанной 28 нм технологии производства GPU и высокой энергоэффективности архитектуры Maxwell, видеокарта GeForce GTX Titan X обладает превосходными возможностями по разгону видеопроцессора. Профессиональные оверклокеры умеют разгонять GPU этого ускорителя в 2 раза. Хорошая работа с видео Полное ускорение декодирования всех основных форматов видео, как на дисках DVD /Blu-ray, так и из Интернет, поддержка функции «картинка в картинке», поддержка ускорения CUDA / OpenCL / DirectX для кодировщиков и редакторов видео, аппаратное декодирование HEVC. Готовность к 3D Vision Stereo Карта обладает производительностью более чем достаточной для вывода полноценного стереорежима в играх при использовании комплекта NVIDIA 3D Vision (требуется совместимый монитор). Поддержка ускорения PhysX Графический процессор обладает достаточной мощностью для одновременного расчёта трёхмерной графики и дополнительных спецэффектов в поддерживающих PhysX играх. Низкое энергопотребление Благодаря новой архитектуре GPU данный видеоускоритель обладает высочайшей энергоэффективностью. В результате, для его работы достаточно более скромного блока питания (от 600 Вт), чем для топового решения прошлого поколения, ускорителя GeForce GTX Titan Z. Готовность к виртуальной реальности Карта обладает технологией VR Direct , которая специально предназначена для работы с устройствами виртуальной реальности. Разработка предполагает использование нескольких видеокарт в конфигурации SLI , включает технологии Asynchronous Warp, которая сокращает задержки изображения и быстро подстраивает картинку в соответствии с поворотом головы, и Auto Stereo, которая повышает совместимость игр с устройствами виртуальной реальности, такими как Oculus Rift.

Недостатки

Высокая цена Стоимость больше 1000 долларов США и выше существенно ограничивает круг покупателей. Высокие системные требования Для максимально эффективного использования карты желательна «дорогая» конфигурация ПК, включающая современную материнскую плату с поддержкой PCI Express 3.0, наиболее производительный центральный процессор, память DDR4 и PCI -e твердотельный накопитель для запуска игр.
Чипсет

Компания NVIDIA не так часто отступает от сформировавшихся годами традиций. Так и в 2015 году по сложившейся весенней традиции «зеленые» представляют нового одночипового флагмана в лице GeForce GTX TITAN X . На начало лета 2015 года это самая мощная в мире видеокарта, базирующаяся на одном графическом процессоре.

Новый графический адаптер является четвертым по счёту в модельном ряду «Титанов» и, логически, идет на смену . В основании новинки лежит графическое ядро с маркировкой GM200, созданное на микроархитектуре второго поколения. В отношении базовых характеристик, GM200 является «расширенным» в полтора раза ядром GM204, на котором основан недавний одночиповый флагман . Точнее, именно в полтора раза увеличено количество ядер CUDA, блоков ROP и TMU, а также объем кэша. Рассмотрим подробнее характеристики этих двух видеокарт.

Потребление энергии нового флагмана оказалось заметно более, чем энергопотребление GTX 980. Естественно, что это связано с более высокой производительностью TITAN X, которая в сравнении с 980-й моделью может достигать 30%. По рекомендации производителя мощность блока питания для системы должна быть не менее 600 Вт.

Здесь, пожалуй, нужно обратить внимание на систему охлаждения новинки. А именно на то, что GeForce GTX TITAN X официально будет поставляться исключительно с эталонным кулером, который должен обеспечить высокую производительность при невысоком уровне шума.

Игры/Настройки 1920х1080 px The Witcher 3: Wild Hunt 79 fps GTA V 66 fps Battlefield Hardline 126 fps Metro: Last Light 67 fps Crysis 3 65 fps

*Максимально возможное качество графики

Вполне очевидно, что новинка поддерживает все существующие ныне технологии NVIDIA — SLI®, G-Sync™, GameStream™, ShadowPlay™, 2.0 GPU Boost™, Dynamic Super Resolution, MFAA, GameWorks™, OpenGL 4.5. Также поддерживается Microsoft DirectX 12 API с последующим обновлением до 12.1.

Цена на рассматриваемую модель на момент старта продаж была анонсирована производителем в размере $999. Собственно, это такая же сумма, как и у «черного Титана». Но если обратить внимание на колоссально возросшую производительность новой видеокарты в сравнении с предшественницей, то здесь NVIDIA опять сделала большой и своевременный шаг вперёд.

Появление крупного GPU на базе архитектуры Maxwell было неизбежно, вопрос только в том, когда это произойдет и в какой форме. В итоге оправдалось предположение, что GM200 повторит путь своего аналога из семейства Kepler — GK110, дебютировав в составе ускорителя под маркой TITAN.

NVIDIA GeForce GTX TITAN X

Времени на тестирование новой видеокарты в этот раз было крайне мало, поэтому обзор будет сжатым. Отбросив необязательные рассуждения, перейдем сразу к делу. Архитектура Maxwell, по сравнению с Kepler, характеризуется упрощенным и оптимизированным строением потоковых мультипроцессоров (SMM), что позволило радикально уменьшить площадь SMM, сохранив 90% прежней производительности. Кроме того, GM200 принадлежит ко второй итерации архитектуры Maxwell, как и выпущенные ранее чипы GM204 (GeForce GTX 970/980) и GM206 (GeForce GTX 960). А следовательно, обладает более производительным геометрическим движком PolyMorph Engine версии 3.0 и поддерживает на уровне «железа» некоторые вычислительные функции, которые, вероятно, войдут в новый feature level Direct3D 12, а также необходимы для аппаратного ускорения технологии глобального освещения VXGI, разработанной NVIDIA. За более подробным описанием архитектуры Maxwell первого и второго поколения отсылаем читателей к обзорам GeForce GTX 750 Ti и GeForce GTX 980 .

Блок-схема графического процессора NVIDIA GM200

Качественно графический процессор GM200 и более младшие GPU в линейке не отличаются друг от друга, за исключением того, что только GM206 имеет выделенный блок декодирования видео, сжатого по стандарту H.265 (HEVC). Различия сугубо количественные. GM200 включает беспрецедентное число транзисторов — 8 млрд, поэтому вычислительных блоков в нем в полтора-два раза больше, чем в GM204 (в зависимости от того, какие именно считать). Кроме того, вернулась в строй 384-битная шина памяти. По сравнению с чипом GK110 новый флагманский GPU не столь устрашающе могуч, но, к примеру, число ROP здесь вдвое больше, что делает GM200 отлично подготовленным к 4К-разрешению.

В плане поддержки вычислений двойной точности GM200 ничем не отличается от GM204. Каждый SMX содержит только четыре ядра CUDA, совместимых с FP64, поэтому совокупная производительность при такой нагрузке составляет 1/32 от FP32.

⇡ Технические характеристики, цена

В TITAN X используется наиболее мощная версия ядра GM200 с полным набором активных вычислительных блоков. Базовая частота GPU составляет 1000 МГц, Boost Clock — 1076 МГц. Память работает на стандартной для продуктов на базе Maxwell частоте 7012 МГц. А вот объем невиданный для игровых видеокарт — 12 Гбайт (а TITAN X — это в первую очередь игровая видеокарта, по крайней мере до появления GM200 в основной, «номерной» линейке GeForce).

Рекомендованные розничные цены на TITAN X были объявлены в последние часы перед публикацией обзора. Для рынка США установлена цена в 999 долларов — столько же, сколько в свое время стоил первый TITAN на базе GK110.

Прим.: цены в таблице для GeForce GTX 780 Ti и TITAN Black приведены на момент снятия с производства последних.

Модель

Графический процессор

Видеопамять

TDP, Вт

РРЦ* для рынка США (без налогов), $

Кодовое название

Число транзисторов, млн

Тактовая частота, МГц: Base Clock / Boost Clock

Число ядер CUDA

Число текстурных блоков

Разрядность шины, бит

Тип микросхем

Тактовая частота: реальная (эффективная), МГц

Объем, Мбайт

GeForce GTX 780 Ti

GeForce GTX TITAN Black

GeForce GTX 980

GeForce GTX TITAN X

⇡ Конструкция

Начиная с самого первого «Титана» NVIDIA использует в топовых видеокартах, с некоторыми вариациями, одну и ту же систему охлаждения. TITAN X выделяется в ряду своих предшественников только абсолютно черным корпусом (лишь две вставки на боках остались неокрашенными).

NVIDIA GeForce GTX TITAN X

Задняя пластина, которой в порядке эксперимента оснастили GeForce GTX 980, в TITAN X вновь отсутствует, несмотря на то, что на оборотной стороне платы распаяна часть микросхем памяти. Хотя чипам GDDR5 дополнительное охлаждение, в общем-то, и не требуется.

NVIDIA GeForce GTX TITAN X, вид сзади

Зато вернулся радиатор с испарительной камерой, который в GTX 980 был заменен более простым вариантом.

NVIDIA GeForce GTX TITAN X, система охлаждения

NVIDIA GeForce GTX TITAN X, система охлаждения

NVIDIA GeForce GTX TITAN X, система охлаждения

Видеокарта обладает тремя разъемами DisplayPort и по одной штуке — HDMI и Dual-Link DVI-I.

⇡ Плата

Дизайн печатной платы, что совершенно неудивительно, вызывает ассоциации с серией видеоадаптеров на чипе GK110. Преобразователь напряжения построен по схеме 6+2 (число фаз для питания GPU и микросхем памяти соответственно). Питание подается через один восьмиконтактный и один шестиконтактный разъем. А вот контроллер питания графического процессора ON Semiconductor NCP81174 мы здесь видим впервые.

24 микросхемы памяти SK hynix H5GQ4H24MFR-R2C со штатной частотой 7 ГГц расположены на обеих сторонах платы.

NVIDIA GeForce GTX TITAN X, печатная плата, передняя сторона

NVIDIA GeForce GTX TITAN X, печатная плата, задняя сторона

Тестовый стенд, методика тестирования

Энергосберегающие технологии CPU во всех тестах отключены. В настройках драйвера NVIDIA в качестве процессора для вычисления PhysX выбирается CPU. В драйверах AMD параметр Tesselation переводится из состояния AMD Optimized в Use application settings.

Бенчмарки: синтетические
Программа Настройки Разрешение
3DMark 2011 Тест Extreme - -
3DMark Тест Fire Strike (не Extreme) - -
Unigine Heaven 4 DirectX 11, макс. качество, тесселяция в режиме Extreme AF 16x, MSAA 4x 1920 × 1080 / 2560 × 1440
Бенчмарки: игры
Программа Настройки Анизотропная фильтрация, полноэкранное сглаживание Разрешение
Far Cry 3 + FRAPS DirectX 11, макс. качество, HDAO. Начало миссии Secure the Outpost AF, MSAA 4x 2560 × 1440/3840 × 2160
Tomb Raider. Встроенный бенчмарк Макс. качество AF 16x, SSAA 4x 2560 × 1440/3840 × 2160
Bioshock Infinite. Встроенный бенчмарк Макс. качество. Postprocessing: Normal AF 16x, FXAA 2560 × 1440/3840 × 2160
Crysis 3 + FRAPS Макс. качество. Начало миссии Post Human AF 16x, MSAA 4x 2560 × 1440/3840 × 2160
Metro: Last Light. Встроенный бенчмарк Макс. качество AF 16x, SSAA 4x 2560 × 1440/3840 × 2160
Company of Heroes 2. Встроенный бенчмарк Макс. качество AF, SSAA 4x 2560 × 1440/3840 × 2160
Battlefield 4 + FRAPS Макс. качество. Начало миссии Tashgar AF 16x, MSAA 4x + FXAA 2560 × 1440/3840 × 2160
Thief. Встроенный бенчмарк Макс. качество AF 16x, SSAA 4x + FXAA 2560 × 1440/3840 × 2160
Alien: Isolation Макс. качество AF 16x, SMAA T2X 2560 × 1440/3840 × 2160

Участники тестирования

В тестировании производительности приняли участие следующие видеокарты:

  • NVIDIA GeForce GTX TITAN X (1000/7012 МГц, 12 Гбайт);

⇡ Тактовые частоты, энергопотребление, температура, разгон

GM110 работает на базовой частоте, до которой никогда не поднимался GK110 в референсных спецификациях. Кроме того, GPU Boost действует весьма агрессивно, поднимая частоту вплоть до 1177 МГц. При этом процессор довольствуется напряжением 1,174 В — более низким относительно топовых продуктов на базе GK110.

Настройки BIOS позволяют увеличить лимит мощности до 110% и добавить 83 мВ к максимальному напряжению на GPU. На деле напряжение поднимается только до 1,23 В, но одновременно открываются несколько дополнительных ступенек частоты/VID: разница между базовой частотой и максимальной частотой, зарегистрированной в динамике, возрастает до 203 МГц.

Разгон видеокарты позволил достигнуть базовой частоты в 1252 МГц, а в динамике наблюдались частоты вплоть до 1455 МГц. Видеопамять смогла прибавить 1,2 ГГц, успешно работая на эффективной частоте 8 212 МГц.

Base Clock, МГц Макс. Boost Clock, МГц Base Clock, МГц (разгон) Макс. зарегистрированная Boost Clock, МГц (разгон)
GeForce GTX TITAN X 1000 1177 (+177) 1252 1455 (+203)
GeForce GTX 980 1127 1253 (+126) 1387 1526 (+139)
GeForce GTX TITAN Black 889 1032 (+143) 1100 1262 (+162)
GeForce GTX TITAN 836 1006 (+145) 966 1150 (+184)
GeForce GTX 780 Ti 876 1020 (+144) 986 1130 (+144)
GeForce GTX 780 863 1006 (+143) 1053 1215 (+162)
GeForce GTX 770 1046 1176 (+130) 1190 1333 (+143)

По энергопотреблению TITAN X близок к GTX 780 Ti и намного превосходит GTX 980. Вопреки ожиданиям, в Crysis 3 нет существенной разницы между TITAN X и Radeon R9 290X, а вот в FurMark R9 290X (как и R9 280X) разогревается сильнее и заметно превосходит TITAN X.

Разгон TITAN X увеличивает мощность на 5-25 Вт в зависимости от того, на результаты какого теста опираться — FurMark или Crysis 3.

Максимальная температура, которая допустима для GPU, определяется настройками BIOS, поэтому TITAN X не выходит за рамки установленных 83° C. При этом турбина системы охлаждения раскручивается на 49% от максимальной скорости — до 2339 об/мин. На первый взгляд это довольно много, но на самом деле шум от кулера вполне приемлемый.

⇡ Производительность: синтетические тесты

  • TITAN X впечатляет с первого же теста. По сравнению с GTX 780 Ti и Radeon R9 290X видеокарта в полтора раза производительнее.
  • С Radeon R9 280X и GeForce GTX 770 — адаптерами на базе некогда топовых GPU — разница более чем двукратная.

  • Все вышесказанное справедливо и для 3DMark 2013 года.

Unigine Heaven 4

  • TITAN X сохраняет преимущество около 50% перед GTX 780 Ti и Radeon R9 290X при разрешении WQHD. Кстати, в отличие от 3DMark, GTX 980 в этом тесте ничуть не лучше GTX 780 Ti.
  • При разрешении Ultra HD ранее выпущенные видеоадаптеры сократили расстояние, и все же TITAN X на голову превосходит всех соперников.

⇡ Производительность: игры

В этот раз мы отступим от стандартной формы описания игровых тестов. Расписывать для каждой игры, какая видеокарта быстрее, в случае с TITAN X совершенно бессмысленно. Во всех играх новый «Титан» с колоссальным отрывом опережает соперников. Количественные показатели стремятся к формуле: TITAN X на 30-50% быстрее, чем GeForce GTX 780 Ti и Radeon R9 290X, и зачастую вдвое быстрее по сравнению с Radeon R9 280X и GeForce GTX 770. Единственная интрига — выискивать колебания внутри этого коридора в ту или иную сторону. Кроме того, есть уникальный случай: TITAN X наслаждается частотой смены кадров 24 FPS в Far Cry 4 при разрешении Ultra HD и сглаживании MSAA 4x, в то время как соперники не могут выбраться из ямы в 5-7 FPS (а GeForce GTX 770 — и того меньше). Тут, по всей видимости, «Титану» пригодился объем памяти в 12 Гбайт, и даже 4 Гбайт, которыми оснащен Radeon R9 290X, для таких настроек в FC4 недостаточно.

Tomb Raider

Bioshock Infinite

Crysis 3

⇡ Производительность: вычисления

Декодирование видео (DXVA Checker, Decode Benchmark)

  • Выделенный декодер H.264 в GM200 такой же, как и в других чипах семейства Maxwell. Производительности его более чем достаточно для воспроизведения видео с разрешением вплоть до Ultra HD и частотой смены кадров 60 Гц и выше.
  • Среди дискретных видеоадаптеров AMD подобным может похвастаться только Radeon R9 285. GeForce GTX 780 Ti способен выдать до 35 FPS при разрешении 3840 × 2160.
  • CPU с 6-8 ядрами x86 лучше подходят для быстрого декодирования с целью конвертации видео, однако блок фиксированной функциональности выполняет эту работу с меньшим энергопотреблением, да и, наконец, просто дается в нагрузку к мощнейшему GPU.

  • Единственным GPU с полностью аппаратным декодированием H.265 является GM206 в составе GeForce GTX 960. Остальные представители архитектуры Maxwell, а также Kepler часть операций выполняют на конвейере декодера H.264. Остальное ложится на центральный процессор.
  • Производительности всех этих адаптеров при хорошем CPU вполне достаточно для воспроизведения видео с любым разумным разрешением и частотой смены кадров. Для работы на скорость лучше подходит GTX 960 или мощный CPU.

Luxmark: Room (Complex Benchmark)

  • Архитектура Maxwell в этой задаче демонстрирует удивительный прирост производительности по сравнению с Kepler, благодаря чему TITAN X удвоил скромный результат GeForce GTX 780 Ti и оставил далеко позади Radeon R9 290X. Впрочем, это еще не значит, что результаты LuxMark репрезентативны относительно любых задач трассировки лучей.
  • Разница между TITAN X и GeForce GTX 980 не такая огромная, как в игровых тестах.

Sony Vegas Pro 13

  • Видеоадаптеры AMD сохраняют лидерство в задаче рендеринга видео. А TITAN X ничем не выделяется в группе наиболее производительных устройств NVIDIA.

CompuBench CL: Ocean Surface Simulation

  • TITAN X отнимает пальму первенства у Radeon R9 290X и компенсирует неудачу GeForce GTX 980, которому этот тест дается на удивление трудно.

CompuBench CL: Particle Simulation

  • Здесь, напротив, GTX 980 сделал большой шаг вперед от GTX 780 Ti, а TITAN X закрепил успех. Radeon R9 290X не идет ни в какое сравнение с флагманом NVIDIA.

SiSoftware Sandra 2015: Scientific Analysis

  • В условиях двойной точности (FP64) ускорители AMD по-прежнему не знают равных, и даже Radeon R9 280X на базе далеко не нового GPU может дать фору TITAN X.
  • Среди «зеленых» TITAN X предсказуемо лидирует по производительности в FP64, в особенности по сравнению с откровенно слабым GTX 980.
  • В вычислениях FP32 TITAN X резко выделяется из всех видеокарт NVIDIA. Лишь она обеспечивает уровень производительности, сопоставимый с таковым у Radeon R9 290X.

⇡ Выводы

Если учесть, что производство дискретных GPU все еще остается в рамках техпроцесса 28 нм, результаты GeForce GTX TITAN X выглядят просто фантастически. При таком же TDP, как у видеоадаптеров на базе GK110, TITAN X достигает 130-150% быстродействия таких ускорителей, как GTX 780 Ti и Radeon R9 290X. Если взять первые 28-нанометровые GPU — GK104 (GTX 680, GTX 770) и Radeon R9 280X, то TITAN X зачастую превосходит их в два раза.

TITAN X, как и его предшественники на этой позиции, чрезвычайно дорог для видеокарты на одиночном GPU. Позиционирование не изменилось по сравнению с предыдущими «Титанами». Во-первых, это альтернатива SLI-конфигурациям из двух дискретных GeForce GTX 980: пусть потенциальная производительность тандема выше, одиночный GPU обладает более предсказуемым быстродействием. Во-вторых, компактные ПК, в которых нет места для двух видеокарт. И наконец, неграфические вычисления (GP-GPU). Хотя производительность FP64 в GM200 ограничена 1/32 от производительности FP32, TITAN X отчасти компенсирует это ограничение грубой силой GPU. Кроме того, вычисления FP32 преобладают в «просьюмерской» нагрузке (тот же Ray Tracing, ускорение рендеринга видео), а в этой дисциплине GM200 по меньшей мере не уступает лучшим продуктам AMD, а часто и превосходит так же, как в игровых тестах.

  • Сергей Савенков

    какой то “куцый” обзор… как будто спешили куда то