что такое ртикс в играх
Что такое Nvidia RTX, как технология трассировки лучей меняет графику в играх и зачем покупать новую GeForce (коротко и с примерами)
Что такое Nvidia RTX?
Nvidia RTX — платформа, содержащая ряд полезных инструментов для разработчиков, которые открывают доступ к новому уровню компьютерной графики. Nvidia RTX доступна только для нового поколения видеокарт Nvidia GeForce RTX, построенного на архитектуре Turing. Основная особенность платформы — наличие возможности трассировки лучей в реальном времени (также называемой рейтресингом).
Что за трассировка лучей?
Трассировка лучей — функция, которая позволяет имитировать поведение света, создавая правдоподобное освещение. Сейчас в играх лучи двигаются не в реальном времени, из-за чего картинка, зачастую, хоть и выглядит красиво, но всё равно недостаточно реалистична — используемые сейчас технологии требовали бы огромное количество ресурсов для рейтресинга.
Это исправляет новая серия видеокарт Nvidia GeForce RTX, обладающая достаточной мощностью для расчёта пути лучей.
Как это работает?
Это побудило Nvidia внедрить дополнительные ядра в видеокарты GeForce RTX, которые возьмут на себя большую часть нагрузки, улучшая производительность. Они также снабжены искусственным интеллектом, задача которого — высчитывать возможные ошибки во время процесса трассировки, что поможет их избежать заранее. Это, как заявляют разработчики, также повысит скорость работы.
И как трассировка лучей влияет на качество?
Shadow of the Tomb Raider, релиз которой состоится 14 сентября этого года:
Battlefield 5, которая выйдет 19 октября:
Metro Exodus, чей выход намечен на 19 февраля 2019 года:
Control, дата выхода которой пока неизвестна:
Вместе с этим всем, Nvidia рассказала, какие ещё игры получат функцию трассировки лучей.
Как включить RTX?
А есть ли аналоги у AMD?
Технология, которая будет работать на API Vulkan, пока находится в разработке.
NVIDIA RTX TECHNOLOGY
Новое поколение инноваций
Технология NVIDIA RTX™ — одно из самых важных достижений NVIDIA в компьютерной графике, которая положила начало новому поколению приложений, моделирующим мир с невероятной скоростью. Благодаря поддержке новых технологий ИИ, трассировки лучей и моделирования RTX представляет собой полноценную платформу, которая позволяет создавать невероятные проекты в 3D, фотореалистичные симуляции и впечатляющие визуальные эффекты быстрее, чем прежде.
КЛЮЧЕВЫЕ ТЕХНОЛОГИИ
Трассировка лучей
Технология RTX воплощает мечту о рендеринге кинематографического качества в реальном времени благодаря оптимизированным API для трассировки лучей, таким как NVIDIA OptiX™, Microsoft DXR и Vulkan. Теперь фотореалистичный рендеринг объектов и окружений в реальном времени в комбинации с физически точными тенями, отражениями и преломлениями позволяет художникам и дизайнерам создавать потрясающий контент быстрее, чем когда-либо раньше.
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ
Технология NVIDIA RTX привносит возможности ИИ в визуальные вычисления и позволяет разрабатывать приложения на базе ИИ, которые ускоряют рабочий процесс. Эти возможности значительно ускоряют работу художников и дизайнеров, освобождая время и ресурсы за счет интеллектуальной обработки изображений, автоматизации повторяющихся задач и оптимизации процессов, требующих большого объема вычислений.
РАСТЕРИЗАЦИЯ
RTX поддерживает такие новые технологии программируемого шейдинга, как Variable-Rate Shading, Texture-Space Shading и Multi-View Rendering. Использование этих технологий позволяет создавать более насыщенные визуальные эффекты с гибкой интерактивностью, крупными моделями и сценами и улучшенными возможностями в VR.
МОДЕЛИРОВАНИЕ
Реалистичность визуальных эффектов достигается не только путем соответствия внешнего вида, но и поведения. Благодаря возможностям ядер CUDA®и таким API, как NVIDIA PhysX®, Flow, FleX и CUDA, технология RTX позволяет точно моделировать поведение реальных объектов во всем: от игр до виртуальных сред и спецэффектов
Трансформация рабочих процессов с NVIDIA Omniverse
NVIDIA Omniverse™ — это многоуровневая платформа, позволяющая приложениям сторонних производителей использовать возможности технологии RTX через подключение к порталам. Обеспечьте виртуальную совместную работу в реальном времени в интерактивной смоделированной среде и мгновенную фотореалистичную визуализацию для высококачественного рендеринга с трассировкой лучей и пути в один клик. Скачайте открытую бета-версию Omniverse и измените работу с графикой.
Чем RTX видеокарты отличаются от GTX и что лучше
На выставке Gamescom, летом 2018 года, компания NVIDIA представила новую линейку видеокарт под названием RTX. Новинка достаточно быстро поступила в продажу и стала доступна для геймеров в начале осени 2018-го. В данной статье мы расскажем о том, что такое RTX, чем линейка RTX отличается от GTX и что лучше выбрать, если вы решили обновить свою видеокарту.
Что такое RTX
RTX – это новая серия видеокарт от компании NVIDIA, которая пришла на замену старой серии GTX. Видеокарты RTX построены на базе новой микроархитектуры Turing, которая включает в себя отдельные модули для аппаратной трассировки лучей в реальном времени (RT-ядра) и работы с искусственным интеллектом и глубинным обучением (тензорные ядра).
На данный момент серии RTX и GTX выпускаются параллельно. Сейчас к серии RTX относятся видеокарты среднего и высшего ценового диапазона, это:
А к серии GTX относятся бюджетные видеокарты, это:
В дальнейшем, скорее всего, компания NVIDIA откажется от производства видеокарт из серии GTX и полностью переключится на RTX.
Чем RTX отличается от GTX
Линейка видеокарт NVIDIA RTX имеет два основных отличия от серии видеокарт GTX, это:
RT-ядра и тензорные ядра – это отдельные модули внутри графического чипа видеокарты, и они присутствуют только на новых RTX моделях. На видеокартах серии GTX таких модулей нет.
Фактически, наличие этих ядер — это небольшой прорыв на рынке графических ускорителей, поскольку до этого подобного не было ни у NVIDIA, ни у их конкурента AMD. А в будущем, вероятней всего, наличие подобных модулей станет стандартом для всех видеокарт от обоих производителей. Косвенно это подтверждает тот факт, что поддержку аппаратного ускорения трассировки лучей уже анонсировали для игровых консолей следующего поколения.
Наличие RT и тензорных ядер открывает целый ряд новых возможностей. Так RT-ядра позволяют значительно ускорить вычисления, связанные с трассировкой лучей. Это позволит разработчикам игр создавать более реалистичное и динамичное освещение, которое сможет быстро меняться в зависимости от игровых событий. Также трассировка лучей, выполняемая ядрами RT, может применяться для создания таких эффектов, как отражения, преломления, тени и ограничение глубины резкости.
Нужно отметить, что трассировку лучшей можно использовать и на видеокартах без RT-ядер. NVIDIA даже выпустила обновление для драйверов, которое открывает эту возможность на видеокартах GTX 10-поколения. Но, без наличия RT-ядер трассировка отнимает слишком много производительности основных модулей графического процессора из-за чего сильно проседает FPS. Играть в таком формате вряд ли возможно, это скорее демонстрация самой технологии.
В свою очередь, тензорные ядра предназначены для ускорения вычислений, связанных с искусственным интеллектом и глубинным обучением. При чем это не обязательно какие-то прикладные или научные задачи. Тензорные ядра могут использоваться и в компьютерных играх, например, NVIDIA применила данную технологию сглаживания кадров. Это решение получило название DLSS. С его помощью можно значительно улучшить качество изображения в играх, при этом не расходуя вычислительную мощность основных модулей графического процессора видеокарты.
Кроме этого, RTX имеют ряд более мелких изменений, которые также выгодно отличают их от видеокарт прошлых поколений. Например, видеокарты RTX получили:
Что лучше GTX или RTX
При выборе видеокарты может возникнуть вопрос, что лучше GTX или RTX. Ответ здесь достаточно очевиден, видеокарты RTX лучше GTX практически во всем и обладают уникальными возможностями, которые не доступны для GTX. Поэтому если есть возможность, то лучше покупать именно RTX.
Но, нужно учесть, что GeForce RTX 2060, которая является самой доступной во всей линейке RTX, справляется с трассировкой лучшей достаточно плохо. При включении этой функции FPS сильно проседает и играть становится не комфортно, даже в разрешении FullHD. Поэтому для полноценного игрового опыта с трассировкой лучей вам понадобиться GeForce RTX 2070 или даже более мощная видеокарта.
Создатель сайта comp-security.net, автор более 2000 статей о ремонте компьютеров, работе с программами, настройке операционных систем.
Задайте вопрос в комментариях под статьей или на странице «Задать вопрос» и вы обязательно получите ответ.
Что такое NVIDIA DLSS, как она повышает FPS и улучшает графику в играх — подробное объяснение
Что такое DLSS?
Чтобы окончательно определиться с тем, что такое DLSS, нужно дословно разобрать само понятие Deep Learning Super Sampling. Итак, суперсэмплинг — это технология сглаживания, которая создаёт каждый кадр в разрешении большем чем разрешение монитора, после чего уменьшает его обратно. То есть количество пикселей в кадре увеличивается и таким образом технология помогает сгладить резкие контрастные переходы между пикселями разных объектов. Говоря проще, убирает «лесенку» на краях объектов, нежелательные шумы на текстурах в движении и прочие «шероховатости» изображения.
Теперь немного о глубоком обучении. «Глубокими» называются нейронные сети, состоящие более чем из 1 входного и выходного слоя, например, нейронную сеть из 4 слоев уже можно считать глубокой. Каждый нейрон нового слоя соединен со всеми нейронами предыдущего слоя при помощи «весов». Фактически веса нейронной сети кодируют силу сигнала и позволяют ей обрабатывать входную информацию. Путем множества повторяющихся вычислений, веса глубокой нейронной сети подстраиваются при помощи алгоритма обратного распространения ошибки для того, чтобы ответ на выходе нейронной сети был как можно ближе к желаемому на проверочном наборе данных.
Если немного упростить, то глубокое обучение — это множество вычислений, выполняющихся на мощном оборудовании в процессе, выполнение которого совершенствуется раз за разом. Система не учится в человеческом понимании этого слова, она просто становится лучше, снова и снова проделывая одни и те же действия.
Как работает DLSS?
В итоге получается технология, использующая обученную на высококачественных примерах нейросеть, которая берет несколько кадров игры для создания суперсэмплинга и комбинирует их в финальный кадр. Вследствие чего экономится пользовательская вычислительная мощность и, соответственно, повышается FPS.
Эта технология с её выученными техниками улучшения изображения применяется и обновляется при помощи сервиса NGX. NGX — это пакет инструментов разработчика для интеграции алгоритмов глубокого обучения. Он позволяет разработчикам с легкостью интегрировать в приложения обученные нейронные сети для улучшения графики, редактирования фотографий и обработки видео.
Со стороны пользователя ничего не требуется, DLSS будет улучшаться автоматически путём обновления нейронной сети.
Где лучше использовать DLSS? Почему технология недоступна для всех разрешений?
DLSS разработана для увеличения частоты кадров при высокой нагрузке на видеокарту. То есть когда кадровая частота остаётся низкой при полной загрузке видеокарты и отсутствии так называемых «ботлнеков», ситуаций, в которых один из компонентов системы не даёт другим компонентам раскрыть весь свой потенциал. Если ваша игра уже работает с высокой частотой, то время визуализации кадра вашей видеокартой может оказаться меньше, чем время выполнения DLSS. В этом случае DLSS не нужна, потому что она не увеличит частоту кадров. Тем не менее, если игра сильно нагружает видеокарту (FPS находится ниже отметки в 60 кадров в секунду), то DLSS обеспечит оптимальное повышение производительности. В этом случае можно повысить свои настройки графики, чтобы получить максимальную выгоду от DLSS.
Если говорить чуть более технически, DLSS требует фиксированного количества времени видеокарты на каждый кадр для обработки данных нейросетью. Таким образом, игры, которые работают с меньшей частотой кадров или в более высоком разрешении, получают больше преимуществ от DLSS. В случае же с играми, работающими с высокой кадровой частотой или в низком разрешении, DLSS может не справиться с улучшением производительности. Когда время визуализации кадров видеокартой меньше, чем требуется для выполнения модели DLSS, технология не работает. Она активируется лишь в случаях, когда может дать прирост производительности. Доступность DLSS зависит от игры, модели видеокарты и выбранного разрешения.
А что насчёт размывания кадров?
Как уже указывалось выше, DLSS изначально создавалась для увеличения FPS при высокой нагрузке на видеокарту. И при разработке основной упор делался на высокие разрешения (когда нагрузка доходит до максимума), а 4K (3840×2160) является наиболее тяжёлым разрешением. Работа с 4K даёт больше преимуществ, когда речь идёт о качестве изображения, так как количество входных пикселей велико. Для 4K DLSS имеется 7,4 миллиона входящих пикселей, из которых можно сгенерировать окончательный кадр, в то время как для 1920×1080 имеется только около 1.84 миллионов пикселей. Чем меньше исходных данных, тем сложнее DLSS обнаруживать особенности исходного изображения и предсказывать окончательный кадр. То есть чем меньше разрешение, тем хуже работает DLSS.
NVIDIA знает о проблеме с размытием изображения на низких разрешениях и работает над её решением. Добавляется больше обучающих данных и новых методов для повышения качества. Обучение глубокой нейронной сети продолжается, и со временем она улучшится.
Чем хуже технология TAA?
Игровая индустрия использовала временное сглаживание многие годы и, по мнению вышеупомянутого Эндрю Эдельстена (Andrew Edelsten), его время скоро подойдёт к концу. Так как конечный результат работы TAA генерируется из нескольких кадров, получившееся изображение может страдать от ореолов и мерцаний при высокой скорости движения. DLSS же справляется с этим лучше во многом благодаря нейросети, способной выдавать более качественную картинку как в статике (неподвижном состоянии), так и в динамике (движении). Также, в отличие от TAA, DLSS в процессе работы реконструирует изображение до более высокого разрешения.
Какие игры уже поддерживают DLSS?
В Battlefield 5 DLSS, по мнению NVIDIA, на данный момент обеспечивает значительное улучшение производительности (до 40 %) в разрешениях 4K и 2560 × 1440 при сопоставимом качестве. В дальнейшем командой разработки планируется работа над улучшением качества изображения для разрешения 1920×1080, а также для сверхшироких мониторов (например, с разрешением 3440 × 1440).
А для Metro Exodus уже есть обновление, улучшающее чёткость DLSS и общее качество изображения для всех разрешений, которые не были включены в день запуска. Также ведётся обучение DLSS для этой игры, в результате которого ожидается ещё одно повышение качества изображения.
Для каких ещё игр будет добавлена DLSS?
Производительность RTX 3050 и RTX 3050 Ti сравнили в играх
Производство графических ускорителей, несмотря на дефицит кремниевых микросхем, продолжается в привычном режиме. Nvidia продолжает пополнять линейку видеокарт всеми возможными моделями — от самой мощной RTX 3090, до бюджетной RTX 3060. Но самые доступные версии RTX 3050 и RTX 3050 Ti еще впереди — в сети уже есть информация о производительности их мобильных версий.
Вчера инсайдерские источники подтвердили, что совсем скоро компания представит новые модели видеокарт для ноутбуков. Это RTX 3050 и RTX 3050 Ti, которые заменят GTX 1650 и GTX 1660 Ti и, возможно, получат вычислительные ядра для обработки трассировки лучей. Более того, энтузиасты также поделились тестированием двух видеокарт и сравнили их производительность с другими актуальными ускорителями.
В синтетическом тесте 3DMark Time Spy новинки расположились в порядке иерархии — RTX 3050 Ti показывает преимущество перед мобильной GTX 1660 Ti, тогда как RTX 3050 занимает позицию выше GTX 1650 Ti.
В играх ситуация интереснее — RTX 3050 Ti показывает аналогичную RTX 2060 производительность на Ultra-настройках, а на средних оказывается далеко впереди. Младшая RTX 3050 играет чуть скромнее, но так же уверенно обходит прошлогодние модели из этого сегмента.
Что касается технических характеристик новинок — обе версии получат одинаковый объем памяти 4 ГБ GDDR6 с аналогичной частотой, но будут различаться по количеству вычислительных ядер и частным показателям. Младшая получит чип с 2048 ядрами CUDA, а старшая с 2560 ядрами. При этом RTX 3050 будет разгоняться сильнее — при TGP 80 Ватт видеокарта сможет работать на 1740 МГц, а старшая всего на 1695 МГц. Впрочем, для мобильного сегмента это хороший разгон.