GPU против CPU рендеринга. Стоит ли рендерить видеокартой?

8 Nov, 2011 Victor Skea
8 Nov, 2011 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?
Добрый день. У меня вопрос о GPU-рендеринге. Я в деле буквально недавно и по-тихоньку собираю домашнюю мини-студию. На сегодняшний день уже есть два системника. Оба на базе Core i7 2600, 16 Гб ОЗУ. Один позиционируется, как графический, а второй как игровой. И соответственно различаются они только видеокартами. На графическом Quadro 4000, на игровом Radeon 6970. Игровой по задумке должен был помогать в рендере.

Но вот недавно я узнал, что у NVidia есть технология CUDA и они выпускают графические процессоры Tesla. Судя по их красивым графикам прирост производительности при рендере на GPU превышает CPU более чем в 200 раз.

Еще в их пользу говорит и то, что в Quadro 4000 технология CUDA уже внедрена и я смог лично ее опробовать. И получилось так, что одна средняя видеокарта быстрее рендерит, чем два современных процессора. Пусть и менее точно. Но это уже недостатки сырого ActiveShade от V-ray RT.

Я загорелся покупкой теслы. А как вы относитесь к рендеру на GPU и почему до сих пор процессорный рендеринг не ушел в прошлое? Думаете ли вы перейти на рендеринг в пользу GPU? Вообще правильно ли я решил отдать за на одну электронную плату стоимость равную целому очень хорошему компьютеру?

8 Nov, 2011 Anton (Staff Author)
8 Nov, 2011 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?
Привет!

На самом деле очень интересная и актуальная сегодня тема.

Я сам ею интересовался и разбирался что к чему. Ниже я поделюсь своими изысканиями на эту тему. Это то, что мне самому удалось узнать касательно GPU рендеринга.

Прежде чем делать какие-либо выводы по поводу рендеринга видеокартой, его целесообразности, необходимо разобраться в самом главном. В том, что же такое GPU рендеринг и с каким типом рендереров он может работать.

Я сам пользуюсь V-Ray, поэтому я брал его как отправную точку.

Основное достоинство V-Ray рендерера в его адаптивности. То есть в способности подстраиваться под конкретную сцену и на основании информации о ней, производить вычисления лишь в тех местах, где это реально необходимо. В то же время, в малозаметных зонах точность вычислений может быть снижена, за счет чего происходит существенная экономия вычислительных ресурсов.

Очень наглядным примером того, как это делается, есть работа адаптивного GI движка Irradiance Map, описанная нами в серии статей про настройки V-Ray.

Такие движки, способные выборочно изменять точность вычислений в разных зонах сцены, называют пристрастными, предвзятыми или тенденциозными. По-английски Biased.  По-русски читается как ['baɪəst] (баиест). Так как они действительно предвзято подходят к вычислениям в сцене, просчитывая более точно лишь те зоны, которые посчитают важными. Помимо этого, результат их просчетов не изменяется от рендера к рендеру.

Такие движки – прерогатива исключительно CPU рендеринга. GPU рендеринг biased-движком не возможен в силу разного подхода к просчету.

Еще одной ключевой особенностью Biased движков является использование интерполяции. Она не только позволяет ускорить вычисления, интерполируя непросчитанные сэмплы, но и избавляет от шума, присущего сгенерированным на компьютере изображениям. Ведь интерполяция, это на практике – размытие.

 

Однако, тот же V-Ray, имеет в своем арсенале и алгоритмы, имеющие свойства тех, которые используются при рендеринге GPU. В частности, в них нет никакой адаптивности, и все зоны сцены просчитываются одинаково, вне зависимости от их важности.

Ярким примером беспристрастного движка является GI движок Brute force. Он не вычисляет никаких зон, не определяет никакую важность, он просто «шпарит» всю сцену с одинаковой точностью, основываясь лишь на единственной собственной настройке Subdivs, не изменяя качество просчета для всех зон сцены без исключения.

8 Nov, 2011 Anton (Staff Author)
8 Nov, 2011 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?
GPU-основанный рендеринг аналогично брут форсу беспристрастный. Его называют Unbiased рендеринг.

Справедливости ради, стоит отметить, что Brute force все же не является Unbiased движком, он лишь схож с такими движками и на его примере легко понять практическую разницу.

Так вот, Unbiased движки могут работать с GPU, то есть могут вести вычисления как центральным процессором компьютера, так и видеокартой. Именно об этих Unbiased движках идет речь, когда заходит разговор о GPU-рендеринге.

Как я уже сказал, в Unbiased рендеринге нет адаптивности и уж тем более интерполяции. Вследствие чего, избавиться от шума при Unbiased рендеринге практически невозможно. Разумеется, можно добиться того, что шума будет практически не видно вообще (если специально его не выискивать 😁). Однако, расплатой за это будет ненормальное увеличение времени рендеринга.

Unbiased движки идеально подходят для GPU рендеринга. Просто потому, что видеокарты по сути и предназначены для таких вычислений.

Дело в том, что Unbiased рендер считает всю картинку сразу во множество потоков одновременно. Это просто идеально подходит для параллельной конвейерной архитектуры GPU видеокарт.

Характерной особенностью Unbiased движка является то, что у него нет как такового конца рендеринга. Unbiased рендериннг длится бесконечно, с каждой секундой просто пополняя просчитываемую картинку новыми цветовыми данными. По своей сути, Unbiased рендерер просто добавляет всю новую и новую цветовую информацию во фрейм буфер до тех пор, пока пользователь принудительно не прервет этот процесс или это не сделает автоматическое прерывание расчетов, заданное вручную перед рендерингом.

Вот посмотрите это знаменитое презентационное видео Unbiased движка V-Ray RT:



Если вы внимательно присмотритесь к рендеру на видео, то вы увидите, что во время движения по сцене картинка получается очень шумной. Но стоит лишь остановиться на каком-то ракурсе, то шум начинает исчезать и картинка становиться более светлой и чистой.

Может показаться, что при движении специально снижается качество, чтобы меньше тормозить вращение RT вьюпорта, а потом улучшается лишь при остановке движения. Но это не так. Unbiased рендерер постоянно ведет просчет текущего ракурса с одинаковой интенсивностью. Просто во время остановки на каком-нибудь ракурсе, видимое изображение начинает дополняться новой цветовой информацией, которая отображается как видимое улучшение. Достаточно оставить такое вычисление в покое, как с каждой минутой видимое изображение будет уточняться. При этом неуточненных точек, которые мы и видим как шум, будет становиться все меньше и меньше.

Для сравнения, Biased движок высчитывает рендер последовательными достаточно крупными порциями. Он не дополняет его бесконечно, он четко выполняет просчет с заданным уровнем качества. В отличие от распаралеленного Unbiased рендеринга, Biased рендеринг более последователен и наибольшим образом подходит для CPU.

8 Nov, 2011 Anton (Staff Author)
8 Nov, 2011 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?
Вот теперь мы вплотную подошли к сравнению CPU и GPU рендеринга.

Но в самом сравнении находится главный парадокс темы.

Сравнить CPU и GPU рендеринг просто численно на предмет дольше-быстрее нельзя. Точнее, можно сравнить скорость работы CPU и GPU на Unbiased рендерере. Однако это так же глупо, как сравнивать  на вспашке поля одинаковые по мощности трактор и спорткар, только по тому, что у того и того по 300 лошадиных сил и оба с колесами 😁

Кстати, именно об этом непробиваемо замалчивают «соревнователи» CPU с GPU. А заодно и маркетинговые лозунги производителей видеокарт.

Дело в том, что никто в здравом уме, в реальной ситуации, не станет рендерить с помощью CPU Unbiased-рендерером, предназначенным для GPU. Это, по меньшей мере, глупо.

Единственным хоть сколь уместным, может быть сравнение Unbiased GPU рендеринга и Biased CPU рендеринга. Однако это сравнение может быть лишь субъективным, так как время Unbiased рендеринга – бесконечность.

Что здесь означает субъективное сравнение?

А значит это то, что сравнивать можно лишь время на создание визуально неотличимых изображений, сделанных Unbiased и Biased движками. То есть, нужно взять конкретную сцену и отрендерить ее Biased движком с помощью CPU. Затем, запустить эту же сцену на просчет Unbiased рендерером на GPU и дождаться пока, визуально качество картинки не станет сравнимым с результатом Biased рендерера. И только потм, сравнивать затраченное на вычисления время.

И, вот тут-то начнутся проявляться «особенности» Unbiased движка. Первая из них это то, что добиться столь же чистой (не шумной) картинки без интерполяции, которая активно применяется при Biased рендеринге, на Unbiased движке «малой кровью» не выйдет. Привидется долго ждать, чтобы видеокарта дополнила фрейм буфер цветовой информацией до полного визуального отсутствия черно-серого зерна. Второй «сюрприз» заключается в том, что Unbiased движок имеет технологические ограничения и его возможности гораздо скромнее, чем у Biased рендерера. Например, тот же V-Ray RT имеет ряд неподдерживаемых функций, то есть он попросту не сможет отрендерить все даже самые, казалось бы, элементарные, эффекты, которые давно доступны Biased рендереру.

Однако, это в общем-то мелочи. Допустим, что первую особенность можно компенсировать покупкой дополнительных видеокарт, а второю просто настройкой сцены другими методами.

Однако третьей существующей проблеме, разумного решения нет. Заключается она в недостаточном количестве Onboard Video Memory. То есть, для серьезной работы, установленных в видеокарте одного, в лучшем случае двух гигабайт видеопамяти, попросту недостаточно, чтобы отрендерить коммерческую сцену с, например, классическим интерьером. При попытке отрендерить обыденную для большинства визеров картинку, Unbiased рендерер просто вывалится, из-за банальной нехватки видеопамяти.

8 Nov, 2011 Anton (Staff Author)
8 Nov, 2011 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?
Вот теперь мы плавно подобрались к вопросу железа.

Чем Тесла по сути отличается от Квадры? Да ничем 😁

Отличие лишь в бОльшем количестве видеопамяти, установленной в картах серии Tesla.

В некоторые модели установлено аж по 6GB Video Memory, что, в общем-то, не плохо, однако все же недостаточно в особо тяжелых рендерах. Но, что смешно, цена за этих несколько гигабайт видеопамяти, просто ужасающая. За цену одной такой квадры можно купить 5 отличных системных блоков для дистрибутивного рендеринга. Мало того, это еще не самое «смешное». Дело в том, что отличие игровой видеокарты, построенной на том же чипе, в GPU рендеринге, тоже исключительно в объёме видеопамяти, а не как не в скорости смоаго рендеринга. Проверено!

Теперь понимаешь, почему до сих пор процессорный рендеринг не ушел в прошлое? 🙂

8 Nov, 2011 Maks (Staff Author)
8 Nov, 2011 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?
Сразу хочется отметить, что все вышеизложенные рассуждения справедливы только на момент их написания, т.е. конец 2011 года. Рендеринг фотореалистичных изображению с использованием GPU - это очень перспективное направление. Не нужно долго задумываться над тем, чтобы понять, что видео-карта всё-таки сделана для отрисовывания изображений 🙂 Текущее не самое успешное положение дел рендеринга GPU, да и скорее всего, в ближайшие годы, лишь временно. Рендеринг качественных картинок с помощью мощностей видео-карты находится в своей "младенческой" стадии. В будущем можно будет проводить битвы CPU и GPU. Но на это нужно некоторое время 😉

8 Nov, 2011 Anton (Staff Author)
8 Nov, 2011 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?
Да я думаю, что в будущем, будут именно гибридные технологии, позволяющие рендерить CPU какие-то эффекты, а какие-то GPU. По крайней мере, все к тому идет.

8 Nov, 2011 Victor Skea
9 Nov, 2011 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?
Огромное спасибо за столь подробный анализ вопроса. Вы сэкономили мне (и не только мне) огромную кучу денег🙂 Действительно лучше подождать будущего. А с нашим прогрессом оно наступит уже через пару лет. Но даже тогда за эти же деньги будут продаваться карты совсем другого поколения и КПД от их использования будет в разы существеннее.

Вы не представляете как я вам благодарен. После ваших уроков и ответов всё самое сложное становится элементарным. Спасибо, что вы есть!

9 Nov, 2011 Владимир
9 Nov, 2011 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?
Таких развернутых и полных ответов на вопрос можно встретить крайне редко, огромное спасибо, читал с большим интересом и узнал много нового. 👍

10 Nov, 2011 LexxD
10 Nov, 2011 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?
Антон, спасибо большое ;🙂🙂🙂 Очень пригодилось!!!!🙂🙂

22 Nov, 2011 Роман
22 Nov, 2011 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?
Кстати Arion рендер не ограничен объемом видеопамяти, в отличие от, например Iray, по-крайней мере мере мне так показалось :|

Я бы с удовольствием поставил бы Xeon 7500 и забыл про GPU рендер 😁

23 Nov, 2011 Наталья
23 Nov, 2011 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?
Привет всем, очень понравилась статья Антона, спасибо! Я работаю на maya , анимация не очень сложных моделей. Сейчас собираюсь покупвть новый системник и встает проблема выбора видео для этого. Хотела брать квадру, но теперь думаю возьму игровую карточкуz. Вот только какой мощности должна быть карта для z-brush ? Я буду юзать ее в след. проекте.

8 Nov, 2011 Maks (Staff Author)
23 Nov, 2011 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?
Доброе утро, Наталья! Заходи в эту тему, как раз это сейчас и обсуждается: Какую видеокарту брать для работы в 3d?

25 Nov, 2011 Sergej102
25 Nov, 2011 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?
У меня вопрос про GPU: Cuda где-нибудь всё-таки еще пригодится в МАКСе?

Может какие-нибудь плагины или функции только CUDA признают.

Почему я это спрашиваю, потому что если он особо ни для чего в максе не нужен, то я в выборе видеокарты больше к amd склоняюсь.

Когда брал на работу AMD HD6950, боялся что VrayRT он не понравится, но опасения были напрасны, всё работало (OpenCL), но какого-то сверх быстрого ActiveShader(+VrayRT) я так и не получил.

8 Nov, 2011 Anton (Staff Author)
25 Nov, 2011 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?

1. Что такое CUDA и какая от него польза пользователю?
2. Мне нравятся видеокарты от AMD, но я выбираю от NVIDIA потому что там есть CUDA, я правильно делаю?
3. Где CUDA используется в 3ds Max?
4. Обязательно ли моя видеокарта должна поддерживать CUDA? Я что-то потеряю, если она CUDA не поддерживает?

Чтобы ответить на все эти вопросы, следует разобраться, что же такое CUDA.

CUDA – аппаратно-программная архитектура, которая позволяет специалистам по программному обеспечению создавать приложения, ведущие вычисления на видеокартах, которые поддерживают технологию GPGPU. Простыми словами, это один из языков программирования, позволяющий писать программы, работающие на мощностях не CPU (как это обычно бывает), а на мощностях NVIDIA видеокарт. CUDA это не какой-то отдельный чип на видеокарте, это не функция, ускоряющая GPU, это не эффект, улучшающий графику. Нет. В видеокарте это способность работать с этим конкретным языком программирования.

Вот теперь, когда мы познакомились со смыслом аббревиатуры CUDA и, тем самым, ответили на первый вопрос, можно перейти ко второму и, для ясности, перефразировать его.
«Мне нравятся видеокарты, поддерживающие один язык программирования, но я выбираю другие, потому что они поддерживают другой язык программирования, я правильно делаю?»
Ты собрался писать программы для GPU, и CUDA тебе удобней? Нет? Так почему же тебе есть дело до поддержки одного из способов программировать?

А потому, что ты запутался в умелых маркетинговых лозунгах вокруг NVIDIA, преподносящих CUDA, как единственную и неповторимую технологию использования GPU для ведения вычислений 🙂

Давай теперь ответим на оставшиеся вопросы.

Где CUDA используется в 3ds Max? – Нигде, CUDA никакого отношения к 3ds Max не имеет.

Обязательно ли моя видеокарта должна поддерживать CUDA? Я что-то потеряю, если она не работает с CUDA? – Нет, твоя видеокарта совершенно не должна быть привязана к ограниченному программному обеспечению, монополизированному одним из производителей железа.

Как ты сам сказал, тот же V-Ray RT спокойно себе работает с OpenCL.

Следует понимать, что разработчики популярного ПО, будь то V-Ray или любая другая программа, не станут ограничивать продажи своего программного продукта лишь для владельцев железа  одного разработчика и полностью игнорировать других своих потенциальных клиентов, особенно учитывая что приверженцев AMD не меньше чем NVIDIA. Это, по меньшей мере, глупо, по большей – это банальная потеря прибыли. Скорее это NVIDIA мечтает всех разработчиков ограничить, заставив их писать залоченное под их видеокарты ПО. Но это так же реально, как и существование президента вселенной 😁
OpenCL – это язык программирования (упрощенно), позволяющий писать программы, ведущие вычисления на видеокарте, конечно же, в не зависимости от его производителя. Его будущее куда более перспективно, нежели будущее ограниченного в выборе железа CUDA.

Способность программы работать лишь на одних видеокартах и слепое игнорирование других, это ее недостаток, а никак не преимущество, что прекрасно понимают разработчики. Исключением могут служить лишь специальные программно-аппаратные комплексы, ориентированные под выполнение одной узкоспециализированной задачи. Например, под медицинские или финансовые вычисления. Но они никакого отношения не имеют к пользователям десктопного ПО и никак не могут выступать в роли преимущества для них.

Если тебе интересно почитать по этой теме больше, то ты можешь пройтись по ссылкам в посте. Там более конкретная информация по ней.

Нам же осталось подрезюмировать.

Не нужно оглядываться на вводящие в заблуждение маркетинговые лозунги. Покупай ту видеокарту, которая тебе больше нравится 😉


25 Nov, 2011 Sergej102
25 Nov, 2011 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?
Наконец-то всё понятно) Спасибо!!!! 🙂

5 Dec, 2011 Василий
5 Dec, 2011 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?
Антон спасибо!
очень полезная информация.

21 Dec, 2011 alios
21 Dec, 2011 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?
айя-яй какие же вы молодцы! Так разжевать и объяснить. Пожалуй равных вам нет. Спасибо за это и сэкономленное время и средства.

27 Dec, 2011 Роман
27 Dec, 2011 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?
Спасибо Антон! Ты делаешь доброе дело!

8 Nov, 2011 Anton (Staff Author)
15 Jan, 2012 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?

Кстати, недавно, Nvidia открыла исходный код компилятора CUDA, что позволяет использовать ее для других архитектур и процессоров, в том числе AMD GPU и x86 CPU. Что собственно и следовало ожидать. Так, что теперь даже этого, вынуждающего, аргумента к покупке видеокарты от Nvidia – нет. Можно смело выбирать видеокарту по производительности и цене, не зацикливаясь на одном разработчике видеопроцессоров 😉


19 Jan, 2012 Александр
19 Jan, 2012 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?
Здравствуйте.
В 2012 максе nvidia реализовала свой драйвер Nitrous вместо Direct3D.

По субъективным ощущениям nvidia 540m стала шустрее работать, чем Radeon 5870.

8 Nov, 2011 Anton (Staff Author)
19 Jan, 2012 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?
Привет!

Скорость вьюпорта, при работе с игровой видеокартой, очень зависит и от процессора и от разрешения самого вьюпорта. 540m – это мобильная видеокарта, Radeon 5870 – стационарная. Значит первая в ноуте, вторая на настольном компьютере.

Так вот:

Процессоры у ноута и стационарного компа разные?

Разрешение монитора подключенного к стационарной видеокарте больше чем разрешение дисплея ноутбука?

Если да, то сравнение, к сожалению, не объективное, даже в контексте субъективного ощущения 🙂

Сравнивать разные видеокарты, на разных платформах и в разных условиях - нельзя.

И потом, причем тут инвидия к нитросу? У меня нитрос и на радеоне работает 😁

Включи на Radeon 5870 Nitrous и работай на нитросе с радеоном.

Кто же тебя заставляет сидеть на директе вместо нитроса на радеоне?

19 Jan, 2012 Александр
19 Jan, 2012 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?
Стационарник - i7 970 Gulftown
Ноут - i7 2630QM

разрешение и там и там FullHD

У меня радик в нитросе постоянно артефакты выдает, поэтому я в d3d работаю, а вот ноут в нитросе быстрее, чем в d3d.

Да и к тому же - написал, что субъективно 😁

8 Nov, 2011 Anton (Staff Author)
19 Jan, 2012 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?
Привет!

Да не я понял что субъективно 🙂

Даже не знаю, что тебя смущает. Может я мло в 2012 рабтал на радике 😁

Но так артефактов не замечал.

Хотя, как по мне, артефакты страшны лишь на рендере, а во вьюпорте, в угоду производительности последнего, можно и не взирать ни на что.

19 Jan, 2012 Александр
19 Jan, 2012 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?
Ну вот один из примеров
Работа со сплайнами - их вообще бывает не видно, иногда вертексы пропадают. В общем адский ад и попаболь. Впрочем, хорошо что Автодеск оставили возможность работать в d3d (еще бы они этого не сделали 🙂 ).

Ну вот как-то так 🙄
-------
П.С. Сердечно прошу ответить в теме про рендеринг и пост HDRi.

13 Feb, 2012 Вадим
13 Feb, 2012 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?
Я вот не могу понять одного. По идее видеокарта может выполнять те же самые вычисления при рендринге что и CPU. При многопочтоном рендре каждый квадратик рендрит свое ядро. Так почему нельзя алгоритмы обычного врей выполнять на видеокарте разбив ее на n кусочков, соответствующих количеству потоков видеокарты? И тем более проц и видео могли бы рендрить одновременно. Почему видеокарта не может производить те же вычисления, что и проц?

8 Nov, 2011 Anton (Staff Author)
13 Feb, 2012 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?
Полагаю, ответ на этот вопрос, глубоко уходит корнями в программирование, но ответ на него, скорее всего, вполне тривиальный. Иначе бы такую возможность давным-давно реализовали бы. Но так же, скорее всего, дело в том, что поток видеокарты, далеко не равен потоку процессора и на то, что у одного ядра современного CPU уйдет 10 секунд, у покового процессора видеокарты уйдет 10 часов. Наивно полагать, что современная видеокарта у которой запросто может быть от полторы до двух тысяч таких процессоров - то же самое, что и CPU с 2000 ядер 🙂

Именно по этому при GPU рендеринге видеокарта считает не бакеты, а малюсенькие «зерна», так как с бакетами, она бы не справилась. И из за того, что пришлось бы рендер разбивать на 2000 бакетов, и из за того, что их заглаживание между собой потребовало-бы больше ресурсов, чем их вычисление, и из за того, что сам принцип работы вычислительного потока видеокарты иной, нежели чем у центрального процессора, такое вычисление не возможно. Ведь рендеринг изначально был разработан для CPU.
Кроме того, сильно вводит в заблуждение название потоковых процессоров «ядрами» . Это не те ядра, которыми оснащен CPU. Просто так называются, в связи со схожими функциями. Это название скорее маркетинговое, нежели техническое. Чтобы у покупателей глаза разбегались: «ООО! 2000 ядерная видеокарта, круче чем мой 4х ядерный проц. – Беру! » 😁

Поэтому, все опять упирается в разницу между трактором и спорткаром.


13 Feb, 2012 Валерий
13 Feb, 2012 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?
Добрый день! Прочитал все сообщения данного форума и всё же остались вопросы. Из всего вышесказанного становится, что в ближайшем будущем GPU рендер заменит постепенно Cpu. Улучшаются программы типа "lumion 3d" которые в полной мере могут задействовать ресурсы видеокарты, так же V-Ray с каждой новой версией улучшает работу с GPU
Появился ряд вопросов: (Хочу сразу уточнить давайте не будем брать цену на видеокарты хочется понять технически что лучше )
1. Если я правильно понимаю профессиональная видеокарта нужна только тогда когда используются очень большие сцены , так как когда идет GPU рендер информация находится в буфере видеопроцессора. Возникает вопрос:
• GeForce GTX 580
• Radeon HD 7950
• Tesla C2050
имеют 3072 МБ памяти. Судя из статьи которую представил Антон (RenderStuff) #2128
Выходит , что никакой разницы между профессиональной картой и игровой разницы в GPU рендере не будет? Да же с учетом супер мега дров для теслы.
2. Возьмем к примеру те же игровой видеокарты
• GeForce GTX 580
• Radeon HD 7950
Очень сходные по параметрам видеокарты.
Как говорит Антон (RenderStuff) #2310
«Не нужно оглядываться на вводящие в заблуждение маркетинговые лозунги. Покупай ту видеокарту, которая тебе больше нравится»

Подскажите пожалуйста, на что нужно смотреть выбирая видеокарту для GPU рендера?

К примеру не понятно предназначение Унифицированные конвейеров

8 Nov, 2011 Anton (Staff Author)
13 Feb, 2012 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?

Привет!

Вообще-то нет, ты не совсем верно понял. В ближайшем будущем GPU рендер навряд-ли заменит постепенно CPU. Причем не в ближайшем, не в далеком 😁

Все ищут панацею, надеясь на чудеса техники. Но парадокс в том, что развиваются не только GPU, но и CPU. Так что когда видеокарты станут готовыми выполнять тот объем визуализации, который способны выполнять современные процессоры, в том же качестве и с той же скоростью, к тому времени процессоры будут уже совсем другие и не факт, что видеопроцессоры смогут за ними угнаться. По крайней мере, официально такой тенденции пока нет.

Скорее, будут гибридное ПО, которое будет для одних задач использовать CPU а для других GPU.

1. Не будет. Дрова теслы не имеют никакого непосредственного отношения к алгоритму рендеринга встроенному в рендер движок.

2. На данный момент, адекватных Unbiased рендереров, способных столь же качественно и в полном объеме производить визуализацию, как современные Biased рендереры – нет. По сему, нет и адекватных сравнительных тестов GPU, по которым можно было бы выбрать наиболее оптимальную видеокарту по соотношению цена/производительность. Единственное, на что можно опираться в выборе видеокарты, это просто ее абсолютная производительность в других приложениях, в играх и т.д. То есть, чем видеокарта быстрее, тем лучше, но тем она и дороже.


5 Apr, 2012 Mishanes
5 Apr, 2012 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?
как я понимаю максвел является Unbiased рендером, то есть в таком случае прирост почти гарантирован.
конечно вряд ли кто-то из тут присутствующих им пользуется в коммерческих проектах.
но в любом случае это дает возможность всяким неугомонным энтузиастам
экспериментировать.
Так что будет очень интересно если кто-то напишет как заставить видюшку рендерить в максвеле.
желательно не в максвел студии а из макса

24 Sep, 2012 Андрей
24 Sep, 2012 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?
Антон все красиво и точно расписал и оно вроде бы все так но:

1. О чем тогда думаю разработчики проф-видеокарт, раз это так экономически невыгодно.. (1 карта незаменит 5 системников), мы почему-то всегда себя ставим умнее создателей 🙂 может все таки дела в софте ???

2. Как обстоят дела с GPU на сегодняшний день?
что можете сказать о внешних рендерах:
- Octane Render3D - http://habrahabr.ru/post/142213/
- Cycles Render - http://designlenta.com/post/3d-works-octane-render/
- Arion - http://www.randomcontrol.com/arion

Было бы очень неплохо получить от Вас урок по Octane Render3D в сравнении с CPU.

8 Nov, 2011 Anton (Staff Author)
25 Sep, 2012 # Re: GPU против CPU рендеринга. Стоит ли рендерить видеокартой?
1 – Как уже расписано, дело в маркетинге. Потому, что все что позиционируется как профи – дорого.
Почему на заводе из 2000 работников, на их зарплаты идет 10% от стоимости продукта произведённого заводом, в то время, как а 10а Топ-менеджеров, по времени работая не больше чем любой из этих работников, получают 90% заработанного от продажи этого продукта? Неужели они вдесятером производят 90% продукта, а 2000 работников завода лишь 10%...?

Разработчики думают о том, что ты профи и можешь себе это позволить. Успешно пользуясь этим принципом, потому, что он работает. Вот и все.

2 – Все описанное выше в теме, актуально на сегодняшний день. Нечего не изменилось за несколько месяцев, да и тенденции к изменению не появилось 😁

Я понимаю, что очень хочется схитрить, купив одну видяху за 300 баксов, скачать какой-то мифическо-магический софт и, обманув судьбу, получить производительность рендер-фермы за 30 000 долларов. Но, к сожалению, это мечты на грани безумия. Не будет чудес. Не ждите. Когда «прогресс» поднимет GPU до таких высот, то CPU тоже будут уже другие. Не GPU не CPU производители не стоят на месте. Так, что все вернется на исходную. Не видитесь на маркетинг, по поводу «суперкомпьютера» из одной видеокарты. Когда заявляют о терафлопах производительности очередной теслы, то внимательно читайте для какой задачи и вы поймете, что никакого чуда нет. Просто узкоспециализированая железяка заточена под одну узкоспециализированную потоковую задачу, при этом, для универсальных задач, коим является современный фотореалистичный рендеринг – не пригодна 🙄

А по поводу урока, то урок по такому-то рендеру в сравнении с процессором, это немножко каламбур 😁

В любом случае, уроков по Octane Render3D у нас, точно не планируется и навряд-ли когда-то будут. Посоветовать какой-то урок тоже не посоветую, так как в своей работе пользуюсь исключительно фотореалистичным и гибким V-Ray, который все время развивается и, скорее всего, всегда будет более интересным и перспективным чем конкурирующие решения. По крайней мере, пока не появится что-то новое и революционное. Но, пока нечего такого не появилось. Как только появится, мы обязательно откроем эту тему и рассмотрим все перспективные направления.

Пока же, оставляю эту тему закрытой, в виду ее полной исчерпанности на сегодняшний день 😉


Обсуждение закрыто.

Правила Пользования Сайтом

RenderStuff © 2008