Render.ru

Выбор видеокарты для 3D Max и игр типа Ведьмак-3

ЛМА

Смотритель
Рейтинг
1 181
#42
Безусловно. Чем он выше, тем быстрее обмен данными в карте, т.е. карта с более высокой битностью шины будет меньше тормозить при прочих равных. Однако если частота памяти низкая, а битность высокая, то эта высокая битность ничего не даст относительно более высокой частоты памяти но более низкой битности. Т.е. современные карты с средней битностью но с высокой частотой памяти и процессора должны работать по идее быстрее чем старые карты с высокой битностью, но низкими частотами.
А как вы фокусируете всё внимание на CUDA, а на сколько эти драйвера могут поднять производительность чтоб в той же цене утереть нос Радиону?
Пишут, что некоторых конкретных задачах CUDA может дать прирост на порядки, т.е. это будет для Радеона вообще недостижимо. Но суть даже не в этом, как я понимаю CUDA дает возможность использовать видеокарту не только для графических вычислений, а для и для многих других, что дает возможность использовать такие карты для много еще чего не связанного напрямую с графикой, но сильно влияющее на производительность системы в целом. Например то, что раньше считалось только процессором может считаться намного быстрее видеокартой. И под это разработчики уже и затачивают программы. Т.е. карта с CUDA это еще и задел на будущее.
В 3Д максе CUDA, к примеру, используется для GPU рендера , а так же для всяких штучек связанных с расчетом симуляции физических процессов. Т.е. даже в 3д максе на Радеоне много чего просто не заработает.
 
Последнее редактирование:
Рейтинг
200
#43
Пишут, что некоторых конкретных задачах CUDA может дать прирост на порядки, т.е. это будет для Радеона вообще недостижимо
ну вот этож так в общем,, :)
вы изначально требовали конкретику, а когда дали конкретику, то перешли на общее,.. :rolleyes:
а вот конкретно если опираться не на технические параметры, а на сугубо ценовые,.
я привёл в пример две пары карт идентичных по параметрам, но с прикольным разлётом по цене,
если убрать разлёт по цене то придётся сравнивать
Geforce Gtx 1060 3Gb Gddr5 (192Bit) и Radeon R9 390 8Gb Gddr5 (512Bit)
или
Radeon RX 5700 EVO OC edition 8GB GDDR6 (256bit) и GeForce RTX 2060 Gaming Z 6G 6GB GDDR6 (192bit)
https://www.gpucheck.com/ru-rub/com...8700k-3-70ghz-vs-intel-core-i7-8700k-3-70ghz/
но ок, в принципе разница не большая получается, что в принципе не понятно :Laughing:

а как и где можно узнать про эти драйвера CUDA? например на Geforce Gtx 1070 такие есть?
 

ЛМА

Смотритель
Рейтинг
1 181
#44
Ну наверное можно просто в Гугле поискать... И CUDA это не драйвера, вернее и драйвера тоже, но в первую очередь это железо способное так работать.
Конечно есть. Эта фича начала ставиться Нвидиа начиная с серии 8ххх, т.е. это уже больше 10 лет.

но ок, в принципе разница не большая получается, что в принципе не понятно
Примерно одинаковые карты сейчас стоят так же примерно одинаково, Нвидия чуть дороже, не не принципиально сильно.
К примеру Palit GeForce RTX 2060 SUPER стоит так же как и Radeon RX 5700 , имеет такую же битность шины и 8гб памяти.
А NVIDIA GeForce RTX 2070 чуть дороже, но и частоты у нее выше и процессоров побольше.
Но дело, повторю, не в этом, а в том нужна ли CUDA для вашей работы или нет. Если нужна, то альтернативы нет. Почитайте в инете что такое CUDA и потом посмотрите используют ли эту штуку те программы в которых вы собираетесь работать. Если используют, то надо брать Нвидиа не думая, если нет, то тогда и думайте.
 
Последнее редактирование:

А Е (LightZergo)

Активный участник
Рейтинг
8
#46
ЛМА, а Вы сравнивали производительность игровых GeForce и профессиональных Quadro в профессиональных приложениях, или же просто сравнили количество ядер CUDA, TMUS, ROPS у первых и вторых карт!?
Кроме того карты Quadro за счёт оптимизации своих драйверов полностью поддерживают все функции и оптимизации производительности, в том числе и во Вью порте при работе в профессиональных программах.
Единственное, где действительно нет как таковой оптимизации это GPU рендер, там все более прозаично и карты стоит оценивать по их характеристикам.
Но за профессиональными картами Quadro и тут преимущество в виде, как правило вдвое большего количества видео памяти.
Хотя самые продвинутые пользователи рендерят на Tesla и при этом очень хорошо себя чувствуют.
Tamabraxama первое, что Вам надо сделать, это выбрать себе ник попроще.
Второе не читать форумы и статьи 2016 года.
А третье зайти на официальный сайт nVidia и проверить актуальность и доступность драйверов, например для топовой версии Quadro M6000 поколения Maxwell.
Что касаемо вопроса денег и бюджета, то увы и ах каждый решает его для себя сам.
Quadro это недешевое удовольствие.
Тем более, что Вы получаете не только продукт в виде самого устройства, но и его поддержку, оптимизацию программного кода, новые и актуальные драйверы на долгую перспективу.
К слову сказать сейчас даже более старые карты на поколении Kepler получают новые драйверы.
 
Последнее редактирование:

ЛМА

Смотритель
Рейтинг
1 181
#48
ЛМА, а Вы сравнивали производительность игровых GeForce и профессиональных Quadro в профессиональных приложениях, или же просто сравнили количество ядер CUDA, TMUS, ROPS у первых и вторых карт!?
По крайней мере в тех обзорах и тестах, что можно найти в инете, Квадра Р6000 нигде принципиально не превосходит ТитанХР или 1080Ти именно в максе или майя, она практически им равна, вот только стоит вдвое дороже Титана и раза в четыре дороже 1080Ти. Разница (иногда значительная) есть только в некоторых других приложениях о которых тут речь вообще не идет. Однако если у вас есть какая то иная статистика, то поделитесь... Впрочем в этом наверное все равно нет смысла т.к. из-за своей цены Квадра в любом случае не может рассматриваться как вариант покупки, она просто не окупиться в той работе которой тут занимается большинство.

Как пример тестов где квадра в максе ничем не лучше титана или 1080ти
https://techgage.com/article/radeon-pro-vs-quadro-a-fresh-look-at-workstation-gpu-performance/4/
 

А Е (LightZergo)

Активный участник
Рейтинг
8
#50
Я думаю, что если Вам комфортно работать на GeForce, карта работает стабильно, без ошибок и нареканий и Вам хватает видеопамяти для Ваших задач, то Вам очень повезло.
Переубеждать кого-то нет никакого смысла, каждый сам выбирает свой путь.
Лично мне комфортно работать на Quadro.
Я получаю стабильную работу системы и большой объем видеопамяти, чего увы нет у GeForce.
 

ЛМА

Смотритель
Рейтинг
1 181
#51
большой объем видеопамяти, чего увы нет у GeForce.
С этим не поспоришь. Так же я полагаю, что Квадры и сделаны значительно качественнее, что означает надежность, стабильность и ресурс. Однако за полцены одной квадры можно купить две 1080 ти и получить помимо прироста общей мощности вдвое еще объем памяти как у квадры. Интересно какой будет результат. Одна Квадра против двух игровых, которые в паре еще и вдвое дешевле.
Да, и если взглянуть на название темы, то ее автор еще и играть хочет, а Квадры в играх значительно уступают игровым.
А тест, что вы выше представили очень похож по цифрам на тест из моей ссылки для... СолидВоркс. Там Квадра действительно в разы превосходит игровые карты. Но во первых это не тест конкретно для макса о котором идет речь (в нем то как раз результаты совсем другие и не в пользу квадры), а во вторых я не думаю, что такой отрыв там из-за какой то супер-пупер оптимизации драйверов, скорее всего там такая же ситуация, что раньше была с максом, когда стандартные драйвера макса искусственно понижали производительность игровых карт что бы потребитель покупал квадры у которых не было этого понижения. Но что бы это проверить нужно проводить тест на загруженность карты, а не только на конечную производительность. Если и игровые и Квадры нагружаются полностью, но Квадры при этом показывают значительно большую производительность, то тогда дело в Квадрах, в их преимуществе (железо или драйвера не суть), а если игровые просто тупо не нагружаются, а квадры нагружаются, то это тогда то, про что я выше написал - искусственное занижение производительности игровых карт. А в максе вот эту дискриминацию убрали, и карты теперь показывают одинаковый результат.
 
Последнее редактирование:

А Е (LightZergo)

Активный участник
Рейтинг
8
#52
Тест для SW, Вы правы. Карты полностью загружаются.
Объем видео памяти, полезной, более 11-12 GB Вы не получите, никак. SLI только для игр, и более того технология дублирует память первой карты во вторую. Полноценный NVLink тоже только в Quadro, самая доступная из которых RTX 5000.
И ещё одно, на что можно рассчитывать это на поддержку и обновление, оптимизацию драйверов под конкретные программные продукты, исправление ошибок и дальнейшую оптимизацию.
Например за последние два года, не меняя кремний, nVidia увеличила производительность карт на архитектуре Volta вдвое, при чем за счёт оптимизации программного кода.
AMD такого делать на будет.
 
Сверху