Тест и сравнение RTX 2080ti vs RTX 4090 в Unreal Engine, 3DsMax, Substance Painter + Бонус🐈

Поделиться
HTML-код
  • Опубликовано: 23 янв 2025

Комментарии • 36

  • @denisd7174
    @denisd7174 2 года назад +2

    Спасибо, Саша) Я очень ждал этот выпуск!) Сразу после выпуска обзора на 2080ti)

  • @FuriousCommunist
    @FuriousCommunist 8 месяцев назад +1

    Большое спасибо за сравнение и тесты!

  • @counterrage
    @counterrage 2 года назад +3

    полезный обзор. спасибо.

  • @antoncgart
    @antoncgart Год назад

    Спасибо! очень полезное видео!
    п.с. лока на Лес в Круглике или Ирпене похожа. Классно сделал 👍

    • @DemerOnline
      @DemerOnline  Год назад

      Спасибо. Это оно и есть. Я до войны постоянно гулял и катался на велике в Новобеличах, Ирпене, Пуще. Живу рядом, насмотренность местных пейзажей присутствует🙂

  • @23deadmaroz
    @23deadmaroz Год назад +1

    Спасибо за видео. У меня ситуация почти такая же. UE5.1, сейчас 2080ti от асуса. Карта в анриале просто подыхает из-за нехватки памяти. Думал обновляться на 4090, но поглядывал и на 4080. Теперь выбор очевиден, 24гб памяти тащат.

    • @airun5362
      @airun5362 7 месяцев назад

      есть 3090ti, для игр хуже 4080, но для работы сойдет тк памяти больше, но надо внимательно тк жрет много по питанию.

  • @DeliriousBlake
    @DeliriousBlake 2 года назад +1

    Благодарю, хорошее видео с сравнением. Как раз раздумываю над тем, какую видеокарту использовать для работы. Нашла вас совершенно случайно, увидела ваш комментарий под одним очень бездарным видео. И повторюсь, благодарю, очень полезный ролик 👍

  • @ПавелГеворков-п2л

    Что бы вы сказали о связке из двух 3080 ti 12Gb?

    • @DemerOnline
      @DemerOnline  Год назад

      Я скептически отношусь о связках из нескольких видеокарт, если вы ними не майните, конечно. Разработчики софта не особо поддерживают такие решения, да и видеопамять не суммируется. Сомнительная идея, в общем. Я бы не стал так делать

    • @ПавелГеворков-п2л
      @ПавелГеворков-п2л Год назад

      @@DemerOnline я думал обмануть систему ))

  • @dmitry2541
    @dmitry2541 4 месяца назад

    вы чо? не можете объяснить что лучше для анреала 24 гб видео и 192 бит или 12гб видео и 256 бит?

    • @DemerOnline
      @DemerOnline  4 месяца назад

      На 2080ti 11 гб видеопамяти DDR6, с шиной 352 бита. У 4090 24 гб DDR6X с шиной 384 бита. Но на самом деле это не сравнимые параметры, поскольку они работают на разных GPU. Но там, где узким местом является именно объём памяти, его увеличение сильно повышает производительность, если GPU это позволяет.

    • @dmitry2541
      @dmitry2541 4 месяца назад

      @@DemerOnline спасибо, только не ясно где узкое место у анреала))

    • @DemerOnline
      @DemerOnline  4 месяца назад

      @@dmitry2541 да везде у него узкое место. Его просаживает всё - растительность, волюметрика, партиклы. Всё на костылях держится

    • @dmitry2541
      @dmitry2541 4 месяца назад

      @@DemerOnline спасибо, не подскажите что лучше 2060 супер с 8вгб или 3060 с 12 вгб, я по своему бюджету

    • @DemerOnline
      @DemerOnline  4 месяца назад +1

      @@dmitry2541 по сути, эти видеокарты почти одинаковые по производительности. Я бы выбрал 3060 12гб, потому что 8 гб в 2024-м году мало даже для многих игр, и хоть в 3060 шина медленнее, она при таком объёме и используется не так интенсивно, да и сам чип на более новом техпроцессе, карта будет дольше актуальной.

  • @GBorisov
    @GBorisov Год назад

    У меня 3070 на 8 об и ее не хватает для работы с текстурами в Substance в 4к, 8 БГ мало, сватается на ssd и приходится ждать. Вы пробовали в 4к отображении текстур работать?

    • @DemerOnline
      @DemerOnline  Год назад +1

      да, обе видеокарты нормально работают с 4к материалами и смарт-масками. Подтормаживание происходит только при накладывании процедурных sbs или многослойных смарт-материалов, когда комп их генерирует. Рисование кистями не тормозит. Вообще, я переходил на 2080ti с AMD R9 280X на 3 гб, и вот там в 4K режиме рисовать было не комфортно. У вас ещё может оперативы не хватать. Тяжёлые проекты могут занимать десятки гигабайт оперативной памяти, может её не хватать, и подтягивать данные из SSD теоретически

    • @GBorisov
      @GBorisov 8 месяцев назад

      @@DemerOnline Блин, спустя год снова наткнулся на ваше видео) У меня 64 гб оч. быстрой оперативки. Сейчас добрался до UE5 и 8gb - печаль) Почти купил 4070- super на 12 gb, которая по времени рендера и fps в играх как 3090 но памяти для UE5 мало(

  • @MrRedouble
    @MrRedouble Год назад +1

    Хотя бы 1 киловатт? 850 gold достаточно для 4090 и 5900x

    • @DemerOnline
      @DemerOnline  Год назад +2

      Asus для своей версии Strix OC с заводским разгоном рекомендует блок питания на киловатт. Для Palit GameRock OC вообще 1200 ватт. Референсная же требует 850. В целом, китайские ватты отличаются от блока к блоку, конечно. Но так же мы знаем что со временем и выдаваемая мощность у них снижается, да и процессоры по-разному тянут. У меня 9900К в небольшом стабильном разгоне тянет ~250 ватт. Видеокарта - ~450 при максимальной нагрузке. То есть, уже 700. А материнка, 4 планки памяти, помпа водяного охлаждения D5, диски (у меня 6HDD+1SSD+1USB), вентиляторы (5 корпусных и 9 на радиаторе водяного). Итого это добро тоже от ста пятидесяти до двухсот пятидесяти ватт тянет. Получается практически впритык к киловатту, если в пике всё одновременно. Ну и накинуть на запас, обычно, требуется. Конечно, если комп геймерский, в нём вряд ли будет столько дисков и девятисекционный радиатор водяного охлаждения, так что в теории да, 850 честных ватт должно хватать.

  • @MrAsag
    @MrAsag Год назад

    интересно

  • @newlevel5857
    @newlevel5857 Год назад

    Привет. Стоит ли брать еще одну 2080 ти чтобы было в системе две карты или один 4090 ? К примеру смотрел тесты на сайте редшифт там х2 ртх супер выдает 2.5 сек против 1,50 сек у 4090. Или это только у редшифт ?

    • @DemerOnline
      @DemerOnline  Год назад +3

      Привет! Я тут не советчик, потому что не могу сравнить и потестировать SLI связку. Но по-хорошему, лучше поискать тесты именно в том софте, где планируется использовать видеокарты. Вообще, Multi-GPU поддерживается далеко не во всём софте и игровых движках, да и видеопамять не суммируется, могут быть проблемы с совместимостью. К тому же, две видеокарты по энергопотреблению могут превысить одну более новую. У меня, был опыт и с SLI и с CrossFire, и результат показал что оно того не стоит. Но это было в 2014-м, когда я работал в сервис-центре ASUS, и у нас было много видеокарт для тестов. А как сейчас с этим обстоят дела - неизвестно.

    • @newlevel5857
      @newlevel5857 Год назад

      @Demer Online ясно. А если добавит 4080 + 2080 супер ?

    • @DemerOnline
      @DemerOnline  Год назад

      @@newlevel5857 в сороковой линейке вообще нет поддержки SLI

  • @ВалерияРадченко-и2в
    @ВалерияРадченко-и2в 3 месяца назад

    Ты на Шри Ланке?

    • @DemerOnline
      @DemerOnline  3 месяца назад

      нет. На Шри Борщаговке

  • @Сергей-п9ц6д
    @Сергей-п9ц6д Год назад

    Demer Online Привет. В 3d max можно рендерить картинки
    на видеокарте ?

    • @DemerOnline
      @DemerOnline  Год назад +1

      Привет. Можно, но преимущественно с посторонними плагинами типа V-Ray

  • @lookmemorizedo2112
    @lookmemorizedo2112 6 месяцев назад

    Бро, какой блок питания ты поставил для 4090?
    Мне тоже предстоит переходить с 2080 на 4090.. Щас блок 750W, говорят только карта потребляет 600W.
    И сколько у тебя оперативной памяти? 4к текстура это прям большие)) зачем так много? видимо еще из-за этого фризы

    • @DemerOnline
      @DemerOnline  6 месяцев назад +1

      @@lookmemorizedo2112 Я поставил на 1000 Ватт блок питания. У разных производителей разные требования, видимо, схемотехника систем питания отличается. Но в моей системе много дисков, помпа, 9 вертушек на радиаторе водяного охлаждения, и 5 корпусных вертушек, и они много жрут, потому вариант блока питания на 850 ватт был бы прямо в упор. Оперативы 64 гига, 4 планки по 16. Вроде хватает на все проекты если не напортачить

    • @lookmemorizedo2112
      @lookmemorizedo2112 6 месяцев назад

      @@DemerOnline Принято, спасибо!

  • @thestringsofthehumansoul9478
    @thestringsofthehumansoul9478 6 месяцев назад

    Проблема современного железа в том, что оно не успевает за технологиями в новых 3D редакторах, или в том же последнем Unreal Engine 5. Всякие DLSS, Sub Surface Scattering, Tesselation, и куча прочих благ цивилизации. Не думаю что к моменту выхода видеокарты 5090 что-то изменится в лучшую сторону. К тому времени разработчики новых версий 3DS-Max, Maya, Blender, ZBrush, Substance Painter, Houdini, Marvelous Designer, Unreal Engine и т. д - придумают какие-либо новые фичи, способные в тяжёлой сцене с лёгкостью "повесить" и будущую 5090. Не даром же такие фильмы как "Аватар" рендерятся чуть-ли не по году на дорогущих рендер-фермах. Значит для серьёзной работы и серьёзных сцен надо брать сразу какую-нибудь ультра дорогущую: NVIDIA Quadro, или Tesla за 500 - 700 тысяч. Итого такой комп встанет в 3 - 4 миллиона, и будет по карману лишь олигарху-чиновнику, либо идти грабить банк + продавать почку чтоб собрать такой комп и более менее комфортно работать в 3D. 😀

  • @artsandsver
    @artsandsver Год назад +1

    Сам пересел с 2080ti на 4090. Полет нормальный!