Спасибо. Это оно и есть. Я до войны постоянно гулял и катался на велике в Новобеличах, Ирпене, Пуще. Живу рядом, насмотренность местных пейзажей присутствует🙂
Спасибо за видео. У меня ситуация почти такая же. UE5.1, сейчас 2080ti от асуса. Карта в анриале просто подыхает из-за нехватки памяти. Думал обновляться на 4090, но поглядывал и на 4080. Теперь выбор очевиден, 24гб памяти тащат.
Благодарю, хорошее видео с сравнением. Как раз раздумываю над тем, какую видеокарту использовать для работы. Нашла вас совершенно случайно, увидела ваш комментарий под одним очень бездарным видео. И повторюсь, благодарю, очень полезный ролик 👍
Я скептически отношусь о связках из нескольких видеокарт, если вы ними не майните, конечно. Разработчики софта не особо поддерживают такие решения, да и видеопамять не суммируется. Сомнительная идея, в общем. Я бы не стал так делать
На 2080ti 11 гб видеопамяти DDR6, с шиной 352 бита. У 4090 24 гб DDR6X с шиной 384 бита. Но на самом деле это не сравнимые параметры, поскольку они работают на разных GPU. Но там, где узким местом является именно объём памяти, его увеличение сильно повышает производительность, если GPU это позволяет.
@@dmitry2541 по сути, эти видеокарты почти одинаковые по производительности. Я бы выбрал 3060 12гб, потому что 8 гб в 2024-м году мало даже для многих игр, и хоть в 3060 шина медленнее, она при таком объёме и используется не так интенсивно, да и сам чип на более новом техпроцессе, карта будет дольше актуальной.
У меня 3070 на 8 об и ее не хватает для работы с текстурами в Substance в 4к, 8 БГ мало, сватается на ssd и приходится ждать. Вы пробовали в 4к отображении текстур работать?
да, обе видеокарты нормально работают с 4к материалами и смарт-масками. Подтормаживание происходит только при накладывании процедурных sbs или многослойных смарт-материалов, когда комп их генерирует. Рисование кистями не тормозит. Вообще, я переходил на 2080ti с AMD R9 280X на 3 гб, и вот там в 4K режиме рисовать было не комфортно. У вас ещё может оперативы не хватать. Тяжёлые проекты могут занимать десятки гигабайт оперативной памяти, может её не хватать, и подтягивать данные из SSD теоретически
@@DemerOnline Блин, спустя год снова наткнулся на ваше видео) У меня 64 гб оч. быстрой оперативки. Сейчас добрался до UE5 и 8gb - печаль) Почти купил 4070- super на 12 gb, которая по времени рендера и fps в играх как 3090 но памяти для UE5 мало(
Asus для своей версии Strix OC с заводским разгоном рекомендует блок питания на киловатт. Для Palit GameRock OC вообще 1200 ватт. Референсная же требует 850. В целом, китайские ватты отличаются от блока к блоку, конечно. Но так же мы знаем что со временем и выдаваемая мощность у них снижается, да и процессоры по-разному тянут. У меня 9900К в небольшом стабильном разгоне тянет ~250 ватт. Видеокарта - ~450 при максимальной нагрузке. То есть, уже 700. А материнка, 4 планки памяти, помпа водяного охлаждения D5, диски (у меня 6HDD+1SSD+1USB), вентиляторы (5 корпусных и 9 на радиаторе водяного). Итого это добро тоже от ста пятидесяти до двухсот пятидесяти ватт тянет. Получается практически впритык к киловатту, если в пике всё одновременно. Ну и накинуть на запас, обычно, требуется. Конечно, если комп геймерский, в нём вряд ли будет столько дисков и девятисекционный радиатор водяного охлаждения, так что в теории да, 850 честных ватт должно хватать.
Привет. Стоит ли брать еще одну 2080 ти чтобы было в системе две карты или один 4090 ? К примеру смотрел тесты на сайте редшифт там х2 ртх супер выдает 2.5 сек против 1,50 сек у 4090. Или это только у редшифт ?
Привет! Я тут не советчик, потому что не могу сравнить и потестировать SLI связку. Но по-хорошему, лучше поискать тесты именно в том софте, где планируется использовать видеокарты. Вообще, Multi-GPU поддерживается далеко не во всём софте и игровых движках, да и видеопамять не суммируется, могут быть проблемы с совместимостью. К тому же, две видеокарты по энергопотреблению могут превысить одну более новую. У меня, был опыт и с SLI и с CrossFire, и результат показал что оно того не стоит. Но это было в 2014-м, когда я работал в сервис-центре ASUS, и у нас было много видеокарт для тестов. А как сейчас с этим обстоят дела - неизвестно.
Бро, какой блок питания ты поставил для 4090? Мне тоже предстоит переходить с 2080 на 4090.. Щас блок 750W, говорят только карта потребляет 600W. И сколько у тебя оперативной памяти? 4к текстура это прям большие)) зачем так много? видимо еще из-за этого фризы
@@lookmemorizedo2112 Я поставил на 1000 Ватт блок питания. У разных производителей разные требования, видимо, схемотехника систем питания отличается. Но в моей системе много дисков, помпа, 9 вертушек на радиаторе водяного охлаждения, и 5 корпусных вертушек, и они много жрут, потому вариант блока питания на 850 ватт был бы прямо в упор. Оперативы 64 гига, 4 планки по 16. Вроде хватает на все проекты если не напортачить
Проблема современного железа в том, что оно не успевает за технологиями в новых 3D редакторах, или в том же последнем Unreal Engine 5. Всякие DLSS, Sub Surface Scattering, Tesselation, и куча прочих благ цивилизации. Не думаю что к моменту выхода видеокарты 5090 что-то изменится в лучшую сторону. К тому времени разработчики новых версий 3DS-Max, Maya, Blender, ZBrush, Substance Painter, Houdini, Marvelous Designer, Unreal Engine и т. д - придумают какие-либо новые фичи, способные в тяжёлой сцене с лёгкостью "повесить" и будущую 5090. Не даром же такие фильмы как "Аватар" рендерятся чуть-ли не по году на дорогущих рендер-фермах. Значит для серьёзной работы и серьёзных сцен надо брать сразу какую-нибудь ультра дорогущую: NVIDIA Quadro, или Tesla за 500 - 700 тысяч. Итого такой комп встанет в 3 - 4 миллиона, и будет по карману лишь олигарху-чиновнику, либо идти грабить банк + продавать почку чтоб собрать такой комп и более менее комфортно работать в 3D. 😀
Спасибо, Саша) Я очень ждал этот выпуск!) Сразу после выпуска обзора на 2080ti)
Большое спасибо за сравнение и тесты!
полезный обзор. спасибо.
Спасибо! очень полезное видео!
п.с. лока на Лес в Круглике или Ирпене похожа. Классно сделал 👍
Спасибо. Это оно и есть. Я до войны постоянно гулял и катался на велике в Новобеличах, Ирпене, Пуще. Живу рядом, насмотренность местных пейзажей присутствует🙂
Спасибо за видео. У меня ситуация почти такая же. UE5.1, сейчас 2080ti от асуса. Карта в анриале просто подыхает из-за нехватки памяти. Думал обновляться на 4090, но поглядывал и на 4080. Теперь выбор очевиден, 24гб памяти тащат.
есть 3090ti, для игр хуже 4080, но для работы сойдет тк памяти больше, но надо внимательно тк жрет много по питанию.
Благодарю, хорошее видео с сравнением. Как раз раздумываю над тем, какую видеокарту использовать для работы. Нашла вас совершенно случайно, увидела ваш комментарий под одним очень бездарным видео. И повторюсь, благодарю, очень полезный ролик 👍
Что бы вы сказали о связке из двух 3080 ti 12Gb?
Я скептически отношусь о связках из нескольких видеокарт, если вы ними не майните, конечно. Разработчики софта не особо поддерживают такие решения, да и видеопамять не суммируется. Сомнительная идея, в общем. Я бы не стал так делать
@@DemerOnline я думал обмануть систему ))
вы чо? не можете объяснить что лучше для анреала 24 гб видео и 192 бит или 12гб видео и 256 бит?
На 2080ti 11 гб видеопамяти DDR6, с шиной 352 бита. У 4090 24 гб DDR6X с шиной 384 бита. Но на самом деле это не сравнимые параметры, поскольку они работают на разных GPU. Но там, где узким местом является именно объём памяти, его увеличение сильно повышает производительность, если GPU это позволяет.
@@DemerOnline спасибо, только не ясно где узкое место у анреала))
@@dmitry2541 да везде у него узкое место. Его просаживает всё - растительность, волюметрика, партиклы. Всё на костылях держится
@@DemerOnline спасибо, не подскажите что лучше 2060 супер с 8вгб или 3060 с 12 вгб, я по своему бюджету
@@dmitry2541 по сути, эти видеокарты почти одинаковые по производительности. Я бы выбрал 3060 12гб, потому что 8 гб в 2024-м году мало даже для многих игр, и хоть в 3060 шина медленнее, она при таком объёме и используется не так интенсивно, да и сам чип на более новом техпроцессе, карта будет дольше актуальной.
У меня 3070 на 8 об и ее не хватает для работы с текстурами в Substance в 4к, 8 БГ мало, сватается на ssd и приходится ждать. Вы пробовали в 4к отображении текстур работать?
да, обе видеокарты нормально работают с 4к материалами и смарт-масками. Подтормаживание происходит только при накладывании процедурных sbs или многослойных смарт-материалов, когда комп их генерирует. Рисование кистями не тормозит. Вообще, я переходил на 2080ti с AMD R9 280X на 3 гб, и вот там в 4K режиме рисовать было не комфортно. У вас ещё может оперативы не хватать. Тяжёлые проекты могут занимать десятки гигабайт оперативной памяти, может её не хватать, и подтягивать данные из SSD теоретически
@@DemerOnline Блин, спустя год снова наткнулся на ваше видео) У меня 64 гб оч. быстрой оперативки. Сейчас добрался до UE5 и 8gb - печаль) Почти купил 4070- super на 12 gb, которая по времени рендера и fps в играх как 3090 но памяти для UE5 мало(
Хотя бы 1 киловатт? 850 gold достаточно для 4090 и 5900x
Asus для своей версии Strix OC с заводским разгоном рекомендует блок питания на киловатт. Для Palit GameRock OC вообще 1200 ватт. Референсная же требует 850. В целом, китайские ватты отличаются от блока к блоку, конечно. Но так же мы знаем что со временем и выдаваемая мощность у них снижается, да и процессоры по-разному тянут. У меня 9900К в небольшом стабильном разгоне тянет ~250 ватт. Видеокарта - ~450 при максимальной нагрузке. То есть, уже 700. А материнка, 4 планки памяти, помпа водяного охлаждения D5, диски (у меня 6HDD+1SSD+1USB), вентиляторы (5 корпусных и 9 на радиаторе водяного). Итого это добро тоже от ста пятидесяти до двухсот пятидесяти ватт тянет. Получается практически впритык к киловатту, если в пике всё одновременно. Ну и накинуть на запас, обычно, требуется. Конечно, если комп геймерский, в нём вряд ли будет столько дисков и девятисекционный радиатор водяного охлаждения, так что в теории да, 850 честных ватт должно хватать.
интересно
Привет. Стоит ли брать еще одну 2080 ти чтобы было в системе две карты или один 4090 ? К примеру смотрел тесты на сайте редшифт там х2 ртх супер выдает 2.5 сек против 1,50 сек у 4090. Или это только у редшифт ?
Привет! Я тут не советчик, потому что не могу сравнить и потестировать SLI связку. Но по-хорошему, лучше поискать тесты именно в том софте, где планируется использовать видеокарты. Вообще, Multi-GPU поддерживается далеко не во всём софте и игровых движках, да и видеопамять не суммируется, могут быть проблемы с совместимостью. К тому же, две видеокарты по энергопотреблению могут превысить одну более новую. У меня, был опыт и с SLI и с CrossFire, и результат показал что оно того не стоит. Но это было в 2014-м, когда я работал в сервис-центре ASUS, и у нас было много видеокарт для тестов. А как сейчас с этим обстоят дела - неизвестно.
@Demer Online ясно. А если добавит 4080 + 2080 супер ?
@@newlevel5857 в сороковой линейке вообще нет поддержки SLI
Ты на Шри Ланке?
нет. На Шри Борщаговке
Demer Online Привет. В 3d max можно рендерить картинки
на видеокарте ?
Привет. Можно, но преимущественно с посторонними плагинами типа V-Ray
Бро, какой блок питания ты поставил для 4090?
Мне тоже предстоит переходить с 2080 на 4090.. Щас блок 750W, говорят только карта потребляет 600W.
И сколько у тебя оперативной памяти? 4к текстура это прям большие)) зачем так много? видимо еще из-за этого фризы
@@lookmemorizedo2112 Я поставил на 1000 Ватт блок питания. У разных производителей разные требования, видимо, схемотехника систем питания отличается. Но в моей системе много дисков, помпа, 9 вертушек на радиаторе водяного охлаждения, и 5 корпусных вертушек, и они много жрут, потому вариант блока питания на 850 ватт был бы прямо в упор. Оперативы 64 гига, 4 планки по 16. Вроде хватает на все проекты если не напортачить
@@DemerOnline Принято, спасибо!
Проблема современного железа в том, что оно не успевает за технологиями в новых 3D редакторах, или в том же последнем Unreal Engine 5. Всякие DLSS, Sub Surface Scattering, Tesselation, и куча прочих благ цивилизации. Не думаю что к моменту выхода видеокарты 5090 что-то изменится в лучшую сторону. К тому времени разработчики новых версий 3DS-Max, Maya, Blender, ZBrush, Substance Painter, Houdini, Marvelous Designer, Unreal Engine и т. д - придумают какие-либо новые фичи, способные в тяжёлой сцене с лёгкостью "повесить" и будущую 5090. Не даром же такие фильмы как "Аватар" рендерятся чуть-ли не по году на дорогущих рендер-фермах. Значит для серьёзной работы и серьёзных сцен надо брать сразу какую-нибудь ультра дорогущую: NVIDIA Quadro, или Tesla за 500 - 700 тысяч. Итого такой комп встанет в 3 - 4 миллиона, и будет по карману лишь олигарху-чиновнику, либо идти грабить банк + продавать почку чтоб собрать такой комп и более менее комфортно работать в 3D. 😀
Сам пересел с 2080ti на 4090. Полет нормальный!