🔥🔥🔥САМЫЕ ВЫГОДНЫЕ ВИДЕОКАРТЫ НА 2024🔥🔥🔥 ✅Бюджетные видеокарты от 10.000 до 25.000 руб.: 💜МЕГАМАРКЕТ GTX 1650 fas.st/YDuIx1?erid=25H8d7vbP8SRTvH4QP3RzP GTX 1660 Ti fas.st/UiXf3a?erid=25H8d7vbP8SRTvH4QP3RzP ❤Яндекс Маркет RX 6500 XT ali.ski/KO4yn?erid=25H8d7vbP8SRTvJ4Q27doN GTX 1660 Super ali.ski/UcaZs?erid=25H8d7vbP8SRTvJ4Q27doN RTX 2060 Super ali.ski/8VOfTX?erid=25H8d7vbP8SRTvJ4Q27doN RX 6600 ali.ski/ZVXyPj?erid=25H8d7vbP8SRTvJ4Q27doN ✅Средние видеокарты от 25.000 до 40.000 руб. 💜МЕГАМАРКЕТ RTX 3060 fas.st/gmnHR?erid=25H8d7vbP8SRTvH4QP3RzP RTX 4060 fas.st/cXUCSU?erid=25H8d7vbP8SRTvH4QP3RzP RX 7600 fas.st/SrUj6V?erid=25H8d7vbP8SRTvH4QP3RzP ❤Яндекс Маркет RX 7600 ali.ski/pQnAf?erid=25H8d7vbP8SRTvJ4Q27doN RX 6750 GRE ali.ski/7HxfG?erid=25H8d7vbP8SRTvJ4Q27doN RTX 4060 ali.ski/gVgjp?erid=25H8d7vbP8SRTvJ4Q27doN ✅Видеокарты выше среднего от 40.000 до 60.000 руб. МЕГАМАРКЕТ RX 7700 XT fas.st/7evlsm?erid=25H8d7vbP8SRTvH4QP3RzP RTX 4060 Ti fas.st/K9Fq0?erid=25H8d7vbP8SRTvH4QP3RzP Яндекс Маркет RX 7700 XT ali.ski/ZSWVc?erid=25H8d7vbP8SRTvJ4Q27doN RTX 4060 Ti ali.ski/0Mj6x?erid=25H8d7vbP8SRTvJ4Q27doN ✅Предтоповые видеокарты от 60.000 до 90.000 руб. 💜МЕГАМАРКЕТ RTX 4070 Super fas.st/oGQGo?erid=25H8d7vbP8SRTvH4QP3RzP RTX 4070 Super fas.st/sEWUnD?erid=25H8d7vbP8SRTvH4QP3RzP RTX 4070 Ti Super fas.st/-2cTxB?erid=25H8d7vbP8SRTvH4QP3RzP RX 7900 GRE fas.st/MINA3?erid=25H8d7vbP8SRTvH4QP3RzP RX 7900 GRE fas.st/QRp6gg?erid=25H8d7vbP8SRTvH4QP3RzP ❤Яндекс Маркет RTX 4070 ali.ski/PclpYq?erid=25H8d7vbP8SRTvJ4Q27doN RX 7900 GRE ali.ski/X9gkt?erid=25H8d7vbP8SRTvJ4Q27doN RTX 4070 Super ali.ski/v7wT9?erid=25H8d7vbP8SRTvJ4Q27doN RX 7900 XT ali.ski/lDSSo?erid=25H8d7vbP8SRTvJ4Q27doN ✅ТОП видеокарты от 100.000 до 250.000 руб. 💜МЕГАМАРКЕТ RTX 4080 Super fas.st/VCugD?erid=25H8d7vbP8SRTvH4QP3RzP RTX 4090 fas.st/MaE-m?erid=25H8d7vbP8SRTvH4QP3RzP ❤Яндекс Маркет RTX 4070 Ti Super ali.ski/cqzcV?erid=25H8d7vbP8SRTvJ4Q27doN RTX 4080 Super ali.ski/-VK9p?erid=25H8d7vbP8SRTvJ4Q27doN Реклама: ООО "МАРКЕТПЛЕЙС" ИНН: 9701048328 ООО "ЯНДЕКС" ИНН: 7736207543
Про 4060 тоже заливали блогерки, мол говно идея, а в итоге лучшее соотношение цены и качества. Да и стоит понимать, для чего и для кого такие видеокарты выпускаются. Если вы геймер, который хочет прикоснуться к плюс минус современным играм в fhd, прилично сэкономив, то не лишь за счёт памяти, но и за счёт низкого потребления мощности бп и минимально необходимого цп. Комбинация, сами понимаете... Но долбаёбам, дрочащим на ААА поделки этого не объяснишь. Не всем нужен неоптимизированный тухляк от маркетологов современных крупных компаний.
а 4060 не смущает? тут просто более быстрая память и больше ядер куда + может завезут давно анансированное ИИ-сжатие текстур, но на самом деле - вопрос цены.
@@АлексейВиноградов-н8зВ принципе, для 5060 хватает 128 бит. Это компенсируется быстрым кэшэм, уменьшая общее количество обращений к основному буферу видеопамяти.
вангую след технология продающую карту будет неиронка по апскейилингу текстур тем самым получая высокодетализированые текстуры при минимуме потреблении видеопямяти и это будет эксклюзивом 5000 линейки))
это всё ковид выжег все нейронные связи правильной коммуникации и мы стали тупыми не внимательными и забывчивыми . даже я писав этот коммент совершил кучу ошибок .
Суть в том, что так называемого "прорыва в графике" уже можно достичь и на 3000 поколении видеокарт, нужно просто заниматься оптимизацией. А новое более мощное поколение видеокарт для многих студий лишь ещё больше усугубит положение оптимизации, а количество криков о том, что "у вас старое железо, обновитесь", лишь увеличится...
@@стасстасов-ш6р да... Дешёвые понты в интернете это дело такое... И конечно же самоутвердиться решил немного. Повзрослей короче. А мой пост был иронией.
Везёт вам, а я жду Radeon RX 8400 с 1Гб памяти! Хотя у друга стоит Radeon RX 6500 XT с 4Гб и 64 бит шиной и его не кто за это не подкалывает, так как подкалыватели Нвидиа видят соринку в глазу Хуанга, но не видят бревна в глазу Лизы Суньмневидеокарту!
@@Igor-Bond ну не дураки должны были понять что такую тенденцию начала амд так как именно в 6000 поколении амд изобрели л3 кеш и благодаря ему шина стала не столь сильно важна а экономия на производстве выходит существенной + это помогло лучше сегментировать им видеокарты по памяти так как чипы памяти стали быть 2 гиговыми и с прежней шиной у всех было бы овер дофига памяти, на тот момент уже вышли 3090-3080-3070 и лишь в 3060 и 3050 имея обычную гддр6 нвидия со своей обычной шиной внезапно подарила 12 и 8 гб памяти а другие карты были на гддр6х которые еще на тот момент были только 1 гиговые и больше всего тогда 3090 пострадала со своими 24 банками памяти дофига жрущие, в 4000 поколении теперь и нвидия сделала громадный кеш но из л2 и это так же развязало руки лепить любую шину чтоб нормально сегментировать свои карты по памяти так как чипы памяти только 2 гиговые теперь и эта тенденция останется теперь надолго так как карты становятся заложниками своего разрешения для которого их создали весь для своего родного разрешения у них Максимальный фпс а будет повыше разрешение фпс просядет куда больше чем если бы была нормальная шина, как то так
Смейся смейся ведь 4060 со всеми своими минусами в 128 бит шина и 8гб памяти является лучшей в соотношении цена-качество в 4000 линейке а почему? Потомучто память не столько важна чип должен быть сильным иначе плевали игры на вашу память
@@Mac-ej1iy 4060 имеет только одно преимущество - холодная. Но она пипец, какая дорогая, РТХ ОН он не может, ДЛСС на ФуллХД - ужасен. Так что 7600 за эти деньги для игр - точно интереснее
это просто невозможно будет с такой битностью шины к тому времени 1 ячейка памяти будет куда больше вмещать минимум вот если бы ты сказал про 32 бит и 8 гб врам в такое с натяжкой но еще можно было бы поверить
@@ВикторБухаров-ф3ь А сейчас все стараются по тупому шутить, так как ума то нету! А вот интересно, сколько бит и сколько памяти будет в Radeon RX 8600, неужели опять 8 Гб и 128 бит шина?
@@Igor-Bond понятия не имею но наверное амд может пойти на шаг увеличения памяти как минимум из за того что они остаются на той же гддр6 уже дешёвой получается и чтоб хоть что то противопоставить нвидии могут и дать больше памяти
@@pozitronpozitronich3985 цена этой видеокарты будет соответствовать её размерам и энергопотреблению а еще хуанг для неё придумает новый разъём 12+12+36 пин который будет гореть ещё сильнее чем прежний 😁😁😁
@@jegorkravetski4414 мощность будет соответствовать её потреблению плюс к этому новый проприетарный разъём 12+12+36 пин и новый 2000W блок питания под неё 😁
Будет здорово если они на каждый проводник в разьеме свою ШИМку сделают, как на 3090. А то решили подлянку сделать на 40-х обьеденив линии 12в на видеокарте, где разделением силы тока начал заниматься разьем, а не ШИМ, вот он и подгорает от такой работы. Чтобы зеленые не отрицали, но это они виноваты в плавке разьемов, легко заметить сравнив разводку дорожек систем питания на 3090 и 4090.
@@ВикторБухаров-ф3ь Оптимистично, толщина 4090 FE 61мм, 5090 FE явно будет не тоньше. Толщина банкноты в 1000 руб. 0,1мм, получается 610 банкнот, т.е от 610000 руб.
Если они объединили два чипа это не значит что прирост производительности увеличится, во первых это должна позволять оптимизация игр, во вторых программные ограничения могут быть, да и как сказал автор в "некоторых задачах". А вообще потенциал нанометража на транзисторах практически остановлен, на этой видяхе будет 3нм, что говорит о приросте даже одного чипа, примерно в 30-40%, думаю 1-2 нм они уже не сделают и это финалочка минимизации размеров транзисторов на платах, далее только ухищрения в виде объединений или наслоений, а так-же оптимизации логики работы, но это и так уже максимально сделано так-что даже не знаю куда они пойдут дальше...
По вашей логике все чиплеты от AMD на видеокартах и процессорах должны работать в пол силы или вообще в четверть, что как мы видим абсолютно не так. Производительность может быть не двухкратной, а почти двухкратной только из-за увеличенных задержек между двумя и более чиплетами. С точки зрения электрических соединений на подложке между ними это по прежнему одна единая микросхема и функционально полная копия монолитных чипов.
мне кажется большинству fhd геймеров хватит 8гб. Я играю в 2к и даже у меня большая часть игр занимает около 8-9гб видеопамяти. Ну а те кому жизненно необходимо играть в самые требовательные в этом плане игры на самых ультрах могут взять себе 16гб версию или докинуть до 5070. Так у меня 12гб видеопамяти и единственная игра, где мне не хватало видеопамяти это mfs2020. И то при включенной генерации в самых крупных городах
1050 ti была урезка по производительности и 4 GB на то время норм, а тут уже 5060 урезанная по оперативе и по битности - то есть хочешь быструю покупай PCI 5.0. Это называется хочешь себе 5060 собери новый ПК с дорогой мамкой.
Про 8 гигов это конешна пиздец, жаль тут на Ютьюбе скриншоты в каментах сразу почему то трутся, я б дал тройку своих скриншотов как я играл Зимой этой на 16ти гиговой RX 6800 в Голубогона Пандоре и в в 1920 на 1080 разрешении на всём ультра у меня сожрано было всю игру почти 13-14 гигабайт видеопамяти и 10-13 Озу. Ещё раз в 1080Р Карл! 14 гигов сожрано видимопамяти...так што RTX 5060 и 8 гиг0в на ней и бесплатно не нужна, в наше время... Добавлю что Алан Вейк II у меня местами на Ультра без DLSS и FSR в Лесу, где всего много, сжирал 12,7 гигов видеопамяти тоже именно в 1080Р... Молчу сколь эти две игры жрут в 2К ✍(◔◡◔)✍
В общем 5я линейка, это разогнанная 4я. Но конкурентов нет, можно творить что хочешь. Амуде как отставала на пару лет, так и плетется сзади с сырым и убогим софтом, и жареными чипами.
Хорошо пошутил, клоун. Софт у амд гораздо лучше и приятнее, чем у нвидиа и чипы не горят. А ты и дальше слушай своих ютуберов, не имея видеокарты от амд, которые в онлайн играх, где важна чистая производительность полностью унижают аналогов от нвидиа
Нвидия... Ничего не меняется... Моя вера теперь только в Интел. Нвидия из года в год выпускает огрызки в производительности, АМД где-то там рядом пытается догонять а вот Интел, для первых свои видях, показали очень хороший результат. Ждем крч.
С такой картой можно выбрасывать систему отопления из квартиры,а к лету искать хороший кондиционер.Ну и счет за электроэнергию будет радовать регулярно.
Если видос смотреть хоть чуть чуть внимательно, то становится понятно, что это не имеет ничего общего со старыми видяхами с sli. Так что ни одной такой двухчасовой видяхи не выходило еще. Разве что проц от эпл, и там проблем нет
Дааа, было дело, когда мой друг себе прикупил Radeon R9 290X2, она и жрала под 580 ватт, и 4-е восьми пин конекторы надо было подключать! Такой огромной косы проводов я не когда ещё не видел.
Для 3д подойдет 3090, у 4090 на 2000 больше куда ядер. Вот если у 5090 будет 24000 куда ядер, против 10000 у 3090. То я хоть за 300000 куплю курту. З.Ы. Даже не знаю зачем. Так как года 3-и не играю(старенький, 42 года).
@@FormJune -" А ещё 3090 греется сильно из-за компоновки чипов". Память писец какая горячая. Я пол года подбирал термопрокладки. Пока не заменил прокладки от ZEZZIO. А до замены в майнинге температура памяти поднималась до 95. То же самое было в играх и карта начинала троттлить. Та же самая проблема у моей 3070TI. У нее тоже память 6Х и она тоже очень горячая. P.S. У меня деньги есть. Я в феврале купил альткоинов на 300к рублей, у меня сейчас 2 000 000 рублей (курс плавает). Жду когда альткоины подорожают в 40 раз. В 21 году доги коин подорожал в 40 раз, что ему мешает подорожать в конце 24 года? 8)))
Я слышал, что там будет 2.5 чипа ,😮 чтобы было мощно! 😱😱😱😱❤❤❤❤😮😮😮😮 И цена будет 5999$ , грубо говорю 6000$🙂 Но мощность 💪 будет колоссальной , для 4к , самое то, на ультра все ☺️
автор как ты не поймешь, у них есть договоренность с амд, чтоб не давить друг на друга, чтоб был выбор, и покупательская способность у других фирм! тобишь сами продают и другим дают, это уже повсеместно почти у всех используется в том числе и у автопроизводителей и любой электроники ... надеюсь я ответил всем на данный вопрос!
@@GoodGame-kg8ci нужно в горы со льдом заехать, что странно конечно, так как местность пустая, а в захламленной местности с деревьями и прочим все норм.. но тоже на пределе, смысл то в том что проще доплатить 100баксов и взять на 12 или 16гб
В общем будем считать что 5090 это своего рода новый вид SLI - со всеми его болячками (1 чип работает на 100% - 2 хотя бы на 50% и то не факт:) вот и колоссальный прирост урааааа инновации....
А почему в связи с повышенным энергопотреблением процессоров и видеокарт, просто не поднимут напряжение питания с 12 вольт до 24 вольт, чтобы уменьшить силу тока при сохранении той же мощности! это вроде как логично!
Да но вот из-за того что технологию производства транзисторов уменьшают соответственно расстояние между контактами так же уменьшается что приводит к риску пробоя. Именно по этому при входе 12в сам процессор работает на напряжениях ниже чем 1.3в.
8Гб памяти у моей видеокарты 1070ti. 8Гб на картах 40 и 50 серии - это какой-то позор. Кол-во видеопамяти влияет в том числе на пользованием нейросетями. Чем выше разрешение генерации - тем больше нужно памяти. 8Гб хватает только на самое простое разрешение.
Учитывая что 060-е не слабый такой доход им всегда давали,если они зарежут то просто прогорят и будут потом выкручиваться выпуская новые с приставками типо супер-пупер-ти ай,а отвечая на вопрос в современном сегменте и 10 гигов может быть мало используя видюху на полную.
Даже не знаю чё думать, думал брать её на старте выхода, но после того как услышал что она будет иметь два чипа, сомнения чёт возникли, пожалуй посижу на 4070 ти ещё пару лет... Или всё же эти два чипа будут революционными и будут работать и отображаться как один gpu, что будет фактически ровнятся полтора/двукратному увеличению производительности ? Кто шарит, скажите как это ваще будет работать, если есть такая инфа про 5090
это будет работать как 1 чип смотри как это реализовано у максбука с его м 1 макс м2 макс и тд где 2 кристала скрещенные, так же можешь смотреть в сторону чиплетов райзена но там немного другое сами чиплеты общаются через подложку процессора и имеют свои задержки но это не мешает ему работать как единый целый процессор, да что уж говорить тот же амд 7900хтх состоит из 7 кристалов но там 1 кристал сам гпу и 6 кристаллов памяти и все замечательно работает
Посмотрим на новые карту 5090,490 мягко говоря ооооооочччччень большая о выходы из строя были,я понимаю но для меня очень хорошая gpu или cpu это холодная(легкое хотябы охлаждение) шустрая (мало потребляющая энергии ) Архитектура очень хорошая самого чипа
@@ВикторБухаров-ф3ь плавились переходники блин ну камон очень огромные токи,некоторые 4090 продолжили выходить из строя после обновления блоков питания скучаю по линейке нвидия 7серии
512 bit и ddr7 32?? Ребята, вы производительность 4090 вообще видели? кто купит 5090? а главное кто выдаст наверняка немалые бабки за такое? Да и вообще сомнения берут что они раскошелятся на такие характеристики, зная что бюджетные будут более востребованными, да еще и при таких хороших 4090, которые станут еще более доступными.
Если посмотреть всю линейку видеокарт! Это приросты с каждым поколением - 20-40 фпс. И тут ни хера не изменится! Они и так топ на рынке, нахер опережать время, когда можно и так доить людей! И делать карты для ИИ.
Да,верно.Так всегда было и будет.Чуть по чуть с каждым поколением дойка прогресса,не более того.Никакого эффекта вау,неа,не слышали.Всё одно и тоже не в зависимости от архитектуры,пропускной способности... . Это вот для новоиспечонного поколения лет 13 ~ 18,это прорыв,а для тех кто уже давно живёт и "собаку" скушал уже с ихней лапшой,это шок контент,а не прогресс.
А gddr7 не опережение времени? А куда ядра не? В таком случае у кого они есть кроме нвидиа? Кто может к примеру перекодировать AV1 за считанные минуты?
3:44 тут палка на обеих концах как и разработчики игр должны вмещаться в лимит имеющейся у карт так и бессмысленный объём в 32Гб у топов к которому не имеет смысла стремится заполнить разработчику игр. Может сама энвидиа сделает какое-нибудь сжатие данных на лету рас уж такой чиплет делает
Даже 16 ГБ я думаю для 5080 мало. Раньше 80-ая линейка позиционировалась как топовое решение, которого должно хватить как минимум на 7 лет. Например, 1080 с 8 гигами до сих пор является довольно стойким решением. А сейчас 12 ГБ ощущается мало, нет уверенности в будущем с таким объемом памяти, а 16 через 3 года может уже не хватит. К тому же в ближайшие годы вполне реален переход на широкоформатные мониторы.
-"К тому же в ближайшие годы вполне реален переход на широкоформатные мониторы". Я 4к монитор купил в 2016 году. Года 2-а не включал 4к в играх, так как карта не тянула(RX 550). Потом купил 2080, 3070TI все равно игры вылетали, так как 8Гб. А вот 3090 с её 24 Гб памяти хватает на все. Некоторые игры в 4к съедают под 15-16Гб памяти. Quake 2, SCUM например с ультра настройками.
Самое шокирующее не объём памяти а вдвое больший размер по сравнению со следующим флагманом. Для новой видеокарты придётся покупать отдельный системный блок. А следующую видеокарту мы будем вешать за окно рядом с кондиционером)))
Блин. Матрица какая-та. Только 3 дня назад задумывался о технологиях SLI и CROSSFIRE и думал, а что если сделать на программном уровне так, что бы система считала несколько видеокарт как одну карту, так как это поможет решить проблему с оптимизацией и производительностью. И тут на тебе, ролик на эту тему.
Сидел на 2080 и мне нвидиа не дала новый длсс. Купил 3080. Мне не дали фреймген еще и продали дорогую карту с 10гб врам. Крутая компания, пожалуй хватит. Купил 7900хтх и не собираюсь переходить на зеленых пару поколений
@@FlexHD777 абсолютно ничего не мешало это сделать с технической стороны. Как раз так как это сделала АМД. Если не разбираешься в матчасти то зачем оправдываешь любимку?
@@FlexHD777 фреймген кривой это твое субьективное мнение. Лучше кривой но работающий в 99% игр чем "некривой" который есть в максимум 10 тайтлах. Щас под консоли уже завозят фреймген, там быстро допилят. А ии-фср в разработке и скоро будет. Не стоит забывать что директСР на опенсорсе фср пишется и станет стандартным интерфейсом подключения. Если хочешь вспомнить историю - гсинк\фрисинк. фрисинк был хуже но был бюджетным софтварным. Сейчас фрисинк прем модуль в большинстве мониторов а за гсинк надо доплачивать. По сабжу: начиная с 20 серии компоновка карты не менялась, только увеличивалось количество ядер (рт\аи) потому ничего не мешает сделать новый длсс и фреймген не то что на 30 серию а на 20. Просто им наплевать на потребителя, главное продать новое поколение.
@@usagiakane фреймген в 99% играх - это сильно сказано, конечно) так же его запускали на 30 линейке нвидии, работало всё, мягко говоря, плохо, ибо, все-таки, это не программная технология, а аппаратная. Но хочется верить, что однажды по технологиям АМД догонит НВидию, чтобы составить конкуренцию, смогли с фрисинком - смогут и с фреймгеном)
🔥🔥🔥САМЫЕ ВЫГОДНЫЕ ВИДЕОКАРТЫ НА 2024🔥🔥🔥
✅Бюджетные видеокарты от 10.000 до 25.000 руб.:
💜МЕГАМАРКЕТ
GTX 1650 fas.st/YDuIx1?erid=25H8d7vbP8SRTvH4QP3RzP
GTX 1660 Ti fas.st/UiXf3a?erid=25H8d7vbP8SRTvH4QP3RzP
❤Яндекс Маркет
RX 6500 XT ali.ski/KO4yn?erid=25H8d7vbP8SRTvJ4Q27doN
GTX 1660 Super ali.ski/UcaZs?erid=25H8d7vbP8SRTvJ4Q27doN
RTX 2060 Super ali.ski/8VOfTX?erid=25H8d7vbP8SRTvJ4Q27doN
RX 6600 ali.ski/ZVXyPj?erid=25H8d7vbP8SRTvJ4Q27doN
✅Средние видеокарты от 25.000 до 40.000 руб.
💜МЕГАМАРКЕТ
RTX 3060 fas.st/gmnHR?erid=25H8d7vbP8SRTvH4QP3RzP
RTX 4060 fas.st/cXUCSU?erid=25H8d7vbP8SRTvH4QP3RzP
RX 7600 fas.st/SrUj6V?erid=25H8d7vbP8SRTvH4QP3RzP
❤Яндекс Маркет
RX 7600 ali.ski/pQnAf?erid=25H8d7vbP8SRTvJ4Q27doN
RX 6750 GRE ali.ski/7HxfG?erid=25H8d7vbP8SRTvJ4Q27doN
RTX 4060 ali.ski/gVgjp?erid=25H8d7vbP8SRTvJ4Q27doN
✅Видеокарты выше среднего от 40.000 до 60.000 руб.
МЕГАМАРКЕТ
RX 7700 XT fas.st/7evlsm?erid=25H8d7vbP8SRTvH4QP3RzP
RTX 4060 Ti fas.st/K9Fq0?erid=25H8d7vbP8SRTvH4QP3RzP
Яндекс Маркет
RX 7700 XT ali.ski/ZSWVc?erid=25H8d7vbP8SRTvJ4Q27doN
RTX 4060 Ti ali.ski/0Mj6x?erid=25H8d7vbP8SRTvJ4Q27doN
✅Предтоповые видеокарты от 60.000 до 90.000 руб.
💜МЕГАМАРКЕТ
RTX 4070 Super fas.st/oGQGo?erid=25H8d7vbP8SRTvH4QP3RzP
RTX 4070 Super fas.st/sEWUnD?erid=25H8d7vbP8SRTvH4QP3RzP
RTX 4070 Ti Super fas.st/-2cTxB?erid=25H8d7vbP8SRTvH4QP3RzP
RX 7900 GRE fas.st/MINA3?erid=25H8d7vbP8SRTvH4QP3RzP
RX 7900 GRE fas.st/QRp6gg?erid=25H8d7vbP8SRTvH4QP3RzP
❤Яндекс Маркет
RTX 4070 ali.ski/PclpYq?erid=25H8d7vbP8SRTvJ4Q27doN
RX 7900 GRE ali.ski/X9gkt?erid=25H8d7vbP8SRTvJ4Q27doN
RTX 4070 Super ali.ski/v7wT9?erid=25H8d7vbP8SRTvJ4Q27doN
RX 7900 XT ali.ski/lDSSo?erid=25H8d7vbP8SRTvJ4Q27doN
✅ТОП видеокарты от 100.000 до 250.000 руб.
💜МЕГАМАРКЕТ
RTX 4080 Super fas.st/VCugD?erid=25H8d7vbP8SRTvH4QP3RzP
RTX 4090 fas.st/MaE-m?erid=25H8d7vbP8SRTvH4QP3RzP
❤Яндекс Маркет
RTX 4070 Ti Super ali.ski/cqzcV?erid=25H8d7vbP8SRTvJ4Q27doN
RTX 4080 Super ali.ski/-VK9p?erid=25H8d7vbP8SRTvJ4Q27doN
Реклама: ООО "МАРКЕТПЛЕЙС"
ИНН: 9701048328
ООО "ЯНДЕКС"
ИНН: 7736207543
Конечно выпустит (типа версия на 8 и 12 гб ) хотите больше платите ))))
да, чета 8 гигов уже мало на 2025, хотя б 10, но зная nvidia, она зажмёт эти 2 гига
Если покупать не будут, то выпустит и на 10 и на 12)
@user-me9wx4xm8x Need For Speed 2015 года)
Про 4060 тоже заливали блогерки, мол говно идея, а в итоге лучшее соотношение цены и качества. Да и стоит понимать, для чего и для кого такие видеокарты выпускаются. Если вы геймер, который хочет прикоснуться к плюс минус современным играм в fhd, прилично сэкономив, то не лишь за счёт памяти, но и за счёт низкого потребления мощности бп и минимально необходимого цп. Комбинация, сами понимаете... Но долбаёбам, дрочащим на ААА поделки этого не объяснишь. Не всем нужен неоптимизированный тухляк от маркетологов современных крупных компаний.
Офигенный дизайн видюхи на превью
я зашел ради этого
учитывая, что такую видюху нельзя было бы вставить в мать (азаза, "вставить в мать"), то еще прикольнее становится.
Я знал когда нибудь это произойдёт кроме чипа 💀
В виде детородного органа)
карта еще не вышла а пистополы уже обзор запилили
"Запомни,5060 с 128 битной шиной,это всё что тебе нужно сынок")))кушай не обляпайся
амудэ такие, такс рыксе 6600 маловато 8 гигов, го 7600 тоже на 8 гигов, схавают)
@@dimaquazer5980 кто то забыл про 6500хт 64 бит 4 гига?)
@@ВикторБухаров-ф3ь так она стоила копейки
а 4060 не смущает? тут просто более быстрая память и больше ядер куда + может завезут давно анансированное ИИ-сжатие текстур, но на самом деле - вопрос цены.
@@АлексейВиноградов-н8зВ принципе, для 5060 хватает 128 бит. Это компенсируется быстрым кэшэм, уменьшая общее количество обращений к основному буферу видеопамяти.
ЭТО БУДЕТ ПИ…ЕЦ ДОРОГО
Да, около $2000..
@@LiveGamesIT а после перепродаж будет стоить от 3000$
@@LiveGamesIT 4090 уже сейчас стоит от $2500 - $3000.
скоро видюхи токо внешне за моноблок можно цеплять
хрень будет как с 980 а теперь они инахрен некаму не нужны...А Стоили сколько..
вангую след технология продающую карту будет неиронка по апскейилингу текстур тем самым получая высокодетализированые текстуры при минимуме потреблении видеопямяти и это будет эксклюзивом 5000 линейки))
5:57
"У многих плавился на rtx 5090"
Хххххмммммммммммм
Ты из будущего?)
оговорился, а может и нет аххаа
узнаем в будущем)))
@@LiveGamesIT , точно подмечено 😂
2:31 - 4080
@@kanctowar159, да, не заметил 😂
это всё ковид выжег все нейронные связи правильной коммуникации и мы стали тупыми не внимательными и забывчивыми . даже я писав этот коммент совершил кучу ошибок .
Нвидия и большой объём памяти в одном предложении, уже как анекдот. 😉
Ну просто Куртка хочет денег))
Суть в том, что так называемого "прорыва в графике" уже можно достичь и на 3000 поколении видеокарт, нужно просто заниматься оптимизацией. А новое более мощное поколение видеокарт для многих студий лишь ещё больше усугубит положение оптимизации, а количество криков о том, что "у вас старое железо, обновитесь", лишь увеличится...
Изображение видеокарты на превью как бы намекает на то, что доступна она будет немногим.
Если ты не можешь купить то не все такие я безработный и то куплю 5090 хотя она мне и не нужна😂
@@стасстасов-ш6р да... Дешёвые понты в интернете это дело такое... И конечно же самоутвердиться решил немного. Повзрослей короче. А мой пост был иронией.
Уфф, какой крутой😎. Мамин сигма бизнесмен😎@@стасстасов-ш6р
@@стасстасов-ш6р верим.
У каждого же безработного есть лишние 300к +
Не только лишь всем
Жду видеокарту Geforce RT 5030 2gb 😂
с 32 бит шиной?)
Везёт вам, а я жду Radeon RX 8400 с 1Гб памяти! Хотя у друга стоит Radeon RX 6500 XT с 4Гб и 64 бит шиной и его не кто за это не подкалывает, так как подкалыватели Нвидиа видят соринку в глазу Хуанга, но не видят бревна в глазу Лизы Суньмневидеокарту!
@@Igor-Bond ну не дураки должны были понять что такую тенденцию начала амд так как именно в 6000 поколении амд изобрели л3 кеш и благодаря ему шина стала не столь сильно важна а экономия на производстве выходит существенной + это помогло лучше сегментировать им видеокарты по памяти так как чипы памяти стали быть 2 гиговыми и с прежней шиной у всех было бы овер дофига памяти, на тот момент уже вышли 3090-3080-3070 и лишь в 3060 и 3050 имея обычную гддр6 нвидия со своей обычной шиной внезапно подарила 12 и 8 гб памяти а другие карты были на гддр6х которые еще на тот момент были только 1 гиговые и больше всего тогда 3090 пострадала со своими 24 банками памяти дофига жрущие, в 4000 поколении теперь и нвидия сделала громадный кеш но из л2 и это так же развязало руки лепить любую шину чтоб нормально сегментировать свои карты по памяти так как чипы памяти только 2 гиговые теперь и эта тенденция останется теперь надолго так как карты становятся заложниками своего разрешения для которого их создали весь для своего родного разрешения у них Максимальный фпс а будет повыше разрешение фпс просядет куда больше чем если бы была нормальная шина, как то так
Смейся смейся ведь 4060 со всеми своими минусами в 128 бит шина и 8гб памяти является лучшей в соотношении цена-качество в 4000 линейке а почему? Потомучто память не столько важна чип должен быть сильным иначе плевали игры на вашу память
@@Mac-ej1iy 4060 имеет только одно преимущество - холодная. Но она пипец, какая дорогая, РТХ ОН он не может, ДЛСС на ФуллХД - ужасен.
Так что 7600 за эти деньги для игр - точно интереснее
2055 год: выходит RTX 20060 c 8 гб памяти 128 бит шиной
это просто невозможно будет с такой битностью шины к тому времени 1 ячейка памяти будет куда больше вмещать минимум
вот если бы ты сказал про 32 бит и 8 гб врам в такое с натяжкой но еще можно было бы поверить
@@ВикторБухаров-ф3ь чувак это рофл...
@@infamous4482 очень непродуманный рофл)
@@ВикторБухаров-ф3ь А сейчас все стараются по тупому шутить, так как ума то нету!
А вот интересно, сколько бит и сколько памяти будет в Radeon RX 8600, неужели опять 8 Гб и 128 бит шина?
@@Igor-Bond понятия не имею но наверное амд может пойти на шаг увеличения памяти как минимум из за того что они остаются на той же гддр6 уже дешёвой получается и чтоб хоть что то противопоставить нвидии могут и дать больше памяти
Кстати перебивки и НФС 2015 топ, красиво и атмосферно))
Для 50 ленейки ведиокарт нужна будет выделенная разетка 380w и корпус размером со шкаф))) в остальном отличная видюха 😂
Это будет как в первоапрельском видео про эту серию видеокарты 😏😁.
@@pozitronpozitronich3985 цена этой видеокарты будет соответствовать её размерам и энергопотреблению а еще хуанг для неё придумает новый разъём 12+12+36 пин который будет гореть ещё сильнее чем прежний 😁😁😁
какие 380? там трансформатор с 25kV нужен будет
@@jegorkravetski4414 мощность будет соответствовать её потреблению плюс к этому новый проприетарный разъём 12+12+36 пин и новый 2000W блок питания под неё 😁
@@retro-man987 Мой КСАС на честные 5000kW с легкостью справится с поставленной задаче😎
У меня в 1080 и то 8 гб. В карте 2016 года на минуточку😂
у кого то рыкса 470 на 8 ))
@@only_hardcore у кого то 3080ти
...И ни разу не было так что бы нехватало памяти а не самого чипа
@@edossdudoss9805 на 3070ti уже не хватает 8гб в том же Думе в 4к
Такая есть Amd RX 480 на 8 гб и 1080 Ti аж на 11 гигабайт и это было в 16-ом и 17 году
5:57 теперь мы знаем что провод будет плавиться и у 5090
как он об этом узнал?
@@MyDude Он разрабатывал этот провод и сделал специально чтобы он горел
Просто сама очевидность же.
еще неизвестно про кэш. на 40й серии кэш увеличили, что дало буст для карт даже нижней категории. м.б. в 50-ой линейке еще увеличат кэш?
Вроде увеличили л1 и л2 кэш, может и л3.
Будет здорово если они на каждый проводник в разьеме свою ШИМку сделают, как на 3090. А то решили подлянку сделать на 40-х обьеденив линии 12в на видеокарте, где разделением силы тока начал заниматься разьем, а не ШИМ, вот он и подгорает от такой работы. Чтобы зеленые не отрицали, но это они виноваты в плавке разьемов, легко заметить сравнив разводку дорожек систем питания на 3090 и 4090.
Подгорают разъёмы из-за того, что их защелкивают не до конца, о чём много чего сказано было. Хотя некоторой убогости разъёма это не отменяет.
@@Ingvar_whitestoun да, но нет
Сколько будет стоить RTX 5090? Вероятно стопку купюр номиналом в 1000 руб. толщиной с данную карту.
если что это значит будет ровно 488 купюр то есть 488 000 руб)
@@alekstactic 610 тысяч а не 61 выходит)
@@alekstactic ближе к реальности будет стопка купюр по 200 рублей высотой 60 мм
@@ВикторБухаров-ф3ь Оптимистично, толщина 4090 FE 61мм, 5090 FE явно будет не тоньше. Толщина банкноты в 1000 руб. 0,1мм, получается 610 банкнот, т.е от 610000 руб.
@@gggggggggggg801 Спасибо, исправил.
Чет не показали 5090, или я пропустил?
А что там с монитором кстати? Взяли всё-таки 21:9 или оставили тот который в обзоре?
На старом работаю на новом играю, у меня стол широкий, поставил сразу два) в ближайшее время скорее всего широкий продам.
Full tower больше подходит для кастом сборок?
Если они объединили два чипа это не значит что прирост производительности увеличится, во первых это должна позволять оптимизация игр, во вторых программные ограничения могут быть, да и как сказал автор в "некоторых задачах".
А вообще потенциал нанометража на транзисторах практически остановлен, на этой видяхе будет 3нм, что говорит о приросте даже одного чипа, примерно в 30-40%, думаю 1-2 нм они уже не сделают и это финалочка минимизации размеров транзисторов на платах, далее только ухищрения в виде объединений или наслоений, а так-же оптимизации логики работы, но это и так уже максимально сделано так-что даже не знаю куда они пойдут дальше...
По вашей логике все чиплеты от AMD на видеокартах и процессорах должны работать в пол силы или вообще в четверть, что как мы видим абсолютно не так. Производительность может быть не двухкратной, а почти двухкратной только из-за увеличенных задержек между двумя и более чиплетами. С точки зрения электрических соединений на подложке между ними это по прежнему одна единая микросхема и функционально полная копия монолитных чипов.
мне кажется большинству fhd геймеров хватит 8гб. Я играю в 2к и даже у меня большая часть игр занимает около 8-9гб видеопамяти. Ну а те кому жизненно необходимо играть в самые требовательные в этом плане игры на самых ультрах могут взять себе 16гб версию или докинуть до 5070. Так у меня 12гб видеопамяти и единственная игра, где мне не хватало видеопамяти это mfs2020. И то при включенной генерации в самых крупных городах
А 5050 ti, небось, получит 6 гигов памяти с шиной 96...если она вообще выйдет когда-либо)
ждем мобильный чип 5090M в ноутбуках которую будет по характеристикам как урезанная 5060, как с rtx 4090m (которая по сути урезанная 4080)?
Правда в етой видеокарте есть один минус для подключения требуется напрямую подсоединяется к АЭС иначе положыш всю городскую энергосеть
А 5050 повторит успех 1050 тиай?
Возможно 😏😁.
не , не повторит, будет как 1030 в наше время
врядли, потому-то цена не позволит
1050 ti была урезка по производительности и 4 GB на то время норм, а тут уже 5060 урезанная по оперативе и по битности - то есть хочешь быструю покупай PCI 5.0.
Это называется хочешь себе 5060 собери новый ПК с дорогой мамкой.
1050 ти на момент выхода была полнейшим огрызком куда ей там повторять успех?)
Ванную,что будет NPU,но как это будет работать,ведь не все игры поддерживают ИИ
Переходим на Амуде ))
Про 8 гигов это конешна пиздец, жаль тут на Ютьюбе скриншоты в каментах сразу почему то трутся, я б дал тройку своих скриншотов как я играл Зимой этой на 16ти гиговой RX 6800 в Голубогона Пандоре и в в 1920 на 1080 разрешении на всём ультра у меня сожрано было всю игру почти 13-14 гигабайт видеопамяти и 10-13 Озу. Ещё раз в 1080Р Карл! 14 гигов сожрано видимопамяти...так што RTX 5060 и 8 гиг0в на ней и бесплатно не нужна, в наше время...
Добавлю что Алан Вейк II у меня местами на Ультра без DLSS и FSR в Лесу, где всего много, сжирал 12,7 гигов видеопамяти тоже именно в 1080Р... Молчу сколь эти две игры жрут в 2К ✍(◔◡◔)✍
Так говорили что будет дополнительное расширением плашки в саму видеокарту
В общем 5я линейка, это разогнанная 4я. Но конкурентов нет, можно творить что хочешь. Амуде как отставала на пару лет, так и плетется сзади с сырым и убогим софтом, и жареными чипами.
Хорошо пошутил, клоун.
Софт у амд гораздо лучше и приятнее, чем у нвидиа и чипы не горят.
А ты и дальше слушай своих ютуберов, не имея видеокарты от амд, которые в онлайн играх, где важна чистая производительность полностью унижают аналогов от нвидиа
@@Trautro6678 У меня 5 компов, из ни пара на амудэ сидит. Траблы только там. так что клоун по себе не суди.
@@user-oz.Goodwin ну как всегда доказательств не будет ЛОЛ)))(
Ты сказал в видео что разъём плавилсся на 5090 хотя её ещё небыло, или она уже выходила ранее?
Он хотел сказать 4090😅 Разъем на этой видеокарте плавился, но nvidia фиксит это
Друг а что с майнингом ?
Нвидия... Ничего не меняется... Моя вера теперь только в Интел. Нвидия из года в год выпускает огрызки в производительности, АМД где-то там рядом пытается догонять а вот Интел, для первых свои видях, показали очень хороший результат. Ждем крч.
С такой картой можно выбрасывать систему отопления из квартиры,а к лету искать хороший кондиционер.Ну и счет за электроэнергию будет радовать регулярно.
Сейчас видюхи и процессоры штампуют как пирожки. Ширпотреб. Раньше проц и карту на 6-8 лет брали.
Да, да раньше было лучше. Только тебя тогда не было, ты не родился.8))))
Двух чиповые карты нужно обходить стороной, по крайней мере на старте продаж. Все двух чиповые карты работали через одно место 😂
это больше общего имеет с амд инфинити фабрик, (которая оч хорошо себя чувствует) чем с каким от gtx мутантом
Если видос смотреть хоть чуть чуть внимательно, то становится понятно, что это не имеет ничего общего со старыми видяхами с sli. Так что ни одной такой двухчасовой видяхи не выходило еще. Разве что проц от эпл, и там проблем нет
Дааа, было дело, когда мой друг себе прикупил Radeon R9 290X2, она и жрала под 580 ватт, и 4-е восьми пин конекторы надо было подключать! Такой огромной косы проводов я не когда ещё не видел.
Превью топ🔥🔥
Видимо, всё таки буду брать 4090 для 3д. 5090 будет дорогой, судя по всему, а в 5080 мало видеопамяти для проектов
Для 3д подойдет 3090, у 4090 на 2000 больше куда ядер. Вот если у 5090 будет 24000 куда ядер, против 10000 у 3090. То я хоть за 300000 куплю курту. З.Ы. Даже не знаю зачем. Так как года 3-и не играю(старенький, 42 года).
@@RipperRUS у 4090 16к ядер, а ещё где-то в полтора раза больше RT и тензорных. А ещё 3090 греется сильно из-за компоновки чипов
@@FormJune -" А ещё 3090 греется сильно из-за компоновки чипов". Память писец какая горячая. Я пол года подбирал термопрокладки. Пока не заменил прокладки от ZEZZIO. А до замены в майнинге температура памяти поднималась до 95. То же самое было в играх и карта начинала троттлить. Та же самая проблема у моей 3070TI. У нее тоже память 6Х и она тоже очень горячая. P.S. У меня деньги есть. Я в феврале купил альткоинов на 300к рублей, у меня сейчас 2 000 000 рублей (курс плавает). Жду когда альткоины подорожают в 40 раз. В 21 году доги коин подорожал в 40 раз, что ему мешает подорожать в конце 24 года? 8)))
Заставка конечно топ! Удивила прям😅
Здравствуйте, подскажите ,что за гоночная игра в середине видео? Похоже на нфс
Да, это он и есть 2015 года
NFS Rivals, если не ошибаюсь
@@offnicknames точно не он
@@UltraBaJlepa да? тогда странно что и на видео и в игре на номерах написано одинаково Ghost
Нфс 2015
Я слышал, что там будет 2.5 чипа ,😮 чтобы было мощно! 😱😱😱😱❤❤❤❤😮😮😮😮
И цена будет 5999$ , грубо говорю 6000$🙂
Но мощность 💪 будет колоссальной , для 4к , самое то, на ультра все ☺️
Больше сиайликов, отсталый))
У AMD было тоже самое с hd 5870 когда они объединили два кристалла отзеркаленных в один монолит 800 + 800 = 1600 потоковых процессоров.
автор как ты не поймешь, у них есть договоренность с амд, чтоб не давить друг на друга, чтоб был выбор, и покупательская способность у других фирм! тобишь сами продают и другим дают, это уже повсеместно почти у всех используется в том числе и у автопроизводителей и любой электроники ... надеюсь я ответил всем на данный вопрос!
Когда уже килобитная шина?
Я пожалуй продолжу 9 год пользоваться rx 580)))
580я лежит как запаска
Сижу на 3060ti 8гб, скажу ее не хватает для Forza 5 в горах пишет недостаточно видеопамяти (1080p) ...для 2к минимум нужно 16гб брать чтобы на лет 5
Сижу на 4060 и в qhd на макс настройках хватает памяти
@@GoodGame-kg8ci нужно в горы со льдом заехать, что странно конечно, так как местность пустая, а в захламленной местности с деревьями и прочим все норм.. но тоже на пределе, смысл то в том что проще доплатить 100баксов и взять на 12 или 16гб
@@ВасилийБелый-ж3д я всю карту проезжал, и в горы со льдом заезжал, всегда памяти хватало, пишет загрузка около 7,5-7,6 гб
Чувствую теперь про оптимизацию вообше забудут
В общем будем считать что 5090 это своего рода новый вид SLI - со всеми его болячками (1 чип работает на 100% - 2 хотя бы на 50% и то не факт:) вот и колоссальный прирост урааааа инновации....
в сравнении с конкурентами - да, амд в новом поколении вообще в топ сегмент не собирается
Нельзя
@@only_hardcore он видать с Лизой Су уже поделили рынок за семейным обедом
А почему в связи с повышенным энергопотреблением процессоров и видеокарт, просто не поднимут напряжение питания с 12 вольт до 24 вольт, чтобы уменьшить силу тока при сохранении той же мощности! это вроде как логично!
Да но вот из-за того что технологию производства транзисторов уменьшают соответственно расстояние между контактами так же уменьшается что приводит к риску пробоя. Именно по этому при входе 12в сам процессор работает на напряжениях ниже чем 1.3в.
От куда вы взяли инфу что при FHD играм не хватает 8гб?
Тут скорее в мощность самой видюхи упирается
В Forza Horizon 5 на ультрах все 8 гигов занимаются, игра жалуется на нехватку видеопамяти
@@FlexHD777 Нихера она прожорливая. Рдр2 и Flight Simulator даже не выходили за рамки 8 гб
@@Mechanitch MFS просто скачивает с инета текстуры, вот и не выходит игра за рамки, кс2, например, вообще около 6-6.5 гигов на ультрах потребляет)
8Гб памяти у моей видеокарты 1070ti. 8Гб на картах 40 и 50 серии - это какой-то позор. Кол-во видеопамяти влияет в том числе на пользованием нейросетями. Чем выше разрешение генерации - тем больше нужно памяти. 8Гб хватает только на самое простое разрешение.
А когда будут видеокарты RTX 50 на 50?
Если шина 128 то обязан поставить gddr7 и кеш побольше. На 5050 наверно будет 128бит+gddr6 и кеш...5090 это конечно шок контент
А стоить будет как квартира, или две.
Интересно как оно по сравнению с 4090. 32 с 24 гб как то не очень прирост.
Производительность интересно.
Объём памяти на производительность не влияет. Особенно в данном сравнении.
Куплю 5090 и буду играть на мониторе в 1366×768👍
Учитывая что 060-е не слабый такой доход им всегда давали,если они зарежут то просто прогорят и будут потом выкручиваться выпуская новые с приставками
типо супер-пупер-ти ай,а отвечая на вопрос в современном сегменте и 10 гигов может быть мало используя видюху на полную.
Прогорят нвидиа)) да у хана продажа видюк уже как хобби)
Сделали бы уже чип размером с материнскую плату и радиатором размером с холодильник за 100тыс долларов.
Ох жду не дождусь приобрести его к 2040 году!
Спасибо за качественный обзор
Даже не знаю чё думать, думал брать её на старте выхода, но после того как услышал что она будет иметь два чипа, сомнения чёт возникли, пожалуй посижу на 4070 ти ещё пару лет... Или всё же эти два чипа будут революционными и будут работать и отображаться как один gpu, что будет фактически ровнятся полтора/двукратному увеличению производительности ? Кто шарит, скажите как это ваще будет работать, если есть такая инфа про 5090
это будет работать как 1 чип смотри как это реализовано у максбука с его м 1 макс м2 макс и тд где 2 кристала скрещенные, так же можешь смотреть в сторону чиплетов райзена но там немного другое сами чиплеты общаются через подложку процессора и имеют свои задержки но это не мешает ему работать как единый целый процессор, да что уж говорить тот же амд 7900хтх состоит из 7 кристалов но там 1 кристал сам гпу и 6 кристаллов памяти и все замечательно работает
Никогда такого не было и вот опять.
Можно скормить "инновации" из нулевых и карты по 400 ватт потому что прогресса в литографии нет.
Скоро видеокарты будут размером как шкаф 😮 10 киловатт потребление, графика реал
Двукратное увеличение CUDA ядер НЕ приведет к двукратному приросту производительности! Это не так работает. ))
Вряд-ли кто это поймет, а ещё с учётом того что UE5 вообще срать на CUDA ядра
Вообще, так и работает, при условии что увеличились все ядра а не только cuda, но по сливам это просто не понятно, но скорее всего так и будет
@@MAADUKTVчто за бред
@@d-ima8313 Нет.
@@d-ima8313 Нет. Ты заблуждаешься.
Не 3 нм а скорее 5, уже есть спеки проф карты b200 и она на 5 нм
Короче нечего нового sli оптимизируют дровами rtx 5090 это две gtx 1080ti в sli с памятью ддр7
было бы во что играть на всех этих крутых картах)
Мне хватает слабой встройки, у меня даже гаррис лагает когда врубаю фонарик
Сколько будет стоить 5080примерно
Больше чем 4090ti
я думал может в 5000 сделают
5050 8 гб. 128 шина. гддр 6 20000 мгц 3072 кудо. pci 4 8l.
50ти 3840 кудо. гддр 7 8 гб 24000 128 бит. pci 4 8l
на 60 5120 кудо, гддр 7 28000 10 гб 160 бит.pci 4 16l
на 60 ти 12 гб 192 шина 6144 кудо. pci 4 16l
70 7680 кудо 16 гб 256 бит. pci 4 16l
70 ти 9728 кудо 16 гб 256 бит. pci 4 16l
80 12288 кудо 20 гб 320 бит. pci 4 16l
80 ти 24 гб 384 бит 16384 кудо. pci 4 16l
90 24576 кудо 32 гб. 512 бит. pci 5 16l
примерно или лучше.
5:55 - а что не 6090 сразу ?
А че по ценнику?
у многих плавился на 5090?)
В 4к 8Гбайт уже мало, для FHD еще пойдет.
Была RTX 3050 на 8 гигов видео. Сейчас большинство разных версий видеокарт на 6 гигабайт продаются. По мощности она как GTX 1080 8GB
Хотел брать 4090 + 14900kf , но теперь думаю ждать 5090 + 15900. стоит ли это того?
Подожди, мб и действительно годнота получится, и 4090 подешевеет с выходом 5090 если окажется мусор)
превью просто идеально)
Сейчас не нужны такие мощные видеокарты и они будут нужны лет через 10 под них игры только будут
Что за песня в начале?
Посмотрим на новые карту 5090,490 мягко говоря ооооооочччччень большая о выходы из строя были,я понимаю но для меня очень хорошая gpu или cpu это холодная(легкое хотябы охлаждение) шустрая (мало потребляющая энергии )
Архитектура очень хорошая самого чипа
0.02% выхода из строя 4090 не сказать что это как то много это меньше чем обычный брак при производстве
@@ВикторБухаров-ф3ь плавились переходники блин ну камон очень огромные токи,некоторые 4090 продолжили выходить из строя после обновления блоков питания скучаю по линейке нвидия 7серии
512 bit и ddr7 32?? Ребята, вы производительность 4090 вообще видели? кто купит 5090? а главное кто выдаст наверняка немалые бабки за такое? Да и вообще сомнения берут что они раскошелятся на такие характеристики, зная что бюджетные будут более востребованными, да еще и при таких хороших 4090, которые станут еще более доступными.
Если посмотреть всю линейку видеокарт! Это приросты с каждым поколением - 20-40 фпс. И тут ни хера не изменится! Они и так топ на рынке, нахер опережать время, когда можно и так доить людей! И делать карты для ИИ.
Да,верно.Так всегда было и будет.Чуть по чуть с каждым поколением дойка прогресса,не более того.Никакого эффекта вау,неа,не слышали.Всё одно и тоже не в зависимости от архитектуры,пропускной способности... .
Это вот для новоиспечонного поколения лет 13 ~ 18,это прорыв,а для тех кто уже давно живёт и "собаку" скушал уже с ихней лапшой,это шок контент,а не прогресс.
А gddr7 не опережение времени? А куда ядра не? В таком случае у кого они есть кроме нвидиа? Кто может к примеру перекодировать AV1 за считанные минуты?
3:44 тут палка на обеих концах как и разработчики игр должны вмещаться в лимит имеющейся у карт так и бессмысленный объём в 32Гб у топов к которому не имеет смысла стремится заполнить разработчику игр. Может сама энвидиа сделает какое-нибудь сжатие данных на лету рас уж такой чиплет делает
Даже 16 ГБ я думаю для 5080 мало. Раньше 80-ая линейка позиционировалась как топовое решение, которого должно хватить как минимум на 7 лет. Например, 1080 с 8 гигами до сих пор является довольно стойким решением. А сейчас 12 ГБ ощущается мало, нет уверенности в будущем с таким объемом памяти, а 16 через 3 года может уже не хватит. К тому же в ближайшие годы вполне реален переход на широкоформатные мониторы.
-"К тому же в ближайшие годы вполне реален переход на широкоформатные мониторы". Я 4к монитор купил в 2016 году. Года 2-а не включал 4к в играх, так как карта не тянула(RX 550). Потом купил 2080, 3070TI все равно игры вылетали, так как 8Гб. А вот 3090 с её 24 Гб памяти хватает на все. Некоторые игры в 4к съедают под 15-16Гб памяти. Quake 2, SCUM например с ультра настройками.
Превьюшка на высоте
2:30 объем памяти 4080??????
rtx 5060 будет как 4090?
Как 4070 - 4070ti примерно
Самое шокирующее не объём памяти а вдвое больший размер по сравнению со следующим флагманом. Для новой видеокарты придётся покупать отдельный системный блок. А следующую видеокарту мы будем вешать за окно рядом с кондиционером)))
Блин. Матрица какая-та. Только 3 дня назад задумывался о технологиях SLI и CROSSFIRE и думал, а что если сделать на программном уровне так, что бы система считала несколько видеокарт как одну карту, так как это поможет решить проблему с оптимизацией и производительностью. И тут на тебе, ролик на эту тему.
8 гб у 5060 )) Они что гонять ))) Надеюсь ума хватит добавить хотя бы 2-4 гб
GTA 4 потянет в 60 fps?
С фризами может быть и потянет..
Смотрю это видео и вспоминаю свою старенькую gtx 660 на 2 гига...
Это с какой игры Скалик у тебя?
NFS 2015
Двухчиповые карты означают тупик и кризис. Но скорее всего это слухи про 2 гпу.
😂😂😂😂😂😂😂😂😂😂 ну да, тупик кризис..... Давай тогда и CPU на одном ядре
Сидел на 2080 и мне нвидиа не дала новый длсс. Купил 3080. Мне не дали фреймген еще и продали дорогую карту с 10гб врам. Крутая компания, пожалуй хватит. Купил 7900хтх и не собираюсь переходить на зеленых пару поколений
Как тебе новый длсс с фреймгеном засунут в старую карту?
@@FlexHD777 абсолютно ничего не мешало это сделать с технической стороны. Как раз так как это сделала АМД. Если не разбираешься в матчасти то зачем оправдываешь любимку?
@@usagiakane так фреймген кривой у амд, а апскейлера с ии типа длсс у амд вообще нет
@@FlexHD777 фреймген кривой это твое субьективное мнение. Лучше кривой но работающий в 99% игр чем "некривой" который есть в максимум 10 тайтлах. Щас под консоли уже завозят фреймген, там быстро допилят. А ии-фср в разработке и скоро будет. Не стоит забывать что директСР на опенсорсе фср пишется и станет стандартным интерфейсом подключения. Если хочешь вспомнить историю - гсинк\фрисинк. фрисинк был хуже но был бюджетным софтварным. Сейчас фрисинк прем модуль в большинстве мониторов а за гсинк надо доплачивать.
По сабжу: начиная с 20 серии компоновка карты не менялась, только увеличивалось количество ядер (рт\аи) потому ничего не мешает сделать новый длсс и фреймген не то что на 30 серию а на 20. Просто им наплевать на потребителя, главное продать новое поколение.
@@usagiakane фреймген в 99% играх - это сильно сказано, конечно) так же его запускали на 30 линейке нвидии, работало всё, мягко говоря, плохо, ибо, все-таки, это не программная технология, а аппаратная. Но хочется верить, что однажды по технологиям АМД догонит НВидию, чтобы составить конкуренцию, смогли с фрисинком - смогут и с фреймгеном)
превью слишком привлекательное 😀
хз, 8 гигов как по мне норм, сидел на 6600, не видел нигде не хватки 8 гигов в FHD.
Во многих задачах важна шина. Шина 128 бит в 2024 году ну это пяздец....