Nice to see another excellent video. At 34:47 when you look at the dark walls in Quake 2 you can see the bad 16-bit image of the nvidia cards. With a Voodoo 3/4/5 or Banshee with 22-bit filther enabled the same picture will be perfect with practically zero performance loss.
В последнее время я хорошо прошерстил интернеты на предмет олдового технопорно. И контентика стало побольше. Каждый день по часику выходит, спасибо всем!
@@BANNEDandRRoD Новое железо равно как и винда нисколько не радуют, тенденция к консолям и мобильным устройствам и в железе и в софте (интерфейс винды), в отличие от того периода - это был расцвет персоналок.
Чуток медленноватый процик для этих видяшек, я помню у меня эти mx400 и mx440 были начиная с Celeron 1100Mhz. По сути и Geforce 2 mx и Geforce 4mx это Geforce 2
Процессор - не самый быстрый, но тенденции на нем уже видны. А по видеокартам - архитектура у GF4-MX по отношению к GF4 ti устаревшая, как сейчас у GF GTX 1660 по отношению к RTX, но по производительности GF4MX440 быстрее практически в 2 раза, нежели GF2MX400.
Полноценный geforce 2 имеет 4 пиксельных конвейера, в то время как мх400 и мх440 всего по 2шт. Четвёртый жираф может обойти полноценную двойку только за счёт высоких таковых частот gpu и памяти. Так что говорить, что МХы это geforce 2 некорректно. Geforce 4mx440 это скорее эволюция geforce 2mx400, но ни как не geforce 2 gts, pro, ti, ultra.
A suggestion for a video, if you think it is interesting enough for the viewers of your channel: 16 vs 32-bit performance and quality difference on the TNT1 / 2 or Geforce 256 / 2 cards.
The GF 4 MX 440 if more than enough for a P3 750 mhz. A faster card will be limited by the P3 750 mhz and show the same FPS as the GF 4 MX 440. Excellent video.
I agree 100%, for a GeForce 4 MX 440 video card, a Pentium III 750-1000 processor is quite enough for games of that time. The leap in system requirements came in 2004 with the release of Half-Life2 and Doom III.
Спасибо за комментарий! GeForce 3ti 200 хорошая была видеокарта в свое время, если с современными видеокартами аналогию проводить, она была что-то типа RTX 2060 Super\2070 (эти поддерживают "лучи", та поддерживала "шейдеры" и в обоих случаях игр, где эти технологии используются "по взрослому" нет, а когда появились, видеокарты морально устарели). Впрочем, если верить новостям "Киберпанк" с лучами, ставит на колени даже RTX 4090, делая его неиграбельно тормозным по современным меркам (средний FPS меньше 60 кадров в секунду) уже в 2к разрешении. Выглядит все это "действо", как в свое время история с Half-Life 2, которая "превратила в тыкву" не только линейку видеокарт GeForce 4 ti, но и всю серию GeForce FX. Правда тогда ATI "была на коне", а сейчас все производители видеокарт в глубоком нокауте.
@@Freevad Раньше было лучче. Прогресс был явно заметен. Лучики вместе с рт ядрами как по мне просто маркетинг. Заметного улучшения картинки я не вижу, а снижение производительности на лицо. Надо же как то горячие пирожки в виде 40ых и 50ых карт багрить, а еще и за дорого(очень дорого). У самого rtx3060ti.
@@AxMav Согласен, "лучи" делают картинку "правильней" с точки зрения освещения, но далеко не всегда красивей и за счет кратного падения производительности.
@@Freevad Да лучи в целом не требуют никаких дополнительных ядер. Раньше были игры с лучами или подобной технологией. Например та же игра FEAR. з.ы. Маркетинг всюду. Надо продавать :)
Поздние китайские 4mx400 очень хорошо гнались через RivaTuner. Лично помню забивал в настройки частоты 5200 и все работало. Интересно было бы посмотреть, каков фактический ее прирост при разгоне и ЧТО она догоняет... Но похоже, этого рода контент придется "пилить" самому
Спасибо за комментарий! Для такого контента, как минимум, надо найти позднюю китайскую 4mx 400 (модель для меня неизвестна, поскольку были GeForce 4 MX 420, 440, 460 и была ещё MX 4000). А вообще на русских оверах статьи про разгон GeForce 4 MX присутствуют, результаты, если вкратце - круче любой GeForce 2, но отсутствие поддержки шейдерных технологий ставит на них крест, поскольку, к примеру, Silent Hill на них не запускается. В играх без шейдеров - мощь.
@@AnD_RoM нет, маловато будет, AMD Athlon 2000+ - неплохой процессор, в играх на уровне Pentium IV 2100-2200 MHz. Избыточной для него будет топовая линейка седьмой серии nVIDIA. Но, к примеру, Half-Life 2 и Doom III (исходные версии) он тянет на 5-ку. В свое время, как раз прошел обе игры на AMD Athlon 1700+ (1,46 ГГц) и ATI Radeon 9600 Pro. В Half-Life 2 проблем не было вообще (по воспоминаниям), настройки были средне-высокие, в Doom III пришлось отключить тени, плюс были у меня тогда старые драйверы (не поддерживающие Doom III), игра зависала через каждые 2-3 минуты, поэтому приходилось очень часто сохраняться. Но таки прошел, хотя и с проседаниями FPS иногда до 24+ кадров (субъективно), включая финального босса.
@@Freevad Жирновато такие ставить, уровень карт 9800 может быть оправдан для очень высоких разрешений 1600х1200 и/или сглаживания. Более мощная 6800 так вообще за гранью...моего понимания)
@@РоманМедведев-з9д Семитысячная версия видеокарт nVIDIA аккурат вышла к первым двухъядерникам, а до этого были Pentium IV 3200, Athlon XP 3200+ и первые Athlon 64 (3000-3200+) и на них и тестировали шеститысячную серию. Безусловно, Athlon 64 3200+ в играх быстрее, чем AMD Athlon 2000+, но не в 2 раза. Да, этот процессор не выжмет из 6800 все FPS, но и простаивать она, как с чем-то уровня Pentium III 1000 не будет. И Far Cry будет хорошо идти, и Doom III, и Half-Life 2 и прочие игры того времени (Unreal II, например) с приемлемым (для того времени) FPS в 50-70+ кадров в секунду, с падением до 25-30 в отдельных сценах. А то, что для ATI Radeon 9800 лучше поставить Athlon 3000+ тоже спорить не стану, оно ей, однозначно, не помешает))).
Mx 440 это жир для пня 3 😊 помню у меня в готовом системнике стоял mx440 128mb и celeron 2200, эхх нехватило у бати тогда на pentium 4 ht а собирать нерасбирались ,а купили готовый в formoza Москва.Но после 486 с 16 мб ОЗУ )) я на все каникулы зимние засел комп на нг подарили )
GeForce 3Ti гораздо более мощная карточка. Просто ей катастрафически не хватило процессора. Для такой карточки нужен Pentium 3 Tualatin 1400 Mhz. И она поддерживает шейдеры. Что в начале нулевых было абсолютным приоритетом, многие игры просто преображались, другие - вовсе не запускались без поддержки шейдеров. У меня в те годы был AMD Duron 1100Mhz и обе эти карточки (еще и GeForce 2 MMX) и я остался очень доволен GeForce 3Ti.
AMD Duron 1100 по производительности был рядом с Pentium III на аналогичной тактовой частоте. А вообще видеокарта весьма хороша. Но для игр с шейдерами, когда они стали обязательны, ее производительности уже не хватало. Прогресс не остановить...
Странно про Морровинд, спокойно играл в него на Savage 2000 и Radeon LE, главное проц нормальный, с Pentium III 500/512kb (Katmai) шло как-то не очень, но играть можно, но с Celeron 900@1200MHz (Tualatin) все летало, но вода была обычная без прикрас, а вот с Radeon 8500LE вода уже была красившее и на производительность это не влияло. А если ещё и патчик врубить с Truform, то на Radeon 8500LE было вообще круто, круглое это круглое:))
По воспоминаниям все так и есть, пока не решишь повторить опыт и не увидишь, что (после того, как привык к современному "хорошему") геймплей, скажем так, не такой плавный))). Но в целом, раньше так и играли и всех все устраивало, так как играли в игры, а не в графику.
@@Freevad ну как бы я в то время тоже играл в графику и FPS:)) Возможно, если сравнивать нынешнию графику и ту, то возможно и будет глаз резать:)). Но в Морровинд я очень долго играл, до 2008 года, но уже на ноутбуке с Turion 64 MT30 (1.6GHz/1Mb) с Xpress 200M, потребляющую оперативку. Этот ноут уже Oblivion не тянул:)), игра запускалась, но если мучаться, то играть можно:)), хотя Oblivion c тем же Туалатином и 8500LE вполне бодро бегал, главное ini файл подредактировать, там шейдеры уже какие-то не поддерживались и игра по умолчанию шла без текстур:)).
не хватает именно тех процессоров у которых кеш внешний который работает сильно медленнее частоты процессора(по факту на частоте шины) Р3 ЕБ и амд тхнундерберд уже кэш L2 на проце)
Впервые поиграл в Quake 2 тоже на Pentium II 333мгц, правда видяха была из разряда затычек 1997 года, поэтому игры работали нормально только в софтверном рендерринге, Ку2 ещë и фризила иногда, видимо когда в 64мб ОЗУ прогружались эффекты, звуки или части уровней.
Скорее всего еще и звуковая была под ISA, у этих звуковых есть такой "прикол" в играх на движках id software, включая Half-Life. Возникает при подгрузке текстур (уровня). По факту не хватает ресурсов CPU, памяти может быть и 128 и 256 и 512 Mb, лечится установкой примерно 500 МГц процессора или заменой на PCI звуковую, причем драйверы нужны VXD.
@@Freevad вроде так и было, звуковуха была на ISA. Это был комп тëти и я открывал его всего раз, когда хотел поставить ей плату с доп портами USB (на материнке было всего 1 или 2 штуки) но Формоза обломала все мои планы, как я узнал уже намного позже они прошивкой биоса ограничивали самостоятельный апгрейд, ещë был вариант что блока питания хватало впритык чтобы стартануть ПК без плат расширения. Вобщем моë эникейство малолетнего школьника ей тогда не помогло и к юсб портам так и остался подключëн принтер, а от второго я провëл кабель удлинитель на стол для появившихся к середине 2000х флешек, а мышь так и оставались с переходником din-ps/2. Формоза к тому моменту сдулась, да и гарантия на ПК закончилась...
Первую игру, которую я запустил на свое первом PC (до это были ZX-Spectrum), был как раз Quake 2, это был 1999 год, комп PIII-500/512kb Katmai и видеокарта S3 Trio 3D/2X 4mb, брал как затычку для дальнейшего апгрейда - друг прожужжал все уши с Voodoo II, поэтому нацелен был на Супер Монстер из двух Voodoo II (очень дорогое удовольствие на то время), но уже в том время эта конструкция себя изжила, были уже Voodoo 3 и TnT2. На S3 Trio 3D/2X тоже играл в софтверном режиме, на другом даже не запускалось:)) Играла вообще круто, да и думал, что по факту такая графика и должна быть:))все в цветных квадратиках, до этого даже и не играл вообще на PC, только на Amiga и ZX-Spectrum (приставки не считаю:)) Но потом решил сделать апгрейд, как раз вышла GF256, нацелен был на неё, но когда пошел в магазы, оказалось, что карта в прайсе есть, но это под заказ, а мне уже ехать надо было. Все магазы в нашем Мухосранске обежал, везде под заказ, но была одна в Ретаил упаковке:)) Это щас почти все Ретаил, школоте это не понять, а тогда это жуткий оверпрайс за коробку и пару игр без перевода:)), короче лишних 20% от цены не хотел тратить (бедный студент), в итоге решил брать Voodoo 3, уже пошел на кассу, но гарантия 2 недели (на ОЕМ почти всегда так давали, только в составе компа 1-2 года), ё-маё, отказался, побежал в другой магаз, Matrox G400 - пошёл на склад и гарантия тоже 2 недели:)) Хахахаха, короче сижу, думаю, поезд через 6 часов:)) ТнТ2 брать ну очень не хотелось почему-то, Ati Xpert 2000 темный лес, почему то мало где продавали у нас и продавцы/консультанты почти ничего толкового сказать про неё не могли, в основном говорили про Вуду и ТНТ2, так же и Savage 4 как неплохой бюджетный вариант. В итоге взял Savage 2000, вот тут я и увидел Quake 2 во всей красе:)) Ещё и Q3A демку с диска вообще улёт, а Сериус Сем вообще красота:)) С другом как-то тестировали и сравнивали с GF256SDR, в Q3 в 16 битном Savage 2000 сильно проигрывал, но плюс был в том, что 16 битный цвет с трудом можно было отличить от 32битного (только на темном фоне), тогда как на GF256 это бросалось в глаза, но вот в 32 битном цвете, уже Savage 2000 ненамного, но все равно опережал GF256, но это все Q3A, все же GF256SDR был лучше, разве что в UT и Q3A в 32битном цвете Savage 2000 лидировал. Если в 32битном цвете Savage2000 не сильно отставал от GF256SDR, то в 16ти отставание доходило до двух раз, но все же 16 битный цвет был в разы лучше, чем у GF256SDR. А потом игроделы забили на все карты, кроме Ati и nVidia, и играть приходилось с помощью твикалок, все ругали драйвера Savage 2000, но они были вполне стабильные, но для игр нужны были уже твикалки, включающие/отключающие те или иные фичи.
второй раз пересмотрел и зацепила концовка. очень интересно было бы видео именно по чистому досу. осорбенно какие проблемы в каких играх и на каких видеокартах возможны и наглядно бы это все показать.
Такой вариант сравнения подходит для встроенных тестов, а я использовал, в основном, FRAPS. Кроме того, три одновременно идущие картинки смотреть не удобно, лучше когда их две. Тем не менее, можно было сделать и так, подрезав и синхронизировав видео, но в этот раз я решил повториться три раза. Как один из вариантов подачи материала.
Да, мечтал о Ти200.. самый бюджетный был вариант, дешевле обычной и Ти500. И мечтал я для игры - нет, не Морровинт, а какой-то из Сайлент Хиллов, скорее всего 4 (какой-то точно просил ДХ8 на момент релиза). МХ440 же невзлюбил на момент выхода тем, что НВидия как бы урезала функциональную возможность устройства: несмотря на то, что МХ440 вышел позже ГФ3 - что, как бы, следует из названия - вероятность получить сообщение о неподдерживаемости железом приложения была довольно-таки высока. Поскольку если в эпоху ГФ3 таких приложений было, может быть, и не очень много, но вот когда вышла 4-я серия - и, соответственно, МХ от 4-й серии - то уже вполне себе достаточно. А тестирование отличное - практически линейная масштабируемость получилась 👍
Тем не менее он был заметно быстрее любой GeForce 2 и какие-никакие, но шейдеры поддерживал. В любом случае, конда шейдеры стали актуальны, ни 3-я, ни 4-я линейка видеокарт их не тянули. По факту выровнялось все только к 6-й линейке. Семейство GeForce FX тоже было ущербным, поскольку очень медленно работало с DX9.
Доброго дня! Не было возможности отвечать в yotube. Чип Xbox с одной стороны более продвинутый, насколько помню, с другой он рассчитан на использование с телевизорами того времени (стандартный NTSC телевизионный сигнал содержит 525 строк (видимый растр 486 строк). Стандартный PAL телевизионный сигнал содержит 625 строк (видимый растр 575 строк). В целом, думаю, его производительность что-то между GF3 ti 500 и GF4 ti 4200.
@@FalconakaSkyranger Если он - это Pentium IV - то тактовые частоты и оптимизация (компилятор от Intel в те годы стандартом был (применялся по умолчанию разработчиками) и учитывал особенности NetBurst`а).
@@FalconakaSkyranger это я запутался, так как отвечал подряд на несколько сообщений))) Графический чип nVIDIA разрабатывала с учетом пожеланий Microsoft (и, видимо, вредничала, раз сейчас фактически все консоли на базе AMD), чип работал на тактовой частоте 250 МГц (GF3ti 500 - 240 МГц), архитектура чипа дорабатывалась с учетом имеющихся наработок поколения GF4ti. Что там конкретно - сказать не могу, но Microsoft анонсировала следующие характеристики: - Производительность графической системы: 125 миллионов нетекстурированных полигонов в секунду. - Sustained Polygon Performance: 100+ M/s (transformed and lit polygons per second). - Micropolygons/particles per second: 125 M/s. - Particle Performance: 125 M/s. - Одновременных текстур: 4. - Пиксельный Fill Rate - без текстур: 4 миллиарда/сек (с Anti-aliasing). - Пиксельный Fill Rate - с 1 текстурой: 4 миллиарда/сек (с Anti-aliasing).
Нет на руках такого железа, кроме того KT-400 нативно процессорную шину 200 МГц не поддерживает (память такую держит в асинхроне), это надо уже KT-600 искать. С точки зрения современной ретросборки - VIA предпочтительнее, она хотя и медленнее двухканальных nForce, но стабильнее и меньше греется, а с SiS (по личному опыту, была K7S5A) меньше всего проблем в плане совместимости с другим железом, хотя SiS обычно еще медленнее VIA.
@@Freevad глючность нфорса зависит от производителя. Например моя эпокс 8rda очень не любит видюхи серии ати 9600. Хотя на другой матери на нфорсе2 они работают без проблем
Есть целая табличка с проблемами, ссылка будет ниже. В целом, смотря какая FX, если FX-5200 (еще и производитель важен), то у нее те же проблемы, что и у MX 440, но начиная с 5-й серии nVIDIA, как впрочем и ATI с 9000-й серии, перестала заморачиваться с поддержкой VBE version 3 (in video BIOS). Будут ли "глюки" в интересующих именно Вас играх или нет - вопрос, но предупредить я должен. gona.mactar.hu/DOS_TESTS/
@@YM2149F У меня FX5600 нет и не было, сказать о ней ничего не могу. Но в целом, при наличии DVI, проще с подключением к относительно современным ЖК мониторам. Хотя, для игр того времени лучше всего подходит качественный ЭЛТ монитор, который, увы, занимает много места.
MX 440 -8x отличается от оригинальной видеокарты также увеличившимися тактовыми частотами. Слишком слабый проц, вкупе с устаревшими на тот момент времени(01/02+год)играми, приводит к неверному выводу о равноценности карт. Про Serious Sam: The First Encounter не скажу- не прогонял лично, в Second Encounter разница заметная. Кажется, я уже писал ранее, в данных играх есть встроенный тест измерения фпс, записывающий к тому же логи минимального/среднего/макс значения, не отнимающий и без того дефицитные ресурсы системы. Призываю отказываться от фрапса там где это возможно. Повторный запуск анрила вернет отражения Для информации: Pentium 3 1000 с GeForce3 на intel i815 в 01 марке выбивает 5000 баллов PS проц п3 1000 -классный, дорого обошелся?
В те времена я черпал информацию с журнала "железо" выкатили там красавицу джифорсину 3 ti 500 и я перестал спать ночами. Таки мечта быстро сбылась, на смену риве тнт 2 с селероном 466 это была бомба! Даже очки виртуальные были для стерео картинок. Но вышла джифорсина 4.... хорошие времена были
@@Kozlomordii в те времена прогресс был реально заметен, разница между поколениями видеокарт впечатляла, сейчас, по большому счету (если не говорить о технологии RT, которая давным давно в киноиндустрии используется, а в современных играх пока еще фактически делает первые шаги) растет только максимально поддерживаемое разрешение "картинки", от FullHD к 4k, последние же новости и про разрешение в 8k говорят. Для меня лично, на сегодня, даже 4k избыточным кажется из-за физических размеров мониторов, хотя привыкаешь, конечно, ко всему, но себе ближайшие годы приобретать монитор 4k не планирую, если и решусь сменить уже "немолодой" 24" 1920х1200, то возьму 27" 2560x1440. И то, по большому счету по причине того, что современные OS под такое разрешение по умолчанию настраиваются - калькулятор на половину экрана в 1920х1080 смотрится с одной стороны потешно, с другой - неряшливо.
Все таки P3-750 слабоват для Ti200 и mx440. Во времена актуальности этих карточек народ сидел на народных Athlon XP, которые были вдвое-втрое производительнее. Помню на Ti200+AMD 1700+ отлично шел NFS Underground и поддержка шейдеров была очень к месту.
У меня Андеграунд вполне тогда бодро шëл на Атлон ХР 2000+ 512 RAM и Radeon 9250 128 mb, НО карта была низкопрофильная, то есть 64 битный обрубок, который был ещё слабее МХ 440. Сама игра правда при выставлении выше средних настроек начинала резко терять кадры и становиться малоиграбельной.
@@paulzibert9985 Спасибо за комментарий! Здесь, думаю, зависит от того, на чем смотришь видео. На смартфоне они мешают, а на ПК в наушниках - просто, как дополнительный фон.
@@exl13 Лично мне птичий щебет обычно совершенно не мешает спать, как и пролетающие сверху самолеты (жил в детстве несколько лет недалеко от аэропорта, лающие собаки и прочее). Главное - спать хотеть. А кошки - те, если поесть хотят, целенаправленно будят - лапами, когтями, прыжками сверху или иным способом. Так что кошки более неудобны для утреннего сна))).
@@exl13 Все летающие птицы очень громкие. Это потому что им необходимо общаться на больших расстояниях в лесу. Прежде чем заводить нужно это учитывать.
@@РоманЕвгеньевич-э9ю согласен, у друзей тоже раньше был попугай, это ппц) пока его не занавесишь мог кричать так что пломбы из зубов выскакивают) все же не лучший выбор для домашних животных, или для людей с очень спокойными нервами. Я кошек и муравьев предпочитаю, и те и те тихие)
Nice to see another excellent video. At 34:47 when you look at the dark walls in Quake 2 you can see the bad 16-bit image of the nvidia cards. With a Voodoo 3/4/5 or Banshee with 22-bit filther enabled the same picture will be perfect with practically zero performance loss.
Yes, I agree, in Quake 2 on Voodoo 3 the picture is better.
В последнее время я хорошо прошерстил интернеты на предмет олдового технопорно. И контентика стало побольше. Каждый день по часику выходит, спасибо всем!
кстати тоже заметил как ретро набирает обороты.
@@BANNEDandRRoD Новое железо равно как и винда нисколько не радуют, тенденция к консолям и мобильным устройствам и в железе и в софте (интерфейс винды), в отличие от того периода - это был расцвет персоналок.
2 и 3 Пень - это моё ностальгическое и голодное до МГц детство ! Эххх классное было время
Голодное не только до МГц.
@@mango_z Дааа
почаще выпускайте видео ! интересно! GeForce 3 Ti 200 был когда то моей "мечтой" )))))
титаник порвёт обрезок МХ как Тузик грелку!)))))
У вас очень не обычные видео на канале, надеюсь не забросите...
Спасибо за комментарий!
Чуток медленноватый процик для этих видяшек, я помню у меня эти mx400 и mx440 были начиная с Celeron 1100Mhz. По сути и Geforce 2 mx и Geforce 4mx это Geforce 2
Процессор - не самый быстрый, но тенденции на нем уже видны. А по видеокартам - архитектура у GF4-MX по отношению к GF4 ti устаревшая, как сейчас у GF GTX 1660 по отношению к RTX, но по производительности GF4MX440 быстрее практически в 2 раза, нежели GF2MX400.
Полноценный geforce 2 имеет 4 пиксельных конвейера, в то время как мх400 и мх440 всего по 2шт. Четвёртый жираф может обойти полноценную двойку только за счёт высоких таковых частот gpu и памяти. Так что говорить, что МХы это geforce 2 некорректно. Geforce 4mx440 это скорее эволюция geforce 2mx400, но ни как не geforce 2 gts, pro, ti, ultra.
капец кананальчик..автор ты золодце...смотрю вечером тебя вместо киношек..просто красавчик
Спасибо за комментарий! Приятно!
A suggestion for a video, if you think it is interesting enough for the viewers of your channel: 16 vs 32-bit performance and quality difference on the TNT1 / 2 or Geforce 256 / 2 cards.
The GF 4 MX 440 if more than enough for a P3 750 mhz. A faster card will be limited by the P3 750 mhz and show the same FPS as the GF 4 MX 440. Excellent video.
I agree 100%, for a GeForce 4 MX 440 video card, a Pentium III 750-1000 processor is quite enough for games of that time. The leap in system requirements came in 2004 with the release of Half-Life2 and Doom III.
@@Freevad Вам про фому, вы- про ерему. Который человек уже повторяет, что данный проц сдерживает видеокарту
не затягивай те а то что то давненько уже вас не было жду новый видос спасибо все интересно
Была у меня GF3 ti 200 разгонял ее как мог. вполне неплохо справлялась :) До сих пор гдето валяется вместе с GF4 и иже подобными.
Спасибо за комментарий! GeForce 3ti 200 хорошая была видеокарта в свое время, если с современными видеокартами аналогию проводить, она была что-то типа RTX 2060 Super\2070 (эти поддерживают "лучи", та поддерживала "шейдеры" и в обоих случаях игр, где эти технологии используются "по взрослому" нет, а когда появились, видеокарты морально устарели). Впрочем, если верить новостям "Киберпанк" с лучами, ставит на колени даже RTX 4090, делая его неиграбельно тормозным по современным меркам (средний FPS меньше 60 кадров в секунду) уже в 2к разрешении. Выглядит все это "действо", как в свое время история с Half-Life 2, которая "превратила в тыкву" не только линейку видеокарт GeForce 4 ti, но и всю серию GeForce FX. Правда тогда ATI "была на коне", а сейчас все производители видеокарт в глубоком нокауте.
@@Freevad Раньше было лучче. Прогресс был явно заметен. Лучики вместе с рт ядрами как по мне просто маркетинг. Заметного улучшения картинки я не вижу, а снижение производительности на лицо. Надо же как то горячие пирожки в виде 40ых и 50ых карт багрить, а еще и за дорого(очень дорого). У самого rtx3060ti.
@@AxMav Согласен, "лучи" делают картинку "правильней" с точки зрения освещения, но далеко не всегда красивей и за счет кратного падения производительности.
@@Freevad Да лучи в целом не требуют никаких дополнительных ядер. Раньше были игры с лучами или подобной технологией. Например та же игра FEAR. з.ы. Маркетинг всюду. Надо продавать :)
@@AxMav Согласен. Вопрос не в столько в самой технологии, сколько в способе ее реализации на практике.
Поздние китайские 4mx400 очень хорошо гнались через RivaTuner. Лично помню забивал в настройки частоты 5200 и все работало. Интересно было бы посмотреть, каков фактический ее прирост при разгоне и ЧТО она догоняет... Но похоже, этого рода контент придется "пилить" самому
Спасибо за комментарий! Для такого контента, как минимум, надо найти позднюю китайскую 4mx 400 (модель для меня неизвестна, поскольку были GeForce 4 MX 420, 440, 460 и была ещё MX 4000). А вообще на русских оверах статьи про разгон GeForce 4 MX присутствуют, результаты, если вкратце - круче любой GeForce 2, но отсутствие поддержки шейдерных технологий ставит на них крест, поскольку, к примеру, Silent Hill на них не запускается. В играх без шейдеров - мощь.
Так то обоих процессоров недостаточно для этих карт. К ним подходит что-то вроде Athlon 2000+
Да, недостаточно, но с другой стороны и Athlon`у 2000 желательно в комплект не GF3, ATI Radeon 9800XT или GF6800. В общем "нет жизне щастя")))
@@Freevad думаю атлону за глаза и 9600pro будет.
@@AnD_RoM нет, маловато будет, AMD Athlon 2000+ - неплохой процессор, в играх на уровне Pentium IV 2100-2200 MHz. Избыточной для него будет топовая линейка седьмой серии nVIDIA. Но, к примеру, Half-Life 2 и Doom III (исходные версии) он тянет на 5-ку. В свое время, как раз прошел обе игры на AMD Athlon 1700+ (1,46 ГГц) и ATI Radeon 9600 Pro. В Half-Life 2 проблем не было вообще (по воспоминаниям), настройки были средне-высокие, в Doom III пришлось отключить тени, плюс были у меня тогда старые драйверы (не поддерживающие Doom III), игра зависала через каждые 2-3 минуты, поэтому приходилось очень часто сохраняться. Но таки прошел, хотя и с проседаниями FPS иногда до 24+ кадров (субъективно), включая финального босса.
@@Freevad Жирновато такие ставить, уровень карт 9800 может быть оправдан для очень высоких разрешений 1600х1200 и/или сглаживания. Более мощная 6800 так вообще за гранью...моего понимания)
@@РоманМедведев-з9д Семитысячная версия видеокарт nVIDIA аккурат вышла к первым двухъядерникам, а до этого были Pentium IV 3200, Athlon XP 3200+ и первые Athlon 64 (3000-3200+) и на них и тестировали шеститысячную серию. Безусловно, Athlon 64 3200+ в играх быстрее, чем AMD Athlon 2000+, но не в 2 раза. Да, этот процессор не выжмет из 6800 все FPS, но и простаивать она, как с чем-то уровня Pentium III 1000 не будет. И Far Cry будет хорошо идти, и Doom III, и Half-Life 2 и прочие игры того времени (Unreal II, например) с приемлемым (для того времени) FPS в 50-70+ кадров в секунду, с падением до 25-30 в отдельных сценах. А то, что для ATI Radeon 9800 лучше поставить Athlon 3000+ тоже спорить не стану, оно ей, однозначно, не помешает))).
Mx 440 это жир для пня 3 😊 помню у меня в готовом системнике стоял mx440 128mb и celeron 2200, эхх нехватило у бати тогда на pentium 4 ht а собирать нерасбирались ,а купили готовый в formoza Москва.Но после 486 с 16 мб ОЗУ )) я на все каникулы зимние засел комп на нг подарили )
По тем временам неплохая сборка была, тянула все, кроме того, что уже без шейдеров не работало.
GeForce 3Ti гораздо более мощная карточка. Просто ей катастрафически не хватило процессора. Для такой карточки нужен Pentium 3 Tualatin 1400 Mhz. И она поддерживает шейдеры. Что в начале нулевых было абсолютным приоритетом, многие игры просто преображались, другие - вовсе не запускались без поддержки шейдеров. У меня в те годы был AMD Duron 1100Mhz и обе эти карточки (еще и GeForce 2 MMX) и я остался очень доволен GeForce 3Ti.
AMD Duron 1100 по производительности был рядом с Pentium III на аналогичной тактовой частоте. А вообще видеокарта весьма хороша. Но для игр с шейдерами, когда они стали обязательны, ее производительности уже не хватало. Прогресс не остановить...
Странно про Морровинд, спокойно играл в него на Savage 2000 и Radeon LE, главное проц нормальный, с Pentium III 500/512kb (Katmai) шло как-то не очень, но играть можно, но с Celeron 900@1200MHz (Tualatin) все летало, но вода была обычная без прикрас, а вот с Radeon 8500LE вода уже была красившее и на производительность это не влияло. А если ещё и патчик врубить с Truform, то на Radeon 8500LE было вообще круто, круглое это круглое:))
По воспоминаниям все так и есть, пока не решишь повторить опыт и не увидишь, что (после того, как привык к современному "хорошему") геймплей, скажем так, не такой плавный))). Но в целом, раньше так и играли и всех все устраивало, так как играли в игры, а не в графику.
Кстати я бы тоже не сказал что Морровинд у меня тормозил на geForce 3 ti, правда 128мб ОЗУ игре было мало, поставил 512 и реально кайфанул)
@@Moi_Gospodin1337 да, ОЗУ там как раз не хватало, особенно для бесшовного геймплея:))
@@Freevad ну как бы я в то время тоже играл в графику и FPS:)) Возможно, если сравнивать нынешнию графику и ту, то возможно и будет глаз резать:)). Но в Морровинд я очень долго играл, до 2008 года, но уже на ноутбуке с Turion 64 MT30 (1.6GHz/1Mb) с Xpress 200M, потребляющую оперативку. Этот ноут уже Oblivion не тянул:)), игра запускалась, но если мучаться, то играть можно:)), хотя Oblivion c тем же Туалатином и 8500LE вполне бодро бегал, главное ini файл подредактировать, там шейдеры уже какие-то не поддерживались и игра по умолчанию шла без текстур:)).
@@mango_z на 128 уменя в районе Вивека локации грузились дольше чем я их пробегал)
не хватает именно тех процессоров у которых кеш внешний который работает сильно медленнее частоты процессора(по факту на частоте шины) Р3 ЕБ и амд тхнундерберд уже кэш L2 на проце)
Спасибо за комментарий! Что есть, то есть.
Впервые поиграл в Quake 2 тоже на Pentium II 333мгц, правда видяха была из разряда затычек 1997 года, поэтому игры работали нормально только в софтверном рендерринге, Ку2 ещë и фризила иногда, видимо когда в 64мб ОЗУ прогружались эффекты, звуки или части уровней.
Скорее всего еще и звуковая была под ISA, у этих звуковых есть такой "прикол" в играх на движках id software, включая Half-Life. Возникает при подгрузке текстур (уровня). По факту не хватает ресурсов CPU, памяти может быть и 128 и 256 и 512 Mb, лечится установкой примерно 500 МГц процессора или заменой на PCI звуковую, причем драйверы нужны VXD.
@@Freevad вроде так и было, звуковуха была на ISA. Это был комп тëти и я открывал его всего раз, когда хотел поставить ей плату с доп портами USB (на материнке было всего 1 или 2 штуки) но Формоза обломала все мои планы, как я узнал уже намного позже они прошивкой биоса ограничивали самостоятельный апгрейд, ещë был вариант что блока питания хватало впритык чтобы стартануть ПК без плат расширения. Вобщем моë эникейство малолетнего школьника ей тогда не помогло и к юсб портам так и остался подключëн принтер, а от второго я провëл кабель удлинитель на стол для появившихся к середине 2000х флешек, а мышь так и оставались с переходником din-ps/2. Формоза к тому моменту сдулась, да и гарантия на ПК закончилась...
@@Moi_Gospodin1337 Зачетные у них корпуса были))).
Первую игру, которую я запустил на свое первом PC (до это были ZX-Spectrum), был как раз Quake 2, это был 1999 год, комп PIII-500/512kb Katmai и видеокарта S3 Trio 3D/2X 4mb, брал как затычку для дальнейшего апгрейда - друг прожужжал все уши с Voodoo II, поэтому нацелен был на Супер Монстер из двух Voodoo II (очень дорогое удовольствие на то время), но уже в том время эта конструкция себя изжила, были уже Voodoo 3 и TnT2. На S3 Trio 3D/2X тоже играл в софтверном режиме, на другом даже не запускалось:)) Играла вообще круто, да и думал, что по факту такая графика и должна быть:))все в цветных квадратиках, до этого даже и не играл вообще на PC, только на Amiga и ZX-Spectrum (приставки не считаю:)) Но потом решил сделать апгрейд, как раз вышла GF256, нацелен был на неё, но когда пошел в магазы, оказалось, что карта в прайсе есть, но это под заказ, а мне уже ехать надо было. Все магазы в нашем Мухосранске обежал, везде под заказ, но была одна в Ретаил упаковке:)) Это щас почти все Ретаил, школоте это не понять, а тогда это жуткий оверпрайс за коробку и пару игр без перевода:)), короче лишних 20% от цены не хотел тратить (бедный студент), в итоге решил брать Voodoo 3, уже пошел на кассу, но гарантия 2 недели (на ОЕМ почти всегда так давали, только в составе компа 1-2 года), ё-маё, отказался, побежал в другой магаз, Matrox G400 - пошёл на склад и гарантия тоже 2 недели:)) Хахахаха, короче сижу, думаю, поезд через 6 часов:)) ТнТ2 брать ну очень не хотелось почему-то, Ati Xpert 2000 темный лес, почему то мало где продавали у нас и продавцы/консультанты почти ничего толкового сказать про неё не могли, в основном говорили про Вуду и ТНТ2, так же и Savage 4 как неплохой бюджетный вариант. В итоге взял Savage 2000, вот тут я и увидел Quake 2 во всей красе:)) Ещё и Q3A демку с диска вообще улёт, а Сериус Сем вообще красота:)) С другом как-то тестировали и сравнивали с GF256SDR, в Q3 в 16 битном Savage 2000 сильно проигрывал, но плюс был в том, что 16 битный цвет с трудом можно было отличить от 32битного (только на темном фоне), тогда как на GF256 это бросалось в глаза, но вот в 32 битном цвете, уже Savage 2000 ненамного, но все равно опережал GF256, но это все Q3A, все же GF256SDR был лучше, разве что в UT и Q3A в 32битном цвете Savage 2000 лидировал. Если в 32битном цвете Savage2000 не сильно отставал от GF256SDR, то в 16ти отставание доходило до двух раз, но все же 16 битный цвет был в разы лучше, чем у GF256SDR. А потом игроделы забили на все карты, кроме Ati и nVidia, и играть приходилось с помощью твикалок, все ругали драйвера Savage 2000, но они были вполне стабильные, но для игр нужны были уже твикалки, включающие/отключающие те или иные фичи.
@@Freevad это да! У меня есть парочка и парочка эмблем отдельно))
Была ещё не такая частовстречающаяся как МХ 440 - МХ 460 - она была бы более достойным противником Тройке.
Спасибо за комментарий! Наверное - да, хотя разница между MX440 и MX460 не принципиальная по производительности.
pentium 2 233 мгц на pentium 3 1000(750) не шило на мыло?
Смотря как на это смотреть, все относительно, в производительности разница больше чем в два раза, но да, есть и более быстрые ЦП.
по частотам geforce 4 mx 440 почти наравне с geforce 3 ti 200, по поддерживаемым технологиями geforce 3 лучше geforce 4 mx 440
Да, в GeForce 3 полная поддержка DX8, а GeForce 4MX по факту поддерживает только DX7.
второй раз пересмотрел и зацепила концовка.
очень интересно было бы видео именно по чистому досу. осорбенно какие проблемы в каких играх и на каких видеокартах возможны и наглядно бы это все показать.
ОК
почему нельзя разделить экран на три и на каждом выводить изображение с процом и картой а не повторятся?
Такой вариант сравнения подходит для встроенных тестов, а я использовал, в основном, FRAPS. Кроме того, три одновременно идущие картинки смотреть не удобно, лучше когда их две. Тем не менее, можно было сделать и так, подрезав и синхронизировав видео, но в этот раз я решил повториться три раза. Как один из вариантов подачи материала.
Да, мечтал о Ти200.. самый бюджетный был вариант, дешевле обычной и Ти500. И мечтал я для игры - нет, не Морровинт, а какой-то из Сайлент Хиллов, скорее всего 4 (какой-то точно просил ДХ8 на момент релиза).
МХ440 же невзлюбил на момент выхода тем, что НВидия как бы урезала функциональную возможность устройства: несмотря на то, что МХ440 вышел позже ГФ3 - что, как бы, следует из названия - вероятность получить сообщение о неподдерживаемости железом приложения была довольно-таки высока. Поскольку если в эпоху ГФ3 таких приложений было, может быть, и не очень много, но вот когда вышла 4-я серия - и, соответственно, МХ от 4-й серии - то уже вполне себе достаточно.
А тестирование отличное - практически линейная масштабируемость получилась 👍
Спасибо за комментарий!
МХ440… как же я негодовал когда узнал что это чутка подкачанный GeForce 2 который даже directx 8 не мог…
Тем не менее он был заметно быстрее любой GeForce 2 и какие-никакие, но шейдеры поддерживал. В любом случае, конда шейдеры стали актуальны, ни 3-я, ни 4-я линейка видеокарт их не тянули. По факту выровнялось все только к 6-й линейке. Семейство GeForce FX тоже было ущербным, поскольку очень медленно работало с DX9.
я ,вообще, не понимаю смысла тестировать видеокарты с упором в процессор
В данном случае тестировались не видеокарты, как таковые, а вариант сборки ретро-ПК. На ретро ПК быстрый процессор не всегда благо.
Интересно стало насколько тождественна производительность GF3 и графического чипа X-box
Доброго дня! Не было возможности отвечать в yotube. Чип Xbox с одной стороны более продвинутый, насколько помню, с другой он рассчитан на использование с телевизорами того времени (стандартный NTSC телевизионный сигнал содержит 525 строк (видимый растр 486 строк). Стандартный PAL телевизионный сигнал содержит 625 строк (видимый растр 575 строк). В целом, думаю, его производительность что-то между GF3 ti 500 и GF4 ti 4200.
@@Freevad Спасибо за ответ. А за счёт чего он производительнее? Архитектурные изменения или частоты повыше?
@@FalconakaSkyranger Если он - это Pentium IV - то тактовые частоты и оптимизация (компилятор от Intel в те годы стандартом был (применялся по умолчанию разработчиками) и учитывал особенности NetBurst`а).
@@Freevad я немного запутался. Графический чип учитывал особенности NetBurst? Я имел ввиду чип X-box, а там, насколько я помню, был третепень))
@@FalconakaSkyranger это я запутался, так как отвечал подряд на несколько сообщений))) Графический чип nVIDIA разрабатывала с учетом пожеланий Microsoft (и, видимо, вредничала, раз сейчас фактически все консоли на базе AMD), чип работал на тактовой частоте 250 МГц (GF3ti 500 - 240 МГц), архитектура чипа дорабатывалась с учетом имеющихся наработок поколения GF4ti. Что там конкретно - сказать не могу, но Microsoft анонсировала следующие характеристики:
- Производительность графической системы: 125 миллионов нетекстурированных полигонов в секунду.
- Sustained Polygon Performance: 100+ M/s (transformed and lit polygons per second).
- Micropolygons/particles per second: 125 M/s.
- Particle Performance: 125 M/s.
- Одновременных текстур: 4.
- Пиксельный Fill Rate - без текстур: 4 миллиарда/сек (с Anti-aliasing).
- Пиксельный Fill Rate - с 1 текстурой: 4 миллиарда/сек (с Anti-aliasing).
За музыку Итана Микселла респект
тестить старое железо можно очень долго) Вот бы увидеть тест атлона 3200+ на нфорсе2, на виа кт400 и на сис.
Нет на руках такого железа, кроме того KT-400 нативно процессорную шину 200 МГц не поддерживает (память такую держит в асинхроне), это надо уже KT-600 искать. С точки зрения современной ретросборки - VIA предпочтительнее, она хотя и медленнее двухканальных nForce, но стабильнее и меньше греется, а с SiS (по личному опыту, была K7S5A) меньше всего проблем в плане совместимости с другим железом, хотя SiS обычно еще медленнее VIA.
@@Freevad глючность нфорса зависит от производителя. Например моя эпокс 8rda очень не любит видюхи серии ати 9600. Хотя на другой матери на нфорсе2 они работают без проблем
@@kombinator87 Возможно, по себе (в свое время)- материнская плата от Asus на nForce для socket A слетел BIOS, от epox под 754 - просто сдохла.
классный ролик! спасибо
А что за проблемы GeForce FX в MS-DOS?
Есть целая табличка с проблемами, ссылка будет ниже. В целом, смотря какая FX, если FX-5200 (еще и производитель важен), то у нее те же проблемы, что и у MX 440, но начиная с 5-й серии nVIDIA, как впрочем и ATI с 9000-й серии, перестала заморачиваться с поддержкой VBE version 3 (in video BIOS). Будут ли "глюки" в интересующих именно Вас играх или нет - вопрос, но предупредить я должен.
gona.mactar.hu/DOS_TESTS/
@@Freevad FX5600XT в MS-DOS как апскейлер DVI работает, одна 1280х1024 в захват выдает, а другая 1920х1080.
@@YM2149F У меня FX5600 нет и не было, сказать о ней ничего не могу. Но в целом, при наличии DVI, проще с подключением к относительно современным ЖК мониторам. Хотя, для игр того времени лучше всего подходит качественный ЭЛТ монитор, который, увы, занимает много места.
кроме попугая ничего не слышно. ужасный звук
Согласен, в наушниках лучше слушать.
agree
MX 440 -8x отличается от оригинальной видеокарты также увеличившимися тактовыми частотами.
Слишком слабый проц, вкупе с устаревшими на тот момент времени(01/02+год)играми, приводит к неверному выводу о равноценности карт.
Про Serious Sam: The First Encounter не скажу- не прогонял лично, в Second Encounter разница заметная. Кажется, я уже писал ранее, в данных играх есть встроенный тест измерения фпс, записывающий к тому же логи минимального/среднего/макс значения, не отнимающий и без того дефицитные ресурсы системы. Призываю отказываться от фрапса там где это возможно.
Повторный запуск анрила вернет отражения
Для информации: Pentium 3 1000 с GeForce3 на intel i815 в 01 марке выбивает 5000 баллов
PS проц п3 1000 -классный, дорого обошелся?
А с C2D можно 10к выжать.
GeForce 3 ti 200 так и осталась моей несбывшейся мечтой.
Купите сейчас, хотя на сегодня ti4200 смотрится интересней.
В те времена я черпал информацию с журнала "железо" выкатили там красавицу джифорсину 3 ti 500 и я перестал спать ночами. Таки мечта быстро сбылась, на смену риве тнт 2 с селероном 466 это была бомба! Даже очки виртуальные были для стерео картинок. Но вышла джифорсина 4.... хорошие времена были
@@Kozlomordii в те времена прогресс был реально заметен, разница между поколениями видеокарт впечатляла, сейчас, по большому счету (если не говорить о технологии RT, которая давным давно в киноиндустрии используется, а в современных играх пока еще фактически делает первые шаги) растет только максимально поддерживаемое разрешение "картинки", от FullHD к 4k, последние же новости и про разрешение в 8k говорят. Для меня лично, на сегодня, даже 4k избыточным кажется из-за физических размеров мониторов, хотя привыкаешь, конечно, ко всему, но себе ближайшие годы приобретать монитор 4k не планирую, если и решусь сменить уже "немолодой" 24" 1920х1200, то возьму 27" 2560x1440. И то, по большому счету по причине того, что современные OS под такое разрешение по умолчанию настраиваются - калькулятор на половину экрана в 1920х1080 смотрится с одной стороны потешно, с другой - неряшливо.
Все таки P3-750 слабоват для Ti200 и mx440. Во времена актуальности этих карточек народ сидел на народных Athlon XP, которые были вдвое-втрое производительнее. Помню на Ti200+AMD 1700+ отлично шел NFS Underground и поддержка шейдеров была очень к месту.
Так и есть, хотя для Athlon XP все же уже лучше уже установить GeForce 4ti\Radeon 9600-9800 Pro.
У меня Андеграунд вполне тогда бодро шëл на Атлон ХР 2000+ 512 RAM и Radeon 9250 128 mb, НО карта была низкопрофильная, то есть 64 битный обрубок, который был ещё слабее МХ 440.
Сама игра правда при выставлении выше средних настроек начинала резко терять кадры и становиться малоиграбельной.
фигасе на слоте радиатор))
Это со слотового AMD Athlon к которому нет живой материнской платы.)))
@@Freevad понятно)никогда такой не видел)
Попугай наверное `попугаев` в играх считал :)
Тот что на заднем фоне
Спасибо за комментарий! Не исключено)))
Блин, попугая надо перемещать в другое помещение на время съёмок...
попугай как раз в тему,ведь речь идет о производительности видюхи.))
Совершенно верно, а кошку в третье, от которой попугая ко мне и переселили)))
@@Алексей-э1ч4п пхах, +1 попугай к производительности видюхи))
@@Freevad попугая убрать, а кошку в кадр. Ведь давно известно, что кошка в кадре это +100500 к просмотрам и развитию канала:))
Проц невывозит
Спасибо за комментарий! Естественно не вывозит, для нее вдвое производительней, чем Pentium III 750 MHz желательно.
Я очень люблю и ценю твой контент, спасибо тебе за твои труды! НО. Это видео невозможно смотреть из-за запредельно громкого чириканья твоих попугаев.
Учту, ответил выше. По ходу придется разориться на кардиоидный микрофон, это будет проще.
@@Freevad а мне наоборот понравились попугаи. Ностальгия. В детстве был у меня, также чирикал.
@@paulzibert9985 Спасибо за комментарий! Здесь, думаю, зависит от того, на чем смотришь видео. На смартфоне они мешают, а на ПК в наушниках - просто, как дополнительный фон.
Кеша пернатый на мозги давит, накрывай пледом его, когда видео записываешь)
у меня вопрос к владельцам попугаев. каким образом вы все еще не свернули им шею?
Даже в каменных джунглях надо быть ближе к природе)))
@@Freevad жуть как они громко и пронзительно чирикают) я чувствую моя кошка мяукающая три раза в 6 утра не самое большое неудобство))
@@exl13 Лично мне птичий щебет обычно совершенно не мешает спать, как и пролетающие сверху самолеты (жил в детстве несколько лет недалеко от аэропорта, лающие собаки и прочее). Главное - спать хотеть. А кошки - те, если поесть хотят, целенаправленно будят - лапами, когтями, прыжками сверху или иным способом. Так что кошки более неудобны для утреннего сна))).
@@exl13 Все летающие птицы очень громкие. Это потому что им необходимо общаться на больших расстояниях в лесу. Прежде чем заводить нужно это учитывать.
@@РоманЕвгеньевич-э9ю согласен, у друзей тоже раньше был попугай, это ппц) пока его не занавесишь мог кричать так что пломбы из зубов выскакивают) все же не лучший выбор для домашних животных, или для людей с очень спокойными нервами. Я кошек и муравьев предпочитаю, и те и те тихие)
Попугай задолбал чирикать. Выключай его