GF4 MX vs GF3 ti 200 with Pentium II 333 & Pentium III 750

Поделиться
HTML-код
  • Опубликовано: 8 сен 2024
  • В видео я провожу сравнительный анализ двух видеокарт - GeForce 4 MX-440 и GeForce 3 ti 200 и с парой центральных процессоров Intel Pentium II и Intel Pentium III. Цель - проверка того, насколько GeForce 3 "круче" GeForce 4 MX-440. Сравнение получилось весьма познавательным, а что круче можно узнать, посмотрев видео...

Комментарии • 132

  • @GoFMidoPlay
    @GoFMidoPlay 2 года назад +7

    В последнее время я хорошо прошерстил интернеты на предмет олдового технопорно. И контентика стало побольше. Каждый день по часику выходит, спасибо всем!

    • @BANNEDandRRoD
      @BANNEDandRRoD 2 года назад +2

      кстати тоже заметил как ретро набирает обороты.

    • @TiKth
      @TiKth Год назад

      @@BANNEDandRRoD Новое железо равно как и винда нисколько не радуют, тенденция к консолям и мобильным устройствам и в железе и в софте (интерфейс винды), в отличие от того периода - это был расцвет персоналок.

  • @user-jq1zy8hp7i
    @user-jq1zy8hp7i 2 года назад +8

    почаще выпускайте видео ! интересно! GeForce 3 Ti 200 был когда то моей "мечтой" )))))
    титаник порвёт обрезок МХ как Тузик грелку!)))))

  • @voxxxytoyota6848
    @voxxxytoyota6848 2 года назад +5

    2 и 3 Пень - это моё ностальгическое и голодное до МГц детство ! Эххх классное было время

    • @mango_z
      @mango_z 2 года назад +3

      Голодное не только до МГц.

    • @voxxxytoyota6848
      @voxxxytoyota6848 2 года назад +1

      @@mango_z Дааа

  • @supermario8416
    @supermario8416 2 года назад +3

    The GF 4 MX 440 if more than enough for a P3 750 mhz. A faster card will be limited by the P3 750 mhz and show the same FPS as the GF 4 MX 440. Excellent video.

    • @Freevad
      @Freevad  2 года назад +1

      I agree 100%, for a GeForce 4 MX 440 video card, a Pentium III 750-1000 processor is quite enough for games of that time. The leap in system requirements came in 2004 with the release of Half-Life2 and Doom III.

    • @user-cb7wt8vm9l
      @user-cb7wt8vm9l 2 года назад

      @@Freevad Вам про фому, вы- про ерему. Который человек уже повторяет, что данный проц сдерживает видеокарту

  • @supermario8416
    @supermario8416 2 года назад +3

    A suggestion for a video, if you think it is interesting enough for the viewers of your channel: 16 vs 32-bit performance and quality difference on the TNT1 / 2 or Geforce 256 / 2 cards.

  • @supermario8416
    @supermario8416 2 года назад +4

    Nice to see another excellent video. At 34:47 when you look at the dark walls in Quake 2 you can see the bad 16-bit image of the nvidia cards. With a Voodoo 3/4/5 or Banshee with 22-bit filther enabled the same picture will be perfect with practically zero performance loss.

    • @Freevad
      @Freevad  2 года назад +2

      Yes, I agree, in Quake 2 on Voodoo 3 the picture is better.

  • @stas_polessky
    @stas_polessky 2 года назад +2

    Чуток медленноватый процик для этих видяшек, я помню у меня эти mx400 и mx440 были начиная с Celeron 1100Mhz. По сути и Geforce 2 mx и Geforce 4mx это Geforce 2

    • @Freevad
      @Freevad  2 года назад +3

      Процессор - не самый быстрый, но тенденции на нем уже видны. А по видеокартам - архитектура у GF4-MX по отношению к GF4 ti устаревшая, как сейчас у GF GTX 1660 по отношению к RTX, но по производительности GF4MX440 быстрее практически в 2 раза, нежели GF2MX400.

    • @alexman6280
      @alexman6280 2 года назад

      Полноценный geforce 2 имеет 4 пиксельных конвейера, в то время как мх400 и мх440 всего по 2шт. Четвёртый жираф может обойти полноценную двойку только за счёт высоких таковых частот gpu и памяти. Так что говорить, что МХы это geforce 2 некорректно. Geforce 4mx440 это скорее эволюция geforce 2mx400, но ни как не geforce 2 gts, pro, ti, ultra.

  • @noname-cp8ki
    @noname-cp8ki 2 года назад +2

    У вас очень не обычные видео на канале, надеюсь не забросите...

    • @Freevad
      @Freevad  2 года назад +1

      Спасибо за комментарий!

  • @AxMav
    @AxMav Год назад +1

    Была у меня GF3 ti 200 разгонял ее как мог. вполне неплохо справлялась :) До сих пор гдето валяется вместе с GF4 и иже подобными.

    • @Freevad
      @Freevad  Год назад

      Спасибо за комментарий! GeForce 3ti 200 хорошая была видеокарта в свое время, если с современными видеокартами аналогию проводить, она была что-то типа RTX 2060 Super\2070 (эти поддерживают "лучи", та поддерживала "шейдеры" и в обоих случаях игр, где эти технологии используются "по взрослому" нет, а когда появились, видеокарты морально устарели). Впрочем, если верить новостям "Киберпанк" с лучами, ставит на колени даже RTX 4090, делая его неиграбельно тормозным по современным меркам (средний FPS меньше 60 кадров в секунду) уже в 2к разрешении. Выглядит все это "действо", как в свое время история с Half-Life 2, которая "превратила в тыкву" не только линейку видеокарт GeForce 4 ti, но и всю серию GeForce FX. Правда тогда ATI "была на коне", а сейчас все производители видеокарт в глубоком нокауте.

    • @AxMav
      @AxMav Год назад +1

      @@Freevad Раньше было лучче. Прогресс был явно заметен. Лучики вместе с рт ядрами как по мне просто маркетинг. Заметного улучшения картинки я не вижу, а снижение производительности на лицо. Надо же как то горячие пирожки в виде 40ых и 50ых карт багрить, а еще и за дорого(очень дорого). У самого rtx3060ti.

    • @Freevad
      @Freevad  Год назад

      @@AxMav Согласен, "лучи" делают картинку "правильней" с точки зрения освещения, но далеко не всегда красивей и за счет кратного падения производительности.

    • @AxMav
      @AxMav Год назад +1

      @@Freevad Да лучи в целом не требуют никаких дополнительных ядер. Раньше были игры с лучами или подобной технологией. Например та же игра FEAR. з.ы. Маркетинг всюду. Надо продавать :)

    • @Freevad
      @Freevad  Год назад +1

      @@AxMav Согласен. Вопрос не в столько в самой технологии, сколько в способе ее реализации на практике.

  • @strekalofficial2519
    @strekalofficial2519 10 месяцев назад +1

    Mx 440 это жир для пня 3 😊 помню у меня в готовом системнике стоял mx440 128mb и celeron 2200, эхх нехватило у бати тогда на pentium 4 ht а собирать нерасбирались ,а купили готовый в formoza Москва.Но после 486 с 16 мб ОЗУ )) я на все каникулы зимние засел комп на нг подарили )

    • @Freevad
      @Freevad  10 месяцев назад +1

      По тем временам неплохая сборка была, тянула все, кроме того, что уже без шейдеров не работало.

  • @mango_z
    @mango_z 2 года назад +4

    Странно про Морровинд, спокойно играл в него на Savage 2000 и Radeon LE, главное проц нормальный, с Pentium III 500/512kb (Katmai) шло как-то не очень, но играть можно, но с Celeron 900@1200MHz (Tualatin) все летало, но вода была обычная без прикрас, а вот с Radeon 8500LE вода уже была красившее и на производительность это не влияло. А если ещё и патчик врубить с Truform, то на Radeon 8500LE было вообще круто, круглое это круглое:))

    • @Freevad
      @Freevad  2 года назад +1

      По воспоминаниям все так и есть, пока не решишь повторить опыт и не увидишь, что (после того, как привык к современному "хорошему") геймплей, скажем так, не такой плавный))). Но в целом, раньше так и играли и всех все устраивало, так как играли в игры, а не в графику.

    • @Moi_Gospodin1337
      @Moi_Gospodin1337 2 года назад +1

      Кстати я бы тоже не сказал что Морровинд у меня тормозил на geForce 3 ti, правда 128мб ОЗУ игре было мало, поставил 512 и реально кайфанул)

    • @mango_z
      @mango_z 2 года назад +1

      @@Moi_Gospodin1337 да, ОЗУ там как раз не хватало, особенно для бесшовного геймплея:))

    • @mango_z
      @mango_z 2 года назад +1

      @@Freevad ну как бы я в то время тоже играл в графику и FPS:)) Возможно, если сравнивать нынешнию графику и ту, то возможно и будет глаз резать:)). Но в Морровинд я очень долго играл, до 2008 года, но уже на ноутбуке с Turion 64 MT30 (1.6GHz/1Mb) с Xpress 200M, потребляющую оперативку. Этот ноут уже Oblivion не тянул:)), игра запускалась, но если мучаться, то играть можно:)), хотя Oblivion c тем же Туалатином и 8500LE вполне бодро бегал, главное ini файл подредактировать, там шейдеры уже какие-то не поддерживались и игра по умолчанию шла без текстур:)).

    • @Moi_Gospodin1337
      @Moi_Gospodin1337 2 года назад

      @@mango_z на 128 уменя в районе Вивека локации грузились дольше чем я их пробегал)

  • @Cybernet.channel
    @Cybernet.channel 2 года назад +1

    не затягивай те а то что то давненько уже вас не было жду новый видос спасибо все интересно

  • @user-ie6on5mr3r
    @user-ie6on5mr3r 2 года назад +4

    Так то обоих процессоров недостаточно для этих карт. К ним подходит что-то вроде Athlon 2000+

    • @Freevad
      @Freevad  2 года назад

      Да, недостаточно, но с другой стороны и Athlon`у 2000 желательно в комплект не GF3, ATI Radeon 9800XT или GF6800. В общем "нет жизне щастя")))

    • @AnD_RoM
      @AnD_RoM 2 года назад +1

      @@Freevad думаю атлону за глаза и 9600pro будет.

    • @Freevad
      @Freevad  2 года назад

      @@AnD_RoM нет, маловато будет, AMD Athlon 2000+ - неплохой процессор, в играх на уровне Pentium IV 2100-2200 MHz. Избыточной для него будет топовая линейка седьмой серии nVIDIA. Но, к примеру, Half-Life 2 и Doom III (исходные версии) он тянет на 5-ку. В свое время, как раз прошел обе игры на AMD Athlon 1700+ (1,46 ГГц) и ATI Radeon 9600 Pro. В Half-Life 2 проблем не было вообще (по воспоминаниям), настройки были средне-высокие, в Doom III пришлось отключить тени, плюс были у меня тогда старые драйверы (не поддерживающие Doom III), игра зависала через каждые 2-3 минуты, поэтому приходилось очень часто сохраняться. Но таки прошел, хотя и с проседаниями FPS иногда до 24+ кадров (субъективно), включая финального босса.

    • @user-cb7wt8vm9l
      @user-cb7wt8vm9l 2 года назад

      @@Freevad Жирновато такие ставить, уровень карт 9800 может быть оправдан для очень высоких разрешений 1600х1200 и/или сглаживания. Более мощная 6800 так вообще за гранью...моего понимания)

    • @Freevad
      @Freevad  2 года назад

      @@user-cb7wt8vm9l Семитысячная версия видеокарт nVIDIA аккурат вышла к первым двухъядерникам, а до этого были Pentium IV 3200, Athlon XP 3200+ и первые Athlon 64 (3000-3200+) и на них и тестировали шеститысячную серию. Безусловно, Athlon 64 3200+ в играх быстрее, чем AMD Athlon 2000+, но не в 2 раза. Да, этот процессор не выжмет из 6800 все FPS, но и простаивать она, как с чем-то уровня Pentium III 1000 не будет. И Far Cry будет хорошо идти, и Doom III, и Half-Life 2 и прочие игры того времени (Unreal II, например) с приемлемым (для того времени) FPS в 50-70+ кадров в секунду, с падением до 25-30 в отдельных сценах. А то, что для ATI Radeon 9800 лучше поставить Athlon 3000+ тоже спорить не стану, оно ей, однозначно, не помешает))).

  • @Techno_Dasha
    @Techno_Dasha Год назад +1

    не хватает именно тех процессоров у которых кеш внешний который работает сильно медленнее частоты процессора(по факту на частоте шины) Р3 ЕБ и амд тхнундерберд уже кэш L2 на проце)

    • @Freevad
      @Freevad  Год назад

      Спасибо за комментарий! Что есть, то есть.

  • @nosignaldnb
    @nosignaldnb Год назад

    капец кананальчик..автор ты золодце...смотрю вечером тебя вместо киношек..просто красавчик

    • @Freevad
      @Freevad  Год назад

      Спасибо за комментарий! Приятно!

  • @DLarkov
    @DLarkov Год назад +1

    Поздние китайские 4mx400 очень хорошо гнались через RivaTuner. Лично помню забивал в настройки частоты 5200 и все работало. Интересно было бы посмотреть, каков фактический ее прирост при разгоне и ЧТО она догоняет... Но похоже, этого рода контент придется "пилить" самому

    • @Freevad
      @Freevad  Год назад +2

      Спасибо за комментарий! Для такого контента, как минимум, надо найти позднюю китайскую 4mx 400 (модель для меня неизвестна, поскольку были GeForce 4 MX 420, 440, 460 и была ещё MX 4000). А вообще на русских оверах статьи про разгон GeForce 4 MX присутствуют, результаты, если вкратце - круче любой GeForce 2, но отсутствие поддержки шейдерных технологий ставит на них крест, поскольку, к примеру, Silent Hill на них не запускается. В играх без шейдеров - мощь.

  • @kirillaristov7235
    @kirillaristov7235 7 месяцев назад +1

    МХ440… как же я негодовал когда узнал что это чутка подкачанный GeForce 2 который даже directx 8 не мог…

    • @Freevad
      @Freevad  7 месяцев назад

      Тем не менее он был заметно быстрее любой GeForce 2 и какие-никакие, но шейдеры поддерживал. В любом случае, конда шейдеры стали актуальны, ни 3-я, ни 4-я линейка видеокарт их не тянули. По факту выровнялось все только к 6-й линейке. Семейство GeForce FX тоже было ущербным, поскольку очень медленно работало с DX9.

  • @BANNEDandRRoD
    @BANNEDandRRoD 2 года назад

    второй раз пересмотрел и зацепила концовка.
    очень интересно было бы видео именно по чистому досу. осорбенно какие проблемы в каких играх и на каких видеокартах возможны и наглядно бы это все показать.

  • @Moi_Gospodin1337
    @Moi_Gospodin1337 2 года назад +2

    Впервые поиграл в Quake 2 тоже на Pentium II 333мгц, правда видяха была из разряда затычек 1997 года, поэтому игры работали нормально только в софтверном рендерринге, Ку2 ещë и фризила иногда, видимо когда в 64мб ОЗУ прогружались эффекты, звуки или части уровней.

    • @Freevad
      @Freevad  2 года назад +1

      Скорее всего еще и звуковая была под ISA, у этих звуковых есть такой "прикол" в играх на движках id software, включая Half-Life. Возникает при подгрузке текстур (уровня). По факту не хватает ресурсов CPU, памяти может быть и 128 и 256 и 512 Mb, лечится установкой примерно 500 МГц процессора или заменой на PCI звуковую, причем драйверы нужны VXD.

    • @Moi_Gospodin1337
      @Moi_Gospodin1337 2 года назад +1

      @@Freevad вроде так и было, звуковуха была на ISA. Это был комп тëти и я открывал его всего раз, когда хотел поставить ей плату с доп портами USB (на материнке было всего 1 или 2 штуки) но Формоза обломала все мои планы, как я узнал уже намного позже они прошивкой биоса ограничивали самостоятельный апгрейд, ещë был вариант что блока питания хватало впритык чтобы стартануть ПК без плат расширения. Вобщем моë эникейство малолетнего школьника ей тогда не помогло и к юсб портам так и остался подключëн принтер, а от второго я провëл кабель удлинитель на стол для появившихся к середине 2000х флешек, а мышь так и оставались с переходником din-ps/2. Формоза к тому моменту сдулась, да и гарантия на ПК закончилась...

    • @Freevad
      @Freevad  2 года назад

      @@Moi_Gospodin1337 Зачетные у них корпуса были))).

    • @mango_z
      @mango_z 2 года назад +2

      Первую игру, которую я запустил на свое первом PC (до это были ZX-Spectrum), был как раз Quake 2, это был 1999 год, комп PIII-500/512kb Katmai и видеокарта S3 Trio 3D/2X 4mb, брал как затычку для дальнейшего апгрейда - друг прожужжал все уши с Voodoo II, поэтому нацелен был на Супер Монстер из двух Voodoo II (очень дорогое удовольствие на то время), но уже в том время эта конструкция себя изжила, были уже Voodoo 3 и TnT2. На S3 Trio 3D/2X тоже играл в софтверном режиме, на другом даже не запускалось:)) Играла вообще круто, да и думал, что по факту такая графика и должна быть:))все в цветных квадратиках, до этого даже и не играл вообще на PC, только на Amiga и ZX-Spectrum (приставки не считаю:)) Но потом решил сделать апгрейд, как раз вышла GF256, нацелен был на неё, но когда пошел в магазы, оказалось, что карта в прайсе есть, но это под заказ, а мне уже ехать надо было. Все магазы в нашем Мухосранске обежал, везде под заказ, но была одна в Ретаил упаковке:)) Это щас почти все Ретаил, школоте это не понять, а тогда это жуткий оверпрайс за коробку и пару игр без перевода:)), короче лишних 20% от цены не хотел тратить (бедный студент), в итоге решил брать Voodoo 3, уже пошел на кассу, но гарантия 2 недели (на ОЕМ почти всегда так давали, только в составе компа 1-2 года), ё-маё, отказался, побежал в другой магаз, Matrox G400 - пошёл на склад и гарантия тоже 2 недели:)) Хахахаха, короче сижу, думаю, поезд через 6 часов:)) ТнТ2 брать ну очень не хотелось почему-то, Ati Xpert 2000 темный лес, почему то мало где продавали у нас и продавцы/консультанты почти ничего толкового сказать про неё не могли, в основном говорили про Вуду и ТНТ2, так же и Savage 4 как неплохой бюджетный вариант. В итоге взял Savage 2000, вот тут я и увидел Quake 2 во всей красе:)) Ещё и Q3A демку с диска вообще улёт, а Сериус Сем вообще красота:)) С другом как-то тестировали и сравнивали с GF256SDR, в Q3 в 16 битном Savage 2000 сильно проигрывал, но плюс был в том, что 16 битный цвет с трудом можно было отличить от 32битного (только на темном фоне), тогда как на GF256 это бросалось в глаза, но вот в 32 битном цвете, уже Savage 2000 ненамного, но все равно опережал GF256, но это все Q3A, все же GF256SDR был лучше, разве что в UT и Q3A в 32битном цвете Savage 2000 лидировал. Если в 32битном цвете Savage2000 не сильно отставал от GF256SDR, то в 16ти отставание доходило до двух раз, но все же 16 битный цвет был в разы лучше, чем у GF256SDR. А потом игроделы забили на все карты, кроме Ati и nVidia, и играть приходилось с помощью твикалок, все ругали драйвера Savage 2000, но они были вполне стабильные, но для игр нужны были уже твикалки, включающие/отключающие те или иные фичи.

    • @Moi_Gospodin1337
      @Moi_Gospodin1337 2 года назад

      @@Freevad это да! У меня есть парочка и парочка эмблем отдельно))

  • @maxmadseeyouglad47
    @maxmadseeyouglad47 10 месяцев назад +1

    Была ещё не такая частовстречающаяся как МХ 440 - МХ 460 - она была бы более достойным противником Тройке.

    • @Freevad
      @Freevad  10 месяцев назад

      Спасибо за комментарий! Наверное - да, хотя разница между MX440 и MX460 не принципиальная по производительности.

  • @user-gj2mc9nk5k
    @user-gj2mc9nk5k Год назад +2

    по частотам geforce 4 mx 440 почти наравне с geforce 3 ti 200, по поддерживаемым технологиями geforce 3 лучше geforce 4 mx 440

    • @Freevad
      @Freevad  Год назад

      Да, в GeForce 3 полная поддержка DX8, а GeForce 4MX по факту поддерживает только DX7.

  • @user-nn5tk3ic4p
    @user-nn5tk3ic4p Год назад +1

    Да, мечтал о Ти200.. самый бюджетный был вариант, дешевле обычной и Ти500. И мечтал я для игры - нет, не Морровинт, а какой-то из Сайлент Хиллов, скорее всего 4 (какой-то точно просил ДХ8 на момент релиза).
    МХ440 же невзлюбил на момент выхода тем, что НВидия как бы урезала функциональную возможность устройства: несмотря на то, что МХ440 вышел позже ГФ3 - что, как бы, следует из названия - вероятность получить сообщение о неподдерживаемости железом приложения была довольно-таки высока. Поскольку если в эпоху ГФ3 таких приложений было, может быть, и не очень много, но вот когда вышла 4-я серия - и, соответственно, МХ от 4-й серии - то уже вполне себе достаточно.
    А тестирование отличное - практически линейная масштабируемость получилась 👍

    • @Freevad
      @Freevad  Год назад +1

      Спасибо за комментарий!

  • @BANNEDandRRoD
    @BANNEDandRRoD 2 года назад

    классный ролик! спасибо

  • @user-wm2ht2ot4r
    @user-wm2ht2ot4r 2 года назад +1

    За музыку Итана Микселла респект

  • @user-cb7wt8vm9l
    @user-cb7wt8vm9l 2 года назад +1

    MX 440 -8x отличается от оригинальной видеокарты также увеличившимися тактовыми частотами.
    Слишком слабый проц, вкупе с устаревшими на тот момент времени(01/02+год)играми, приводит к неверному выводу о равноценности карт.
    Про Serious Sam: The First Encounter не скажу- не прогонял лично, в Second Encounter разница заметная. Кажется, я уже писал ранее, в данных играх есть встроенный тест измерения фпс, записывающий к тому же логи минимального/среднего/макс значения, не отнимающий и без того дефицитные ресурсы системы. Призываю отказываться от фрапса там где это возможно.
    Повторный запуск анрила вернет отражения
    Для информации: Pentium 3 1000 с GeForce3 на intel i815 в 01 марке выбивает 5000 баллов
    PS проц п3 1000 -классный, дорого обошелся?

  • @user-gj2mc9nk5k
    @user-gj2mc9nk5k Год назад +1

    pentium 2 233 мгц на pentium 3 1000(750) не шило на мыло?

    • @Freevad
      @Freevad  Год назад

      Смотря как на это смотреть, все относительно, в производительности разница больше чем в два раза, но да, есть и более быстрые ЦП.

  • @user-lg4iz4hk4k
    @user-lg4iz4hk4k Год назад +1

    Все таки P3-750 слабоват для Ti200 и mx440. Во времена актуальности этих карточек народ сидел на народных Athlon XP, которые были вдвое-втрое производительнее. Помню на Ti200+AMD 1700+ отлично шел NFS Underground и поддержка шейдеров была очень к месту.

    • @Freevad
      @Freevad  Год назад +1

      Так и есть, хотя для Athlon XP все же уже лучше уже установить GeForce 4ti\Radeon 9600-9800 Pro.

    • @maxmadseeyouglad47
      @maxmadseeyouglad47 10 месяцев назад

      У меня Андеграунд вполне тогда бодро шëл на Атлон ХР 2000+ 512 RAM и Radeon 9250 128 mb, НО карта была низкопрофильная, то есть 64 битный обрубок, который был ещё слабее МХ 440.
      Сама игра правда при выставлении выше средних настроек начинала резко терять кадры и становиться малоиграбельной.

  • @user-gj2mc9nk5k
    @user-gj2mc9nk5k Год назад +1

    я ,вообще, не понимаю смысла тестировать видеокарты с упором в процессор

    • @Freevad
      @Freevad  Год назад +1

      В данном случае тестировались не видеокарты, как таковые, а вариант сборки ретро-ПК. На ретро ПК быстрый процессор не всегда благо.

  • @docent27ua
    @docent27ua Год назад +1

    GeForce 3 ti 200 так и осталась моей несбывшейся мечтой.

    • @Freevad
      @Freevad  Год назад

      Купите сейчас, хотя на сегодня ti4200 смотрится интересней.

    • @Kozlomordii
      @Kozlomordii Год назад +1

      В те времена я черпал информацию с журнала "железо" выкатили там красавицу джифорсину 3 ti 500 и я перестал спать ночами. Таки мечта быстро сбылась, на смену риве тнт 2 с селероном 466 это была бомба! Даже очки виртуальные были для стерео картинок. Но вышла джифорсина 4.... хорошие времена были

    • @Freevad
      @Freevad  Год назад +1

      @@Kozlomordii в те времена прогресс был реально заметен, разница между поколениями видеокарт впечатляла, сейчас, по большому счету (если не говорить о технологии RT, которая давным давно в киноиндустрии используется, а в современных играх пока еще фактически делает первые шаги) растет только максимально поддерживаемое разрешение "картинки", от FullHD к 4k, последние же новости и про разрешение в 8k говорят. Для меня лично, на сегодня, даже 4k избыточным кажется из-за физических размеров мониторов, хотя привыкаешь, конечно, ко всему, но себе ближайшие годы приобретать монитор 4k не планирую, если и решусь сменить уже "немолодой" 24" 1920х1200, то возьму 27" 2560x1440. И то, по большому счету по причине того, что современные OS под такое разрешение по умолчанию настраиваются - калькулятор на половину экрана в 1920х1080 смотрится с одной стороны потешно, с другой - неряшливо.

  • @infinityretro6910
    @infinityretro6910 2 года назад +1

    почему нельзя разделить экран на три и на каждом выводить изображение с процом и картой а не повторятся?

    • @Freevad
      @Freevad  2 года назад +1

      Такой вариант сравнения подходит для встроенных тестов, а я использовал, в основном, FRAPS. Кроме того, три одновременно идущие картинки смотреть не удобно, лучше когда их две. Тем не менее, можно было сделать и так, подрезав и синхронизировав видео, но в этот раз я решил повториться три раза. Как один из вариантов подачи материала.

  • @kombinator87
    @kombinator87 2 года назад

    тестить старое железо можно очень долго) Вот бы увидеть тест атлона 3200+ на нфорсе2, на виа кт400 и на сис.

    • @Freevad
      @Freevad  2 года назад +1

      Нет на руках такого железа, кроме того KT-400 нативно процессорную шину 200 МГц не поддерживает (память такую держит в асинхроне), это надо уже KT-600 искать. С точки зрения современной ретросборки - VIA предпочтительнее, она хотя и медленнее двухканальных nForce, но стабильнее и меньше греется, а с SiS (по личному опыту, была K7S5A) меньше всего проблем в плане совместимости с другим железом, хотя SiS обычно еще медленнее VIA.

    • @kombinator87
      @kombinator87 2 года назад +2

      @@Freevad глючность нфорса зависит от производителя. Например моя эпокс 8rda очень не любит видюхи серии ати 9600. Хотя на другой матери на нфорсе2 они работают без проблем

    • @Freevad
      @Freevad  2 года назад +1

      @@kombinator87 Возможно, по себе (в свое время)- материнская плата от Asus на nForce для socket A слетел BIOS, от epox под 754 - просто сдохла.

  • @Vekkill
    @Vekkill Год назад +1

    Попугай наверное `попугаев` в играх считал :)
    Тот что на заднем фоне

    • @Freevad
      @Freevad  Год назад +1

      Спасибо за комментарий! Не исключено)))

  • @FalconakaSkyranger
    @FalconakaSkyranger Год назад

    Интересно стало насколько тождественна производительность GF3 и графического чипа X-box

    • @Freevad
      @Freevad  Год назад +1

      Доброго дня! Не было возможности отвечать в yotube. Чип Xbox с одной стороны более продвинутый, насколько помню, с другой он рассчитан на использование с телевизорами того времени (стандартный NTSC телевизионный сигнал содержит 525 строк (видимый растр 486 строк). Стандартный PAL телевизионный сигнал содержит 625 строк (видимый растр 575 строк). В целом, думаю, его производительность что-то между GF3 ti 500 и GF4 ti 4200.

    • @FalconakaSkyranger
      @FalconakaSkyranger Год назад

      @@Freevad Спасибо за ответ. А за счёт чего он производительнее? Архитектурные изменения или частоты повыше?

    • @Freevad
      @Freevad  Год назад

      @@FalconakaSkyranger Если он - это Pentium IV - то тактовые частоты и оптимизация (компилятор от Intel в те годы стандартом был (применялся по умолчанию разработчиками) и учитывал особенности NetBurst`а).

    • @FalconakaSkyranger
      @FalconakaSkyranger Год назад +1

      @@Freevad я немного запутался. Графический чип учитывал особенности NetBurst? Я имел ввиду чип X-box, а там, насколько я помню, был третепень))

    • @Freevad
      @Freevad  Год назад +1

      @@FalconakaSkyranger это я запутался, так как отвечал подряд на несколько сообщений))) Графический чип nVIDIA разрабатывала с учетом пожеланий Microsoft (и, видимо, вредничала, раз сейчас фактически все консоли на базе AMD), чип работал на тактовой частоте 250 МГц (GF3ti 500 - 240 МГц), архитектура чипа дорабатывалась с учетом имеющихся наработок поколения GF4ti. Что там конкретно - сказать не могу, но Microsoft анонсировала следующие характеристики:
      - Производительность графической системы: 125 миллионов нетекстурированных полигонов в секунду.
      - Sustained Polygon Performance: 100+ M/s (transformed and lit polygons per second).
      - Micropolygons/particles per second: 125 M/s.
      - Particle Performance: 125 M/s.
      - Одновременных текстур: 4.
      - Пиксельный Fill Rate - без текстур: 4 миллиарда/сек (с Anti-aliasing).
      - Пиксельный Fill Rate - с 1 текстурой: 4 миллиарда/сек (с Anti-aliasing).

  • @Moi_Gospodin1337
    @Moi_Gospodin1337 2 года назад +5

    Блин, попугая надо перемещать в другое помещение на время съёмок...

    • @user-oi2nq5ps6k
      @user-oi2nq5ps6k 2 года назад +3

      попугай как раз в тему,ведь речь идет о производительности видюхи.))

    • @Freevad
      @Freevad  2 года назад

      Совершенно верно, а кошку в третье, от которой попугая ко мне и переселили)))

    • @Moi_Gospodin1337
      @Moi_Gospodin1337 2 года назад +1

      @@user-oi2nq5ps6k пхах, +1 попугай к производительности видюхи))

    • @mango_z
      @mango_z 2 года назад +8

      @@Freevad попугая убрать, а кошку в кадр. Ведь давно известно, что кошка в кадре это +100500 к просмотрам и развитию канала:))

  • @Arkan1986
    @Arkan1986 2 года назад +4

    Я очень люблю и ценю твой контент, спасибо тебе за твои труды! НО. Это видео невозможно смотреть из-за запредельно громкого чириканья твоих попугаев.

    • @Freevad
      @Freevad  2 года назад +1

      Учту, ответил выше. По ходу придется разориться на кардиоидный микрофон, это будет проще.

    • @paulzibert9985
      @paulzibert9985 2 года назад +1

      @@Freevad а мне наоборот понравились попугаи. Ностальгия. В детстве был у меня, также чирикал.

    • @Freevad
      @Freevad  2 года назад

      @@paulzibert9985 Спасибо за комментарий! Здесь, думаю, зависит от того, на чем смотришь видео. На смартфоне они мешают, а на ПК в наушниках - просто, как дополнительный фон.

  • @user-oi2nq5ps6k
    @user-oi2nq5ps6k 2 года назад +1

    фигасе на слоте радиатор))

    • @Freevad
      @Freevad  2 года назад

      Это со слотового AMD Athlon к которому нет живой материнской платы.)))

    • @user-oi2nq5ps6k
      @user-oi2nq5ps6k 2 года назад

      @@Freevad понятно)никогда такой не видел)

  • @abelyarlindsey8386
    @abelyarlindsey8386 Год назад +2

    кроме попугая ничего не слышно. ужасный звук

    • @Freevad
      @Freevad  Год назад

      Согласен, в наушниках лучше слушать.

    • @user-ir2sy9ut1e
      @user-ir2sy9ut1e 6 месяцев назад

      agree

  • @alexman6280
    @alexman6280 2 года назад +3

    Кеша пернатый на мозги давит, накрывай пледом его, когда видео записываешь)

  • @YM2149F
    @YM2149F 2 года назад

    А что за проблемы GeForce FX в MS-DOS?

    • @Freevad
      @Freevad  2 года назад +1

      Есть целая табличка с проблемами, ссылка будет ниже. В целом, смотря какая FX, если FX-5200 (еще и производитель важен), то у нее те же проблемы, что и у MX 440, но начиная с 5-й серии nVIDIA, как впрочем и ATI с 9000-й серии, перестала заморачиваться с поддержкой VBE version 3 (in video BIOS). Будут ли "глюки" в интересующих именно Вас играх или нет - вопрос, но предупредить я должен.
      gona.mactar.hu/DOS_TESTS/

    • @YM2149F
      @YM2149F 2 года назад

      @@Freevad FX5600XT в MS-DOS как апскейлер DVI работает, одна 1280х1024 в захват выдает, а другая 1920х1080.

    • @Freevad
      @Freevad  2 года назад

      @@YM2149F У меня FX5600 нет и не было, сказать о ней ничего не могу. Но в целом, при наличии DVI, проще с подключением к относительно современным ЖК мониторам. Хотя, для игр того времени лучше всего подходит качественный ЭЛТ монитор, который, увы, занимает много места.

  • @strekalofficial2519
    @strekalofficial2519 10 месяцев назад +1

    Проц невывозит

    • @Freevad
      @Freevad  10 месяцев назад +1

      Спасибо за комментарий! Естественно не вывозит, для нее вдвое производительней, чем Pentium III 750 MHz желательно.

  • @voxxxytoyota6848
    @voxxxytoyota6848 2 года назад +2

    Попугай задолбал чирикать. Выключай его

  • @exl13
    @exl13 2 года назад +1

    у меня вопрос к владельцам попугаев. каким образом вы все еще не свернули им шею?

    • @Freevad
      @Freevad  2 года назад +1

      Даже в каменных джунглях надо быть ближе к природе)))

    • @exl13
      @exl13 2 года назад

      @@Freevad жуть как они громко и пронзительно чирикают) я чувствую моя кошка мяукающая три раза в 6 утра не самое большое неудобство))

    • @Freevad
      @Freevad  2 года назад +2

      @@exl13 Лично мне птичий щебет обычно совершенно не мешает спать, как и пролетающие сверху самолеты (жил в детстве несколько лет недалеко от аэропорта, лающие собаки и прочее). Главное - спать хотеть. А кошки - те, если поесть хотят, целенаправленно будят - лапами, когтями, прыжками сверху или иным способом. Так что кошки более неудобны для утреннего сна))).

    • @user-ie6on5mr3r
      @user-ie6on5mr3r 2 года назад

      @@exl13 Все летающие птицы очень громкие. Это потому что им необходимо общаться на больших расстояниях в лесу. Прежде чем заводить нужно это учитывать.

    • @exl13
      @exl13 2 года назад

      @@user-ie6on5mr3r согласен, у друзей тоже раньше был попугай, это ппц) пока его не занавесишь мог кричать так что пломбы из зубов выскакивают) все же не лучший выбор для домашних животных, или для людей с очень спокойными нервами. Я кошек и муравьев предпочитаю, и те и те тихие)