Мечта мозгача - переходник с VGA на USB. Не только существует, но и работает!

Поделиться
HTML-код
  • Опубликовано: 6 янв 2022
  • В этом видео мы познакомимся с мечтой многих пользователей - перходником с VGA на USB. Протестируем его и немного познакомимся с различными видеопереходниками для ПК
  • НаукаНаука

Комментарии • 63

  • @rostyslavlakhtadyr8635
    @rostyslavlakhtadyr8635 Год назад

    Больше интересовало можно ли в USB 3.0 Type-A подключить монитор чтобы работало. А то уже 2 монитора заняли HDMI и Type-C 3.0 (через HDMI перходник). Хочу 3й монитор еще, но не покупая хаб. Похоже ответ найден. Пошел искать нужный переходник.

  • @user-qj7qc7sz3j
    @user-qj7qc7sz3j Год назад

    Здравствуйте. Как с вами связаться? Под видео не вижу ссылок и контактов. Где можно приобрести именно такой экземпляр переходника который вы проверяете на видео? На озоне посмотрел отзывы на похожие переходники, говорят что изображение размыто, появляются артефакты, 30гц вместо 60 итд, вообщем не юзабельно. Мне необходимо к ноутбуку подключить второй монитор 1920х1080, чтобы работал при 60гц и изображение было качественное. Один моник уже занял порт HDMI, остается только вариант с USB 3.0. Хотелось бы с вами связаться

    • @UCService
      @UCService  Год назад

      Здравствуйте. 89213179161 звоните или пишите в мессенджеры.

  • @romza3774
    @romza3774 2 года назад +3

    Возможно Вы подскажете, как подключить дополнительный монитор с помощью адаптера USB3.1(TypeC)-VGA!? К ноуту Асеr Aspire E 15 на Windows 10... Я в спешке его заказал на Али, не разобравшись в его избирательной совместимости...

    • @UCService
      @UCService  2 года назад

      К сожалению не подскажу, не сталкивался.

  • @romazarik5094
    @romazarik5094 2 года назад +6

    Спасибо за видео!!! Вселило надежду! Мне пришёл такой адаптер вчера...но сидирома нет...5 часов сёрфил по интернету - драйвера не нашёл...зато Вас нашёл!!! ))) Выложите драйвер для Вин10 на гугл-диск, пожалуйста!!! Очень жду - нетерпится подключить!!!!!)))))

    • @UCService
      @UCService  2 года назад +2

      Здравствуйте. Диск с переходником на работе, я только в среду буду там. Выложу обязательно.

    • @user-od2oo1nr1y
      @user-od2oo1nr1y 2 года назад

      @@UCService Я тоже очень жду!

    • @UCService
      @UCService  2 года назад

      @@user-od2oo1nr1y Блин парни совсем забыл. :(( В ПН обязательно выложу

    • @UCService
      @UCService  2 года назад +2

      @@user-od2oo1nr1y cloud.mail.ru/public/1JtU/CPwwJQoXk

    • @UCService
      @UCService  2 года назад +2

      cloud.mail.ru/public/1JtU/CPwwJQoXk

  • @user-iu7ft6ow9v
    @user-iu7ft6ow9v Год назад

    Скажите как будет если смотреть фильмы с ноутбука на ютубе

  • @_vomorama_
    @_vomorama_ Год назад

    Все работает, благодарю)

  • @AtlantisRouTou
    @AtlantisRouTou 2 года назад +1

    Так получается, видяха вообще не участвует? Это получается что-то типа распаянного видеовыхода на материнке?

    • @UCService
      @UCService  2 года назад

      Не, видяха участвует, переходник этот как дополнительный видеовыход, но изображение формирует видеокарта.

  • @GrachGromov
    @GrachGromov 6 месяцев назад

    А есть такой же но на 3 монитора?)😅

  • @romazarik5094
    @romazarik5094 2 года назад +1

    Cтранно...написал ещё один вопрос...правда в нем была ссылка...сейчас его не вижу... Вы его получили? Или писать заново, но без ссылки?

    • @UCService
      @UCService  2 года назад +1

      Не, не получил.

    • @romazarik5094
      @romazarik5094 2 года назад

      @@UCService скорее всего у Вас настроена автоматическая блокировка сообщений, содержащих ссылки?

  • @Futuristic88rus
    @Futuristic88rus 4 месяца назад

    А так, это очень круто, мечта любого мастера, чтоб не подкидывать видюху. Или всё же не замена?

    • @UCService
      @UCService  4 месяца назад

      Не, без видеокарты не обойтись все равно

    • @Futuristic88rus
      @Futuristic88rus 4 месяца назад +1

      @@UCService блин, тогда он не для моих целей 😊 я думал при его помощи легко будет определить проблема в видюхе или нет, не подкидывая пост карту или зумер

    • @UCService
      @UCService  4 месяца назад

      @@Futuristic88rus не, увы так не получится

  • @user-uk3ue2ls4e
    @user-uk3ue2ls4e 3 месяца назад

    Будьте добры выложите ссылочку, где куплен этот преобразователь.

    • @UCService
      @UCService  3 месяца назад

      Здравствуйте. К сожалению, ссылка не сохранилась

  • @ReSpect-me9tb
    @ReSpect-me9tb 2 месяца назад

    Если бы знал команду Win+p, лишней суеты со вторым монитором можно было бы избежать.

  • @alex_XR
    @alex_XR Год назад +1

    Скажите мне пожалуйста а если я подключу к телефон по otg к монитору будет работать скажите мне пожалуйста я хочу изображение с телефона вывести на монитор

    • @UCService
      @UCService  Год назад +1

      Здравствуйте. Очень сильно сомневаюсь. В вс буду на работе, постараюсь не забыть попробовать

    • @user-nq3oq6ke1y
      @user-nq3oq6ke1y Год назад

      @@UCService Для этого наверное нужно будет драйвера портировать под Андрюху, а так, почему бы и нет...

  • @kronidze
    @kronidze Год назад

    А у вас процессор видео поддерживает? Просто у меня нет, а на видюхе нету USB

    • @UCService
      @UCService  Год назад

      Не, данный переходник не заменит видеокарту. Он только может выступать, как дополнительный видеовыход не более того

    • @kronidze
      @kronidze Год назад

      @@UCService спасидо

  • @naxyiononado
    @naxyiononado 2 месяца назад

    Вот я сейчас пытаюсь найти в кладовке vga dvi конвертр. Месяц назад он где-то был. А нашел запакованый USB vga конвертр. Батя с работы принес. И я офигел. Что такое может быть. Я даже пробовать не буду. rx 590. Я просто офигел что такое есть. Когда я его откапал я сказал - чтоооо блллл. Так можно было.
    Называется defender usr 130 адаптер переходник USB 2.0

  • @horlonangel
    @horlonangel 2 года назад +4

    Я думаю, что эмулируется полноценный видеоадаптер, естественно, послабее даже обычной современной "затычки" (просто для вывода изображения). Загрузку ПК можно настроить так, чтобы он грузился и без видеокарты (не во всех случаях - зависит от материнки), но изображение появляется только после загрузки драйверов, потому, наверное с таким адаптером можно просидеть ровно до первой ошибки. С ним даже в безопасном режиме ничего не будет видно, потому нормально использовать его можно только как вспомогательный.
    На мой личный взгляд, видеоадаптер должен использоваться только для вывода изображения (ровно как этот), а не как в современном мире, и для вычислений. Для вычислений должен использоваться только процессор. Многим не понять как так, но уверяю, это возможно уже не раз делал вычисление по проэктированию подобного ЭВМ - вполне возможно, но с другой архитектурой (да и с этой вполне, но смысл не большой).

    • @AE075G
      @AE075G 6 месяцев назад

      Ммм, вы понимаете разницу между CPU и GPU?) Наверное, все в мире дураки и ставят видеокарты в устройства, чисто по инерции, потому что все ставят...
      И да, процессор вполне способен взять на себя все вычисления: не раз видел такое, на российских системах и в экспериментах по эмуляции GPU чисто из интереса. Но ничего, кроме низчайшей производительности и отвратительной энергоэффективности, я не видел.
      Каждой задаче - свой инструмент.

    • @horlonangel
      @horlonangel 6 месяцев назад +1

      @@AE075G Вы не внимательно читали мой коммент. Я написал ровно то же самое о современной архитектуре, а в общем я имел ввиду совершенно другую архитектуру.
      И да, на счёт всех в мире. Большинство не способно мыслить. К примеру, Ваш комментарий, в котором Вы вообще не поняли о чём я и начали мне втирать то, что втёрли Вам, и нисколечки в этом не сомниваясь...

    • @AE075G
      @AE075G 6 месяцев назад

      @@horlonangel я внимательно читал и не нужно снижать значимость моего мнения и завышать свое.
      Переходить на другую архитектуру и перекорчевывать рынок ради вашего гениального решения: отдать все вычисления процессору -- вдвойне невыгодно и большинству не надо. Без этого момента с архитектурой, часть комментария про замену видеокарты - не имеет смысла.
      И бонусом, мне ничего не втирали, я и сам отлично разбираюсь, а в случае чего знаю, где уточнить. А вот вы занимаетесь изобретением колеса или продвижением чьего-то переизобретенного колеса (помню когда то давно ЭВМмам действительно графические юниты нафиг не нужны были ;)...). В крайнем случае, я допускаю применение совмещённых вычислений в общих задачах на краях диапазона производительности:
      1. Контроллеры автоматизации с графическими панелями низкого разрешения
      2. Любые мощные процессоры (но лучше многоядерные и с быстрой памятью), прикидывающиеся и CPU и GPU.
      В остальных случаях - это не популярные исключения в виде экспериментов юзеров, систем с CPU на собственной архитектуре с не доработанной до работы с GPU архитектурой или других специальных вычислителей с повышенной эффективностью к конкретной задаче.
      Просвятите меня, пожалуйста, где сами используете ваш CPU на другой архитектуре без дискретного и встроенного графического процессора? Быть может, это поможет мне вас лучше понять.

    • @horlonangel
      @horlonangel 6 месяцев назад +1

      @@AE075G Вы своим предыдущим комментарием подтвердили свою не внимательность. Нет смысла?Современная архитектура изжила себя, остаётся только распараллеливать вычисления, а она изначально не проектировалась под такие цели. На счёт новой архитектуры. К примеру, современный процессор i7 13700K имеет 11328 млн. транзисторов, i80386 имел всего 250000 транзисторов. Тоесть это в новом процессоре поместится 45312 старых i80386. А теперь представьте, что это процессор с 45312 ядрами. На мой взгляд, i80386 уже избыточен, можно и что-то значительно проще использовать с архитектурой RISC. И представьте, что архитектура ЭВМ имеет возможность практически бесконечно наращивать количество таких вычислительных блоков.
      И самое главное: стандартизация инструкций. В математике есть всего несколько основных: суммирование, отнимание, умножение, деление, сравнение. И что бы кто не придумывал, но новые операции будут состоять из этих простых. Так же и в процессоре не должно быть лишнего ничего.

    • @AE075G
      @AE075G 6 месяцев назад

      @@horlonangel хватит пытаться меня упрякнуть в чем то. Так у меня появляется только больше желания с вами не согласиться. Разрешите, что бы не тратить свое и ваше время поинтересоваться о вашем образовании и компетенция.
      Что касаемо вашего последнего комментария. Что то мы ушли от темы необходимости или отсутствия таковой для наличия видеоускорителя. А в остальном, может, современная архитектура и изжила себя, но корпорации и дальше будут улучшать её, пока она не станет им не выгодной. "Нет смысла", не потому что нет перспектив, а потому что не оправдано. Экспериментов с архитектурой, удалением "лишних" инструкций и создание новых лишних инструкций для впихивания графики в математический вычислитель, я могу ожидать только от Байкала, Эльбруса или от китайцев.
      Массовый процессор должен быть универсальным и совместим в широком смысле, поэтому в нем неизбежно будут лишние, для кого, то блоки. И к слову о вашем сравнении процессора 2022г с процессором из 1985г. Что это за бред? То есть по вашему, адекватно на равных сравнивать авиалайнер на 300 человек и 150 двухместных учебных самолётов?
      Я надеюсь, вы понимаете, что отношение характиристик процессора не имеет линейной зависимости от количества транзисторов и понимаете насколько современный процессор громадней этого 32 битного старичка?
      1) 32 и 64bit, от одного этого уже можно возводить в степень количество транзисторов (как минимум транзисторов ядра);
      2) Количество инструкций в 80386 - 150, в i7 - минимум 920.
      3) Обилие доп периферийных блоков в i7, в т.ч.: сопроцессоры, блоки декодирования, контроллер новой ОЗУ нескольких поколений, контроллер новой ПЗУ нескольких типов и поколений, контроллер очень разнообразных внешних шин и протоколов для не менее разнообразных разъёмов и устройств, контроллер внутренней межъядерной связи и сама шина межъядерной связи, контроллер ядер и потоков, питания и туева хуча других контроллеров, я вообще не лекцию веду)))
      4) В 24 раз больше ядер у i7. При этом всем, они ещё и разного типа, их нужно запихнуть в какую то структуру поддерживающую наращивание, управление и объединение с другими ядрами;
      5) На минуточку, встроенный графический ускоритель и несколько типов кеш памяти
      И после этого вы ещё сможете сказать что какой то там 80386 избыточен? Избыточен для чего, лол?) Для ЧПУ станка с сенсорным дисплеем?)
      Я полностью согласен на счёт элементарных операций в случае с микроконтроллерами. Но в компьютерах, их усложнение до современных инструкций делается для того, что бы файлы программ и систем не весили под тонну, что бы каждый уровень ЭВМ, а так же его разработчик занимался тем, что умеет лучше. Зачем вообще тогда нам инструкции и ещё так много, если есть отличные элементарные операции? Зачем нам C++, PYTHON, давайте на ассемблере все будем кодить... Давайте будем для каждого нового процессора переизобретать архитектуру заново...
      Между тем, даже у перспективной и облегченной ARM на десктопах транзисторов не меньше. И тоже есть отдельный видеоускоритель.

  • @Futuristic88rus
    @Futuristic88rus 4 месяца назад

    Можно было win+P сменить либо только 2монитор, либо дублировать

  • @AE075G
    @AE075G 6 месяцев назад

    О, вот как можно к ноуту с оторванным экраном подключить второй монитор)

  • @dimanon1
    @dimanon1 Год назад

    а в bios можно зайти через него ?

    • @UCService
      @UCService  Год назад

      Не, только по операционкой

  • @psevdonimPIZDES
    @psevdonimPIZDES 10 месяцев назад

    Есть один важный вопрос , сможет ли эта хрень выводить изображение в следующей ситации: на диске наката винда с нужными дровами, встройки видео нет ни в проце ни в матери , видюха устанвлена майнерская без видео выходов типа p106-100, p104-100, cmp 50 и т.д.

    • @UCService
      @UCService  10 месяцев назад

      Не проверял, но думаю, что должно заработать.

    • @psevdonimPIZDES
      @psevdonimPIZDES 10 месяцев назад

      @@UCService теоретически да, только чтобы проверить надо купить видюху и переходник).

    • @UCService
      @UCService  10 месяцев назад

      @@psevdonimPIZDES :))) я даже не знаю стоит ли оно того, даже, если заработает

  • @Volo1960
    @Volo1960 Год назад

    Флешечку и дровину

  • @repairelectronics7657
    @repairelectronics7657 2 года назад +1

    А со смартфона показывает?

    • @UCService
      @UCService  2 года назад

      Не проверял, думаю вряд ли..

  • @MrMyVL
    @MrMyVL Год назад

    до 6 мониторов

  • @user-wr5pu5gi9q
    @user-wr5pu5gi9q 11 месяцев назад +1

    Буду краток. Asrock rack m.2 vga

    • @UCService
      @UCService  11 месяцев назад

      Месье знает толк в извращениях! ))) Спасибо за информацию очень интересный девайс. Пошел искать где купить.

  • @Vladimir_Kovalev
    @Vladimir_Kovalev 5 месяцев назад

    "Мечта мозгача - переходник с VGA на USB. Не только существует, но и работает!"
    А это ничего, что ты показываешь переходник обратного направления - из USB в VGA ????

  • @Ruslan.Demidov
    @Ruslan.Demidov 2 года назад

    Да, ну смысла в нём сейчас...ноль

    • @UCService
      @UCService  2 года назад +1

      Согласен вещь специфическая. Тоже с трудом могу найти ей применение :)) Разве что пари с кем-нибудь заключать :))))))))

    • @user-nt3jy1ti4p
      @user-nt3jy1ti4p 2 года назад

      Ну почему же товарищи, например кто работает в бухгалтерии и вдруг видяха отъехала, так вот такой переходник надо иметь всегда в запасе . Как подменный ремонт очень даже .

    • @romza3774
      @romza3774 2 года назад +3

      Я использую много мониторов к ноутбуку 👍

    • @user-iu7ft6ow9v
      @user-iu7ft6ow9v Год назад

      @@romza3774 Скажи пожалуйста как фильмы будут норм на ютубе если подключить до переходника ноут.

    • @denisgrubenko614
      @denisgrubenko614 Год назад +4

      Вот тебе практическая задача, есть ноутбук с одним видео выходом и три монитора, которые нужно к нему подключить. Рабочий стол должен расширяться на все мониторы.