Парсинг параметров товаров на примере Wildberries

Поделиться
HTML-код
  • Опубликовано: 19 окт 2024

Комментарии • 37

  • @БатураАндрей-х2ю
    @БатураАндрей-х2ю 2 года назад +2

    Женя СПАСИБО ОГРОМНОЕ, голову сломал над вопросом КАК), а тут такой подарок в твоем исполнении! Материал живой, а главное ПОЛЕЗДНЫЙ и ПРАКТИЧНЫЙ!

    • @usota
      @usota  2 года назад

      Спасибо за высокую оценку 😊

  • @Bondik202
    @Bondik202 2 года назад +2

    Мне вот такой контент очень нравиться, он без всяких лишних музыкальных вставок зато с живыми комментариями! контент для учебы.

  • @WrldsporteventsR.Y..V.1992
    @WrldsporteventsR.Y..V.1992 2 года назад +1

    22:59-23:02 когда пересидел за питоном, тем более в понедельник)))

  • @ДмитрийРотков-о7п
    @ДмитрийРотков-о7п Год назад +1

    Добрый день! Так же, как и вы спарсил h1, но у меня пусто. Там контент подгружается аяксом в контейнер с id=app. Как быть в таком случае?

    • @usota
      @usota  Год назад

      Добрый день, в описании есть ссылка на наш чат в телеграмме - буквально вчера обсуждали получение контента с WB

    • @usota
      @usota  Год назад

      Как раз обсуждали, как парсить то, что подгружается аяксом, то есть по API

  • @ДенисФилитов-з3з
    @ДенисФилитов-з3з 2 года назад +1

    Добрый день, большое спасибо Вам за видео! у меня возник такой вопрос, я хочу написать парсер, который будет принимать ключевые слова, делать из них search url и брать первый результат поиска с вайлдберис, а потом его парсить, как указано у вас. Мне нужно вытащить из search запроса первый url, но response приходит без ссылок вообще, такое ощущение, что там только скелет страницы без наполнения, похоже джаваскрипт не отработал(
    Может у вас есть какой-то совет на этот счет? как получить список урлов из поиска по запросу?

    • @usota
      @usota  2 года назад

      Спасибо 🙏 Вы всё верно рассуждаете и проблема скорее всего в ответе WB. Результаты поиска скорее в запросе post, а не get. Но надо проверять, пишу по памяти.

  • @АлексейСамаркин-ы2н
    @АлексейСамаркин-ы2н 2 года назад +1

    Эх думал я один таким способом парсю множество характеристик, а оказывается нет. ))))

  • @sergekryazhev7151
    @sergekryazhev7151 2 года назад

    мне тоже понравилось, спасибо

    • @usota
      @usota  2 года назад

      Спасибо)

  • @linargebeydullov9469
    @linargebeydullov9469 2 года назад

    Добрый день,. Конечно это все круто, мне понравилось. И я в этом ни чего не понимаю. Есть ли вариант и возможность воспользоваться этим готовым парсером , для тех кто в этом не разбирается но но на выходе нужна такая таблица, . Например я просто вставляю свои ссылки на товары и получается таблица 🤷‍♂🤔🤔🤔. Благодарю .

    • @usota
      @usota  2 года назад

      Добрый день, напишите мне, обсудим )

  • @artem_pogosian
    @artem_pogosian 2 года назад +1

    А готовое решение имеется в виде софта ? ) поблагодарю донатом

    • @usota
      @usota  2 года назад

      К сожалению, готового решения нет - пишу под каждый сайт отдельно. У всех сайтов же разная структура параметров. А какой сайт вас интересует?

  • @ДаниилТолмачев-ч5б
    @ДаниилТолмачев-ч5б 2 года назад +1

    Здравствуйте, что за программа и язык программирования?

  • @valdemar8505
    @valdemar8505 2 года назад

    здравствуйте. возможно ли создать парсер, который из корзины заказов wb будет брать название заказа, артикул, фото и количество товара? и все это выводить в гугл таблицы. и чтобы парсило автоматически несколько раз в день.

    • @usota
      @usota  2 года назад

      Здравствуйте, да - возможно. Для этого нужно залогиниться, скопировать в парсер куки и настроить автоматический запуск парсера. Сколько будут жить куки - посмотреть опытным путём.

  • @daybyday-f3e
    @daybyday-f3e Год назад +2

    не работает код, на первом шаге, когда хотим получить название страница и парсим (h1) получаю такую ошибку - AttributeError: 'NoneType' object has no attribute 'text', читал в интернете, пишут, что нужно делать проверку if, если там не содержиться text, то код должен игнорировать и идти дальше, а у вас нет в коде проверки и все работает. Посмотрел код сайта, действительно в h1 стоит название, но запускаю код и снова ошибка AttributeError: 'NoneType' object has no attribute 'text

    • @usota
      @usota  Год назад

      Сделайте print(html) - скорее в нём и нет h1, а что-то другое.

    • @daybyday-f3e
      @daybyday-f3e Год назад +1

      @@usota сделал принт, вышел код. В распечатанном коде нет h1. Но если смотреть код на сайте , то h1 есть и есть в нём название. Просто h1 спрятан в div class = 'product - page ' и так далее. Нужно просто код глубже раскрывать в ручную. А разве парсер сам не открывает код полностью? Или парсер смотрит только общую страницу html и не расскрывает код глубже?

    • @daybyday-f3e
      @daybyday-f3e Год назад +1

      Почитал ещё раз интернет, получается wb защитил страницы от паркинга и к основной странице html подгружается контейнер и его просто так не спросишь? А что тогда делать?

    • @usota
      @usota  Год назад

      Попробовать запросы через API. В описании к ролику есть ссылка на телеграм-чат про парсинг, там вопрос парсинга WB обсудили уже вдоль и поперек) Посмотрите по поиску, вы найдёте решение.

  • @yanin68
    @yanin68 2 года назад

    Добрый день. Подскажите как про парсить данный class
    Нет в наличии

    • @usota
      @usota  2 года назад

      Добрый день, можно спарсить по имени класса. А что-то не получается?

  • @tarahtundisel3898
    @tarahtundisel3898 2 года назад +1

    С первого раза тяжело. Надо сесть и проделать весь материал самому.

  • @juniorpegasus6871
    @juniorpegasus6871 2 года назад

    Добрый день, читает только первую ссылку в файле csv, изза чего может такое быть не подскажете?

    • @usota
      @usota  2 года назад +1

      Добрый день, расскажите подробнее? Или можете задать вопрос в нашем чате, я думаю найдём проблему. В описании ссылка на чат в телеграмм

  • @vintmaker23
    @vintmaker23 2 года назад

    Добрый день. Подскажите как спарить фото

    • @usota
      @usota  2 года назад

      Добрый день, а что у вас не получается, в каком месте сложность?

  • @COCOstyle1993
    @COCOstyle1993 8 месяцев назад +1

    Кажется уже не актуально. Вся информация спрятана под JS

    • @usota
      @usota  8 месяцев назад

      Вы правы, всё меняется и теперь информация лежит в другом месте. Так быстрее отдавать быстро меняющуюся информацию для посетителей.

    • @COCOstyle1993
      @COCOstyle1993 8 месяцев назад

      @@usota каким образом сейчас можно забирать данные от туда без использования селениум? Вы разбирались с этим вопросом?

    • @COCOstyle1993
      @COCOstyle1993 8 месяцев назад

      @@usota описание находится под кнопкой , которая запускает js скрипт, только после того как он отработает появляется текст на странице в html виде. Интересно что догрузок как таковых не происходит в момент нажатия, то есть данные где то хранятся, но не понятно как до них добраться с помощью запросов