Добрый день, большое спасибо Вам за видео! у меня возник такой вопрос, я хочу написать парсер, который будет принимать ключевые слова, делать из них search url и брать первый результат поиска с вайлдберис, а потом его парсить, как указано у вас. Мне нужно вытащить из search запроса первый url, но response приходит без ссылок вообще, такое ощущение, что там только скелет страницы без наполнения, похоже джаваскрипт не отработал( Может у вас есть какой-то совет на этот счет? как получить список урлов из поиска по запросу?
Спасибо 🙏 Вы всё верно рассуждаете и проблема скорее всего в ответе WB. Результаты поиска скорее в запросе post, а не get. Но надо проверять, пишу по памяти.
Добрый день,. Конечно это все круто, мне понравилось. И я в этом ни чего не понимаю. Есть ли вариант и возможность воспользоваться этим готовым парсером , для тех кто в этом не разбирается но но на выходе нужна такая таблица, . Например я просто вставляю свои ссылки на товары и получается таблица 🤷♂🤔🤔🤔. Благодарю .
здравствуйте. возможно ли создать парсер, который из корзины заказов wb будет брать название заказа, артикул, фото и количество товара? и все это выводить в гугл таблицы. и чтобы парсило автоматически несколько раз в день.
Здравствуйте, да - возможно. Для этого нужно залогиниться, скопировать в парсер куки и настроить автоматический запуск парсера. Сколько будут жить куки - посмотреть опытным путём.
не работает код, на первом шаге, когда хотим получить название страница и парсим (h1) получаю такую ошибку - AttributeError: 'NoneType' object has no attribute 'text', читал в интернете, пишут, что нужно делать проверку if, если там не содержиться text, то код должен игнорировать и идти дальше, а у вас нет в коде проверки и все работает. Посмотрел код сайта, действительно в h1 стоит название, но запускаю код и снова ошибка AttributeError: 'NoneType' object has no attribute 'text
@@usota сделал принт, вышел код. В распечатанном коде нет h1. Но если смотреть код на сайте , то h1 есть и есть в нём название. Просто h1 спрятан в div class = 'product - page ' и так далее. Нужно просто код глубже раскрывать в ручную. А разве парсер сам не открывает код полностью? Или парсер смотрит только общую страницу html и не расскрывает код глубже?
Почитал ещё раз интернет, получается wb защитил страницы от паркинга и к основной странице html подгружается контейнер и его просто так не спросишь? А что тогда делать?
Попробовать запросы через API. В описании к ролику есть ссылка на телеграм-чат про парсинг, там вопрос парсинга WB обсудили уже вдоль и поперек) Посмотрите по поиску, вы найдёте решение.
@@usota описание находится под кнопкой , которая запускает js скрипт, только после того как он отработает появляется текст на странице в html виде. Интересно что догрузок как таковых не происходит в момент нажатия, то есть данные где то хранятся, но не понятно как до них добраться с помощью запросов
Женя СПАСИБО ОГРОМНОЕ, голову сломал над вопросом КАК), а тут такой подарок в твоем исполнении! Материал живой, а главное ПОЛЕЗДНЫЙ и ПРАКТИЧНЫЙ!
Спасибо за высокую оценку 😊
Мне вот такой контент очень нравиться, он без всяких лишних музыкальных вставок зато с живыми комментариями! контент для учебы.
22:59-23:02 когда пересидел за питоном, тем более в понедельник)))
Добрый день! Так же, как и вы спарсил h1, но у меня пусто. Там контент подгружается аяксом в контейнер с id=app. Как быть в таком случае?
Добрый день, в описании есть ссылка на наш чат в телеграмме - буквально вчера обсуждали получение контента с WB
Как раз обсуждали, как парсить то, что подгружается аяксом, то есть по API
Добрый день, большое спасибо Вам за видео! у меня возник такой вопрос, я хочу написать парсер, который будет принимать ключевые слова, делать из них search url и брать первый результат поиска с вайлдберис, а потом его парсить, как указано у вас. Мне нужно вытащить из search запроса первый url, но response приходит без ссылок вообще, такое ощущение, что там только скелет страницы без наполнения, похоже джаваскрипт не отработал(
Может у вас есть какой-то совет на этот счет? как получить список урлов из поиска по запросу?
Спасибо 🙏 Вы всё верно рассуждаете и проблема скорее всего в ответе WB. Результаты поиска скорее в запросе post, а не get. Но надо проверять, пишу по памяти.
Эх думал я один таким способом парсю множество характеристик, а оказывается нет. ))))
мне тоже понравилось, спасибо
Спасибо)
Добрый день,. Конечно это все круто, мне понравилось. И я в этом ни чего не понимаю. Есть ли вариант и возможность воспользоваться этим готовым парсером , для тех кто в этом не разбирается но но на выходе нужна такая таблица, . Например я просто вставляю свои ссылки на товары и получается таблица 🤷♂🤔🤔🤔. Благодарю .
Добрый день, напишите мне, обсудим )
А готовое решение имеется в виде софта ? ) поблагодарю донатом
К сожалению, готового решения нет - пишу под каждый сайт отдельно. У всех сайтов же разная структура параметров. А какой сайт вас интересует?
Здравствуйте, что за программа и язык программирования?
Здравствуйте, пишу на Python в PyCharm
@@usota спасибо
здравствуйте. возможно ли создать парсер, который из корзины заказов wb будет брать название заказа, артикул, фото и количество товара? и все это выводить в гугл таблицы. и чтобы парсило автоматически несколько раз в день.
Здравствуйте, да - возможно. Для этого нужно залогиниться, скопировать в парсер куки и настроить автоматический запуск парсера. Сколько будут жить куки - посмотреть опытным путём.
не работает код, на первом шаге, когда хотим получить название страница и парсим (h1) получаю такую ошибку - AttributeError: 'NoneType' object has no attribute 'text', читал в интернете, пишут, что нужно делать проверку if, если там не содержиться text, то код должен игнорировать и идти дальше, а у вас нет в коде проверки и все работает. Посмотрел код сайта, действительно в h1 стоит название, но запускаю код и снова ошибка AttributeError: 'NoneType' object has no attribute 'text
Сделайте print(html) - скорее в нём и нет h1, а что-то другое.
@@usota сделал принт, вышел код. В распечатанном коде нет h1. Но если смотреть код на сайте , то h1 есть и есть в нём название. Просто h1 спрятан в div class = 'product - page ' и так далее. Нужно просто код глубже раскрывать в ручную. А разве парсер сам не открывает код полностью? Или парсер смотрит только общую страницу html и не расскрывает код глубже?
Почитал ещё раз интернет, получается wb защитил страницы от паркинга и к основной странице html подгружается контейнер и его просто так не спросишь? А что тогда делать?
Попробовать запросы через API. В описании к ролику есть ссылка на телеграм-чат про парсинг, там вопрос парсинга WB обсудили уже вдоль и поперек) Посмотрите по поиску, вы найдёте решение.
Добрый день. Подскажите как про парсить данный class
Нет в наличии
Добрый день, можно спарсить по имени класса. А что-то не получается?
С первого раза тяжело. Надо сесть и проделать весь материал самому.
Добрый день, читает только первую ссылку в файле csv, изза чего может такое быть не подскажете?
Добрый день, расскажите подробнее? Или можете задать вопрос в нашем чате, я думаю найдём проблему. В описании ссылка на чат в телеграмм
Добрый день. Подскажите как спарить фото
Добрый день, а что у вас не получается, в каком месте сложность?
Кажется уже не актуально. Вся информация спрятана под JS
Вы правы, всё меняется и теперь информация лежит в другом месте. Так быстрее отдавать быстро меняющуюся информацию для посетителей.
@@usota каким образом сейчас можно забирать данные от туда без использования селениум? Вы разбирались с этим вопросом?
@@usota описание находится под кнопкой , которая запускает js скрипт, только после того как он отработает появляется текст на странице в html виде. Интересно что догрузок как таковых не происходит в момент нажатия, то есть данные где то хранятся, но не понятно как до них добраться с помощью запросов