спасибо за ваш труд! как просили, просьба-совет по улчшению: пожалуйста немного помедленнее показывайте свои действия на компе. иногда тяжело понять, что вы сделали и приходится пересматривать на замедленном воспроизведении. А в принципе очень круто 👍
Не нужно убирать лицо ☺️ интересно смотреть на человека который рассказывает такие интересные вещи. Кому не нравится, можете не смотреть, не нужно других этого лишать.
21:33 как минимум один пример, когда одинаковые данные в разных классах: фото (да и видео тоже) в инстаграме - они часто зарыты на разных уровнях. как минимум это зависит от того, одно или несоклько изображений в посте, но даже если одно изображение - уровни (и, собственно, классы) - отличаются. про другие сайты не знаю, не сталкивался
Спасибо за видео, очень познавательно! Главное у меня получилось запарсить данные с Крыши.кз. Последние два дня засел за ваши видео. Есть просьба, покажите как можно запарсить данные (с телефонами) с Хедхантера?
Спасибо 🙏 По поводу парсинга HH в бесплатном доступе по-моему ограниченное количество резюме можно посмотреть. Поэтому парсинг этой площадки без лимитов бесплатно не доступен. Но у них можно купить доступ, правда и денег стоит немаленьких.
Подскажите, как парсить категории с под, под, подкатегориями, ни где не могу найти эту инфу и все перепробовал, только с главной страницы вытаскивает и все, на другие страницы не переходит.?
Добрый день) Благодарю за видео) Скажите пожалуйста, после парсинга товаров и добавления на свой сайт, каким образом можно отслеживать изменение цен у поставщика и соответственно обновлять у себя? Спасибо)
Спасибо 🙏 отслеживать можно вручную, делая разовый парсинг поставщика и сверяя, например, в экселе со своей выгрузкой с сайта. Такой способ подойдет, если цены обновляются редко. Если нужно обновление каждый день или чаще, то тут нужно писать скрипт для автоматического обновления. WebScraper для этого не подойдёт, к сожалению.
Добрый день, этот инструмент парсит любые сайты. Ну может кроме сайтов с . Но и тут можно придумать, как добраться до данных. Днс шоп - парсит легко, прямо сейчас попробовал, данные собирает быстро и полностью.
можете подсказать, как работает елемент клик. Столкнулся с проблемой когда нужно перейти на следующую страницу определенной категории, она через Link не работает, потому что ссылки нет, он не понимает куда ему переходить. Я вот подумал что возможно елемент клик поможет в этом деле, но не могу понять что я должен выделять. Спасибо!
А есть ли способ импортировать сценарий более 200 элементов, или как то редактировать сценарий не через браузер...короче нужен способ два сценария поженить вместе в общей сумме более 400 элементов. Создавать он дает более 200 а копировать нифига, как то есть способ отредактировать расширение может напрямую через проводник виндовс до корневой папки chrome или есть какие то другие пути...пожалуйста отпишитесь
Можно попробовать экспортировать, отредактировать JSON, и импортировать обратно. Но редактировать JSON нужно внимательно, чтобы ничего не сломать. Других способов, к сожалению, не знаю.
а как указать в элементе, выбор конкретных категорий? Например при выборе фильтров в интернет магазине, чтобы выбирал не все категории товара подряд, а только жестко прописанные.
Все-таки я сделал все с ценами и ссылками, все норм. Но вот картинки из пинтереста и даже с авито не смог, скачивает только первых несколько. Картинки самое главное, как дальше? Я кстати вам письмо написал, ищу обратную связь так сказать, еще в тг напишу утром уж. Очень нужно разобраться
@dimon015 ws использую редко, для быстрых не сложных задач. Для профессионального использования пишу скрипты на Python. У нас в чате @proparsing можно посмотреть много решений по парсингу
Так бывает, если мы указываем для каждого элемента мультипл. Чтобы избежать эту ошибку - нужно указывать мультипл только главному элементу, внутри которого лежат нужные данные.
на седьмой минуте выключил видео вообще шлак полный тыкает не понятно куда, фиг знает что выскакивает, что-то там рассказывает, цто-то куда то копирует, вставляет. То и понятно что из 1200 просмотров всего 64 лайка и от меня дизлайк ещё лови. Чёрный пиар тоже пиар ))))
Как спарсить данные с открывающегося в chrome PDF файла ? Вроде расширение поставил которое переводит PDF в HTML а все равно webScraper не дает ссылку добавить (( тк в начале нее chrome-extension://oemmndcbldboiebfnladdacbdfmadadm/
Не тратьте время. WS парсит сайты, которые можно открыть по url, если по простому. Для парсинга PDF используются другие способы, например библиотека pdfquery для Python. Но если очень нужно через WS, то разве что конвертировать все PDF в HTML, загрузить на сервер и с него уже открывать по url и парсить. Но это костыли на костылях, уж простите.
спасибо за ваш труд! как просили, просьба-совет по улчшению: пожалуйста немного помедленнее показывайте свои действия на компе. иногда тяжело понять, что вы сделали и приходится пересматривать на замедленном воспроизведении. А в принципе очень круто 👍
спасибо за видео,
не забывай ссылочку на видос добавлять в чат, что бы вовремя узнать о нем.
очень жду урок про регулярку
Спасибо, поделюсь) Про регулярки самому бы хорошо подучиться )
Евгений, как всегда все супер. Узнал даже про некотрые моменты которые не знал. Будем пробывать!Благодарю!
Спасибо 🙏
С регулярными выражениями вообще круто)
Не нужно убирать лицо ☺️ интересно смотреть на человека который рассказывает такие интересные вещи. Кому не нравится, можете не смотреть, не нужно других этого лишать.
Да Бро!
Человек раскрывается и делится полезным контентом.
🤝
Спасибо. Понял за первые несколько секунд с авито)
Спасибо за материал! Помог разобраться 🤝
Очень актуально, спасибо!
Поклон до земли. 20к сохранил. Как разбогатею - с меня донат )
Спасибо подпишусь.много интересного
21:33 как минимум один пример, когда одинаковые данные в разных классах: фото (да и видео тоже) в инстаграме - они часто зарыты на разных уровнях. как минимум это зависит от того, одно или несоклько изображений в посте, но даже если одно изображение - уровни (и, собственно, классы) - отличаются.
про другие сайты не знаю, не сталкивался
👍🔥🥃Круто, будем осваивать. Сейчас python на яндексе добиваю.
Python - это уже следующий уровень 👍
СПАСИБО. У Вас круто получается!! Продолжайте.
Спасибо за видео, очень познавательно! Главное у меня получилось запарсить данные с Крыши.кз. Последние два дня засел за ваши видео. Есть просьба, покажите как можно запарсить данные (с телефонами) с Хедхантера?
Спасибо 🙏 По поводу парсинга HH в бесплатном доступе по-моему ограниченное количество резюме можно посмотреть. Поэтому парсинг этой площадки без лимитов бесплатно не доступен. Но у них можно купить доступ, правда и денег стоит немаленьких.
@@usota Доступ есть, хотелось выгрузку в табличном виде для дальнейшего анализа
Добрый день! Не видит все отзывы на озоне. Приходится протыкивать все.
Насчёт классов я запишу видео в котором постараюсь объяснить всё подробно что имел ввиду.
Скину в час с телегой.
Подскажите, как парсить категории с под, под, подкатегориями, ни где не могу найти эту инфу и все перепробовал, только с главной страницы вытаскивает и все, на другие страницы не переходит.?
Добрый день) Благодарю за видео) Скажите пожалуйста, после парсинга товаров и добавления на свой сайт, каким образом можно отслеживать изменение цен у поставщика и соответственно обновлять у себя? Спасибо)
Спасибо 🙏 отслеживать можно вручную, делая разовый парсинг поставщика и сверяя, например, в экселе со своей выгрузкой с сайта. Такой способ подойдет, если цены обновляются редко. Если нужно обновление каждый день или чаще, то тут нужно писать скрипт для автоматического обновления. WebScraper для этого не подойдёт, к сожалению.
В начале ролика говорили и про парсер Авито, а по факту его не показали - хотел бы увидеть в др ролик
Евгений добрый день или вечер. Возможно ли WebScraper -ом парсить динамические сайты такие как (Dns shop).
Добрый день, этот инструмент парсит любые сайты. Ну может кроме сайтов с . Но и тут можно придумать, как добраться до данных.
Днс шоп - парсит легко, прямо сейчас попробовал, данные собирает быстро и полностью.
@@usota Спасибо
И еще ... смотрю Ваш канал постоянно, очень полезный и доходчивый материал, порой бывает смешно как все просто. Еще раз спасибо огромное !!!
Спасибо за приятные слова 🙏
можете подсказать, как работает елемент клик. Столкнулся с проблемой когда нужно перейти на следующую страницу определенной категории, она через Link не работает, потому что ссылки нет, он не понимает куда ему переходить. Я вот подумал что возможно елемент клик поможет в этом деле, но не могу понять что я должен выделять. Спасибо!
Пришлите ссылку на сайт, посмотрим, как можно решить проблему, если ещё актуально) контакты в описании
А есть ли способ импортировать сценарий более 200 элементов, или как то редактировать сценарий не через браузер...короче нужен способ два сценария поженить вместе в общей сумме более 400 элементов. Создавать он дает более 200 а копировать нифига, как то есть способ отредактировать расширение может напрямую через проводник виндовс до корневой папки chrome или есть какие то другие пути...пожалуйста отпишитесь
Можно попробовать экспортировать, отредактировать JSON, и импортировать обратно. Но редактировать JSON нужно внимательно, чтобы ничего не сломать. Других способов, к сожалению, не знаю.
а как указать в элементе, выбор конкретных категорий? Например при выборе фильтров в интернет магазине, чтобы выбирал не все категории товара подряд, а только жестко прописанные.
Жестко прописать в Start URL. Их же можно указать несколько, когда вы создаёте Sitemap.
Все-таки я сделал все с ценами и ссылками, все норм. Но вот картинки из пинтереста и даже с авито не смог, скачивает только первых несколько. Картинки самое главное, как дальше? Я кстати вам письмо написал, ищу обратную связь так сказать, еще в тг напишу утром уж. Очень нужно разобраться
подскажит как можно сделать enter value в web scrapper е?
Расскажите подробнее?
А Вы работаете в бесплатной версии?
Да
@@usota спасибо! И бесплатной Вам хватает под все задачи? А если на сайте стоит капча?
@dimon015 ws использую редко, для быстрых не сложных задач. Для профессионального использования пишу скрипты на Python. У нас в чате @proparsing можно посмотреть много решений по парсингу
@@usota подскажите а Вы python самостоятельно изучали? Или какие то курсы?
Бесплатный курс на Яндекс Практикуме и курс Олега Молчанова
Все хорошо кроме того что данные он собирает лесенкой((
Так бывает, если мы указываем для каждого элемента мультипл. Чтобы избежать эту ошибку - нужно указывать мультипл только главному элементу, внутри которого лежат нужные данные.
@@usota спасибо большое за совет, помогло)
@@usotaчто значит лесенкой? Можно пример?
Сплошной сумбур в подаче материала. Кто Вам отзывы пишет? Можно все подать в несколько раз короче
Спасибо за оценку. Может сделаем хороший, качественный ролик по этому материалу вместе с вами?
Вы так и не ответили на предложение сделать лучше. Возможно вы уже самостоятельно сделали более короткую подачу без сумбура? Поделитесь пожалуйста.
на седьмой минуте выключил видео
вообще шлак полный
тыкает не понятно куда, фиг знает что выскакивает, что-то там рассказывает, цто-то куда то копирует, вставляет.
То и понятно что из 1200 просмотров всего 64 лайка
и от меня дизлайк ещё лови.
Чёрный пиар тоже пиар ))))
Спасибо за обратную связь)
А если нужно по определенному списку ссылок переходить , к примеру {ссылка}/номер конкретного товара . То как быть ?
Как создать одностраничный сайт со списком ссылок для парсинга
ruclips.net/video/26kGYPw9454/видео.html
Можно через промежуточную страницу
Как спарсить данные с открывающегося в chrome PDF файла ? Вроде расширение поставил которое переводит PDF в HTML а все равно webScraper не дает ссылку добавить (( тк в начале нее chrome-extension://oemmndcbldboiebfnladdacbdfmadadm/
Не тратьте время. WS парсит сайты, которые можно открыть по url, если по простому. Для парсинга PDF используются другие способы, например библиотека pdfquery для Python. Но если очень нужно через WS, то разве что конвертировать все PDF в HTML, загрузить на сервер и с него уже открывать по url и парсить. Но это костыли на костылях, уж простите.