Собираем информацию с любого сайта в Excel таблицу без разработки: No-Code парсер за 15 минут
HTML-код
- Опубликовано: 1 фев 2023
- Скидка на все курсы нашей школы loftschool.com/courses-map/?p... по промокоду loftblog-youtube
Ты хочешь спарсить сайт интернет-магазина, проводишь исследование или хочешь просто собрать контакты для холодных продаж? В этом видео я научу тебя собирать данные с сайтов в таблицу без необходимости писать код.
Инструмент, которым ты научишься пользоваться, помогает создать парсер бесплатно и быстро. Для этого абсолюно не нужно обладать специальными навыками, а сделать парсер получится абсолютно без знаний программирования.
Ссылки, которые тебе пригодятся:
Бесплатный скрапер (расширение для Chrome) - t.ly/q-cDt
Набор более подробных обучающих роликов (на английском языке) - t.ly/Y0gs
Статья с одним из примеров, как можно обрабатывать подобные данные - t.ly/iAbW
Золотье! И не экаешь. Приятно слушать.
Парень, ты просто золотой. Мне поставили задачу собрать данные с двух сайтов, а там позиций больше 2 тысяч. Я уж думал я с ума сойду пока буду этим заниматься. Но твоё видео меня очень выручило!!! Правда у меня возникла одна проблема: текст не копировался как текст, а только как HTML. Чтобы привести это всё к нормальному виду, пришлось посидеть поизучать часик-другой, как работает RegEx. Но спустя это время, я наконец-то получил то, что мне было нужно!!! Без парсинга сидел бы наверное неделю. И самое главное - это бесплатное и абсолютно безопасное приложение! Вообщем, очень выручил. Всё понятно и доходчиво объяснил, спасибо большое)))
Пожалуста брат!
Ты лучший день убил чтобы научить парсить сайт и не пришёл не к чему а нужно было всего 20 минут на твоё видео потратить огромное спасибо
Ни фига не понял, но ты молодец!
Спокойный уверенный голос, сразу видно человек знает о чем говорит))
Автор золотой человек! Просто Золотище) И обьясняет хорошо и говорит приятно! СПАСИБО!
Спасибо! Наконец нашла нечто понятное и доступное! Буду изучать! 🥰
Спасибо тебе, добрый человек! Сэкономил время и нервы) Огромное спасибо!
Обзор просто Супер! Четко, ясно, по существу. Спасибо.
Спасибо большое! Редко пишу отзывы, но вы круто все объяснили. Сухо и по делу. Очень полезно! Все работает, протестил
Спасибо, за обзор! Все доступно, понятно!
Уважаемый Дмитрий, этому ролику уже почти год! Но на сколько же он нужный и актуальный даже сейчас! Спасибо Тебе большое! Мне как воздух была важна эта информация! Дай Бог Тебе здоровья крепкого и любовницу красивую и порядочную! Спасибо!!!!!
😊❤❤❤ Спасибо за отоичный урок! Благодаря вашему видео за полчаса собрала нужные данные.
Огромнейшее спасибо. Сначала пропустил момент, что надо провалится в созданный линк и там уже делать подразделы парсинга. Всё работает в марте 2024г😄😄😄😄😵💫
Блин я тоже это пропустил и не понимал почему не работает всё как надо
Молодец мужик, спасибо большое, очень помог. Успехов во всех начинаниях !
Спасибо. То что нужно. Все вечером попробую
Огромное спасибо за это видео... вы, можно сказать, жизнь мне спасли)))))
Супер! огромная Вам благодарность, подписываюсь.
Вот жешь...
За полезности рабочие и применяемые - и подписываюсь
Спасибо! Классный урок!🎉🎉
Огромное спасибо за ролик!
Это шедеееевр!
Супер, спасибо 🙏
Спасибо за данное видео.
Димон, спс. Зачётный видос!
Респект парень! Помог!
Просто красавчик 😘
благодарю, все четко
Спасибо!
Пока не разбирался но тоже спасибо напишу так как видно что это вполне рабочий инструмент!
Всё работает! ты сделал мой день :)
😆🐹
Классная штука, спасибо что поделились
Видео просто супер
МОЛОДЕЦ !!!! 👍👍👍👍👍👍👍👍👍👍👍👍👍👍
Спасибо большое!
Здоровья тебе
Спасибо ❤
Фига, круто)
Как вы прекрасно выглялите
Спасибо Бро!!!
Спасибо!!!!
БЛАГОДАРЮ ❤🌷 ты спас меня😅
просто топ!!!!
Спасибо😊
Спасибо)
Вроде в метаданных сайтмэпа можно писать в конце сылки к примеру =[1-7] , но зависит от сайта конечно. Это касаемо пагинациию. Но объясняешь прикольно
Благодарю! Подскажи как установить автообновление допустим в задержку 24ч?
Оч полезно, открыл для себя - парсинг, предстоит еще изучить.
А можно по названию нужных мне товаров настроить парсер? чтобы он из моего списка брал названия и искал и собирал данные на сайтах нескольких?
спасибо большоее
все цены будут обновляться в таблице иксель автоматически?
кайф. Лайчище!
это интересно
Большое спасибо за видео. Подскажите, столкнулся с тем что страница сайта, откуда надо скачать данные, большая и много данных которые прогружаются с прокруткой. Как это можно настроить? потому что следуя по видео получается собрать данные только по тем компаниям которые не требуют дополнительной прокрутки вниз на странице.
у меня на сайте допустим много данных и я использую multiple чтобы разбить по строкам и столбцам, но они разбиваются не так как я хотел, если убрать по всем multiple но остаются только одни значения, а их у меня 5 строк и 10 столбцов
Супер, спасибо. Подскажите пожалуйста как можно сделать сбор данных с одной и той же страницы при ее обновлении, необходимое мне количество раз. Парсинг с этой страницы я настроил, но на самой странице сайта нет кнопки ее обновления и получается, что данные которые парсятся генерируются только при обновлении этой страницы путем нажатия на кнопку "обновить страницу" в самом браузере, а вот варианта сделать это на самой страницы сайта к сожалению нет. Заранее спасибо за ответ
спасибо братух, очень полязная инфа! Мне предстояло сделать интернет-магазин. Естественно нужны фотографии товара. А где их взять? У конкурентов. Большее тысячи позиций товара я намеревался копировать и вставлять вручную в exel. Если бы не алгоритмы ютуба так бы и занимался сизофовым трудом
Круть
Здравствуйте! Спасибо за контент. Вы занимаетесь разработкой проекта? За оплату конечно. Нужно вытащить в excel заказы выданные на маркетплейсе Казахстана каспи
а можно ли сделать так, чтобы данные с сайта автоматически обновлялись и в твоей таблице?
есть инфа как сделать автоматический парсинг?
чтобы не заходить на сайт и не скачивать данные
Очень здорово! Спасибо! Скажите, картинку тоже можно загрузить? и читаю что таблица сама обновляется если сайт будет обновляться это действительно так?
пробовал, получается почему то одну только картинку
Здравствуйте! А если линки на карточках товара динамические (при наведении на объект) что делать? не получается сайтмап тогда сделать
Супер!
А этой штукой можно грузить свои файлы в инет?
Например: есть сайт с кнопкой "загрузить файл/реестр". У меня есть папка с этими файлами. Эта прога сможет их загрузить?
Спасибо!
Спасибо за отличное видео и доступное изложение. Правильно ли я понял, что описанным способом парсится информация только с одной страницы сайта? А как быть, если страниц много? Например, несколько категорий товаров, у каждой есть подкатегории.
Нет, послушайте до конца, он красавчик, всё подробно объяснил и в том числе про пагинацию. Можно под себя подстроить все
Пожалуйста подскажите, а если хочется также собирать данные только с другой страницы на этом же сайте.
автор, тебе нужно преподавать! :-)
Все круто, но парсит не все товары, так как товары отображаются по мере скролла, можно это как-то доделать?
(Пытался парсить габариты товаров с сайта лента онлайн)
да автор золото!) куда донатить )
Ты золото, и я тебя нашел
А как двигаться по различным категориям каталога сайта? только вручную каждую категорию вбивать каждый раз селекторы? или есть способ попроще?
Подскажи плиз, каким образом можно собрать ссылки на фотки товара в одну ячейку, а не в разные? Когда они в разных, так вроде не получится импортировать в вукомерс
Классный инструмент
жаль, что бесполезный почти.
@@cybersystem5137 А какой полезен? С чем сравниваете? 😊
@@Skretch1174 с нормальным парсером.
Поделишься нормальным?
а есль нужно искать по URL шаблоннго типа а не весь сайт как сделать ?
Боженька
как собирать e-mail адреса с сайтов ?
есть инфа как сделать автоматический парсинг? то есть включить его в тг бот указывая ссылку
чтобы не заходить на сайт и не скачивать данные
А в гугл таблицы можно напрямую выгружать спарсенные данные?
Бро, расскажи как ограничить количество страниц которые пагинатор должен отработать?
Например я хочу только первые 50 страниц отпарсить?
Скажите, возможно ли этим парсером решить следующую задачу: есть сайт с 1 млн товаров, моя задача найти по названиям 2000 товаров и забрать цену. адреса страниц не известны, известны назввния товаров. может ли скрапер в строку поиска по сайту подтянуть название из заранее созданного списка? и на следующем этапе сайт отдает либо страницу с результатами (когда 2 и больше товаров полностью содержат запрос) или перенаправляет на страницу, которая единственная отвечает на запрос. Возможно ли разделение алгоритма действий, в зависимости от полученного ответа сайта?
Благодарю!
Там где другие парсеры не работают, этот способ прошел на ура.
только осталась проблема - не забирает картинки, хотя ссылки на картинки рабочие
Еще есть вопрос.
Если у товара несколько картинок. Как их забрать все с размещением в карточке одного товара?
Добрый день. Нужна услуга по парсингу телефонов с сайта. Можете помочь?
Спасибо за метериал!
Почему-то скачивает только 10 строчек.
В превью отбирается более 80, а вготовый файл собирает только 10.
Аякс сайты тоже парсит?
Подскажите, а что делать, если на первом селекторе, ссылка открывает новую вкладку, из-за чего парсер выдает ошибку
Очень полезное видео, спасибо. НО. Я выбираю на сайте банкиру кучу отзывов (около 500) и они видны в дата ревью, но после скрэйпа выдает всего лишь 25 отзывов. Как это исправить?
Имеется ввиду линки на отзывы, так как на странице со всеми отзывами отзыв показан не полностью.
Всё круто но с картинками проблема, одну парсит а если они в галереи (три шт например) нифига не получается
А если нет строки Selector graph ?
не могу понять почему нет
огромное спасибо! Если нет плагиатора страниц 1-2-3.. а нужно скролить? как его научить?
Внимательно пересмотрите, он в конце ролика про скроллинг рассказывает
Попробовал на Фикс-прайсе, так-то, вроде, тянет, но у некоторых позиций - пустые цены (( Странно...
А возможно ли сделать так,чтоб с сайта за 24 часа до начала футбольного матча,снималась иныормация?
Подскажите, парсите базу данных авито?
Мы парсим. Обращайтесь. Будем рады)
Спасибо за видео. На тестовом сайте понятно, что всё работает. А вот очень интересует селектор елемент скролл. Не могли бы вы продемонстрировать его на примере сайта вконтакте, как его правильно настроить чтоб собрать ссылки друзей, если друзей от 1000. У меня почему-то елемент скролл до конца окончания списка друзей не прокручивает. Только несколько раз и останавливается. Может что-то в настройках селектора что-то не так. Помогите пожалуйста.
Братан как с карт собрать инфу с привязкой к координатам???
а как быть, если при нажатии "refresh" никаких данных не появляется?
значит ошибка в парсинге, нужно переделывать структуру парсера
Как сделать что бы спарсеные данные выгружались в документ без ссылок, короче без первых двух столбцов?
Дядька - с выходом чат гпт, даже если у тебя 3.5 бесплатная - ты уже мамкин програмист-парсерист))) Спокойно весь код пишет, не с первой попытки но пишет, а главное под любую задачу.)))
А как собирать вариативность?
А как сделать несколько категорий, подкатегорий... Жутко интересно. Или под каждую настраивать карту? Да, это будет немного быстрее чем я в ручную забью.
Как парсить тултипы?
А с вк номера телефонов можно спарсить?
да, но с помощью спец сайтов
Большое спасибо за видео. Я столько нового для себя открыл и все это очень упростило мне работу. Я пару дней дрочился с ручной сборкой информации. Стал искать как это упростить и наткнулся на твое видео. Все очень понятно даже человеку с уровнем владения ПК выше среднего.
Есть пара вопросов: а если цен несколько как спарсить самую низкую из них?