Как парсить любой сайт в make.com

Поделиться
HTML-код
  • Опубликовано: 16 ноя 2024

Комментарии • 69

  • @airlow6784
    @airlow6784 5 месяцев назад +8

    "После вашей передачи, пришло еще больше писем с вопросами, с одной стороны всё понятно, с другой - не совсем " ))))

  • @DianaScorpio777
    @DianaScorpio777 4 месяца назад +2

    Столько всего интересного и полезного.Хорошо ,что Я подписалась .Спасибо .

  • @cryptodatex
    @cryptodatex 3 месяца назад

    Как мне повезло с вашим каналом!!! Здоровья и всяческих успехов вам!

    • @ai-iiru
      @ai-iiru  3 месяца назад

      @@cryptodatex Во благо!

    • @dlyabani
      @dlyabani 2 месяца назад

      ​@@ai-iiru Приветсвую. а как спарсить статью целиком с картинками? Тут я так понял в ниндзяскрапере можно парсить только заголовки и описание мета. Если будет время добавьте подобный контент в видео. Спасибо

  • @maratnews
    @maratnews Месяц назад

    Спасибо за видео, полезная информация!

    • @ai-iiru
      @ai-iiru  Месяц назад

      @@maratnews Во благо!

  • @likanella
    @likanella 5 месяцев назад +3

    Боже мой! Гениально, именно это я для своего проекта и искала. Подскажите это платно, если да сколько стоит. Все парсеры морально устарели, а это то что доктор прописал! Искала две недели подобный механизм и когда опустила руки на вас наткнулась, это знак, что нужно продолжать проект.😊

    • @ai-iiru
      @ai-iiru  5 месяцев назад

      Вы сделали мой день! Это же не сарказм, не?
      Можете на емайл ваши требования прислать, а дальше что смогу - сделаю. Стоимость опять-таки от сложности зависит

  • @АлександрТрапезников-ю8д
    @АлександрТрапезников-ю8д 5 месяцев назад +1

    классный инструмент - даже не знал о таком

  • @olkam4803
    @olkam4803 5 месяцев назад +1

    Подскажите, пожалуйста, как вы подключили scrapeNinja у меня нет всех этих полей, только возможность подключить через RapidAPI Key
    scrapeNinja выбрала бесплатный план, но где найти key вообще не понятно.

    • @ai-iiru
      @ai-iiru  5 месяцев назад

      У меня тоже бесплатный план, это на подключение не влияет. Регистрируйтесь в rapidapi, при подключении scrapeninja вводите в поля 'x-rapidapi-host' и 'x-rapidapi-key'; в make после connection вводите URL сайта и т.д. На каком этапе застряли?

    • @olkam4803
      @olkam4803 5 месяцев назад

      @@ai-iiru спасибо, но все равно ошибка. В rapidapi зарегистрировалась. В make добавляю ScrapeNinja- предлагает только создать подключение, а там только 2 поля: имя соединения и RapidAPI key

    • @ai-iiru
      @ai-iiru  5 месяцев назад

      Куда вам скинуть скрины? Тест мне на емайл отправьте, пожалуйста

    • @ai-iiru
      @ai-iiru  5 месяцев назад

      Для вас загрузил видео про соединение ScrapeNinja, гляньте

  • @ИванИванов-ы7л6у
    @ИванИванов-ы7л6у Месяц назад

    Эээхх, мне все это надо было в 2017......

  • @MultiVaper
    @MultiVaper 6 месяцев назад

    Ого, вот это мощно! Спасибо за понятные объяснения. Правда начало видео "болтается"

    • @ai-iiru
      @ai-iiru  6 месяцев назад

      да, есть такое, сам увидел на монтаже, не стал переснимать, сорян

  • @evtorg464
    @evtorg464 5 месяцев назад

    Второй способ отличный, все понятно. С первым вопросы про запросы этого скреперниндзи, не понятно как они делаются.

    • @ai-iiru
      @ai-iiru  5 месяцев назад

      скреперниндзи? или вы про ScrapingBee?

  • @allremont59
    @allremont59 27 дней назад

    Добрый день!
    Можно ли спарсить канал на дзене?

    • @ai-iiru
      @ai-iiru  27 дней назад

      @@allremont59 Здравствуйте! Текст можно

  • @alexandermalinin7411
    @alexandermalinin7411 2 месяца назад

    тоже не получается подключиться к rapidAPI:( зарегился там, вроде как нашел, где брать API, но при добавлении ключа make пишет ошибка 403
    и да, присоединяюсь к вопросу ранее, если с помощью этого scrape ninja можно спарсить только заголовок и метаданные, а не всю страницу целиком, то в моем случае это будет бесполезно:(
    заранее спасибо за ответ

    • @ai-iiru
      @ai-iiru  2 месяца назад

      @@alexandermalinin7411 В другом сценарии собираю только текст (статью) со страницы.
      Что собирать зависит от скрипта, который Вы задаёте в теле модуля

  • @malmauer
    @malmauer 2 месяца назад

    мне надо на одном сайте сделать поиск, но поиск с рекапчей гугл, как в make заполнить поле для поиска и пройти рекапчу?

    • @ai-iiru
      @ai-iiru  2 месяца назад

      через make не получится, тут нужен скрипт, и то не факт, что пройдет

  • @sergstrue362
    @sergstrue362 Месяц назад

    круто. а парсить после авторизации сможете, то есть зайти в с аккаунт и там систематически парсить ?

    • @ai-iiru
      @ai-iiru  Месяц назад

      @@sergstrue362 Не, всякие капчи-логин-пароли не могём

  • @РусланКолач
    @РусланКолач 3 месяца назад

    Не могу настроить Google таблицы. Сам блок работает а доступа к информации пишет " Информация зашифрована у вас нет доступа к информации". В самой программе таблицы я доступ открыл, таблицу составил, блок её находит и считывает но она зашифрована и я не могу её посмотреть. Вам спасибо! Много нужной и полезной информации. Может подскажете где моя ошибка?

    • @ai-iiru
      @ai-iiru  3 месяца назад

      А Вы не проболи созадть новую таблицу и её привязать? А так я не могу по описанию сказать, в чём там проблема, извините.
      И во благо!

  • @VadNomad
    @VadNomad 2 месяца назад +1

    много информации не показано. куда, что пишем.

  • @СергейПетров-ы9р2б
    @СергейПетров-ы9р2б 3 месяца назад

    Здравствуйте! А авито можно?

    • @ai-iiru
      @ai-iiru  3 месяца назад

      @@СергейПетров-ы9р2б Что на авито нужно?

  • @ЛеонидГузеев-и7я
    @ЛеонидГузеев-и7я 5 месяцев назад

    Можно ли так работать с озон? Пробую он постоянно возвращает ошибку. Может с ним есть какие-то отдельные хитрости настройки?)

    • @ai-iiru
      @ai-iiru  5 месяцев назад

      У меня нет опыта парсинга с озон, не могу сказать, к сожалению

    • @MazurUA
      @MazurUA Месяц назад

      ruclips.net/video/UmUnbl75W7E/видео.htmlsi=ALpD91NlCB8XMhJ5

  • @vsgnezdilov
    @vsgnezdilov Месяц назад

    Привет, как парсить не только текст, но и картинки с сайта?

    • @ai-iiru
      @ai-iiru  Месяц назад

      @@vsgnezdilov Привет, картинки из кода страницы можно вытаскивать через регулярные выражения (regex)

  • @Pavlina-xp4oh
    @Pavlina-xp4oh Месяц назад

    Пыталась повторить, затык с регулярными выражениями, как в видео не получилось

    • @ai-iiru
      @ai-iiru  Месяц назад

      @@Pavlina-xp4oh Вы можете выражения подбирать на regex101.com

  • @Minataraaa
    @Minataraaa 5 месяцев назад

    Яндекс маркет можно спарсить?

    • @ai-iiru
      @ai-iiru  5 месяцев назад

      зависит от данных, как много и часто нужны - чтоб стоимость была адекватной результатам.

  • @Леонид-с5з
    @Леонид-с5з 3 месяца назад

    1:10
    2:53
    3:06
    7:10

  • @shap3lessplay654
    @shap3lessplay654 2 месяца назад

    Ильяс, добрый день! ПРедлагаю записать урок, где входящие новости с РСС канала проверяются через наличие новостей в конкретном ТГ канале. Если текст уникален на 75% - публиковать статью, в противном случае ничего не публиковать

    • @ai-iiru
      @ai-iiru  2 месяца назад

      @@shap3lessplay654 Благодарю за идею!
      между прочим, об этом просят и реальные заказчики, похоже, актуально.

  • @GRWmember
    @GRWmember 5 месяцев назад

    Все вот эти Ваши пропуски объяснений, типа у меня тут зарегистрировано, сами разберётесь приводят к тому что разобраться с Ниньдзей не получается и дальше всё застопорилось на втором модуле.

    • @ai-iiru
      @ai-iiru  5 месяцев назад

      Благодарю, учту в следующих видео, не намеренно.

    • @ai-iiru
      @ai-iiru  5 месяцев назад +2

      Для вас загрузил видео про соединение ScrapeNinja, гляньте

  • @staftour
    @staftour 3 месяца назад

    А как парсить текст?

    • @ai-iiru
      @ai-iiru  3 месяца назад

      С сайта? Или откуда?

    • @staftour
      @staftour 3 месяца назад

      @@ai-iiru ну конечно с сайта.

  • @sdv75
    @sdv75 Месяц назад +1

    Сделаю тоже самое на Python в 5 раз быстрее. Добавлю любые ваши хотелки.

    • @ai-iiru
      @ai-iiru  Месяц назад

      @@sdv75 Благодарю за отклик!
      Могу Вам написать в ТГ?

    • @sdv75
      @sdv75 Месяц назад

      @@ai-iiru zula_zulovich

    • @sdv75
      @sdv75 Месяц назад

      ​@@ai-iiruzula_zulovich

    • @sdv75
      @sdv75 Месяц назад

      @@ai-iiru Пишите @zula_zulovich

    • @sdv75
      @sdv75 Месяц назад

      Пишите zula_zulovich

  • @sergeyperevozchik3733
    @sergeyperevozchik3733 4 месяца назад

    Записать на таблицу.

  • @ArtemLarin666
    @ArtemLarin666 4 месяца назад +1

    Любой сайт так парсить не получится, не вводите людей в заблуждение. Большинство крупных сайтов имеют защиту от такого парсинга.

    • @SV-13
      @SV-13 4 месяца назад

      И лягушкой не получится?

    • @Estes74
      @Estes74 7 дней назад

      Согласен, например паркинг букмекерских контор не даст.

  • @Funnyaishortsworld
    @Funnyaishortsworld 2 месяца назад

    Парсинг сайтов на данный момент это прямой путь к тому, что ваш сайт выкинут из поиска.

    • @ai-iiru
      @ai-iiru  2 месяца назад +2

      @@Funnyaishortsworld Немного не понял - как сайт, который парсим и другой сайт соединены? И как может сбор информации с сайта влиять на другой сайт?
      Можете пояснить? Может, я чего-то не знаю, что обязан знать в этих случаях?

    • @Funnyaishortsworld
      @Funnyaishortsworld 2 месяца назад

      @@ai-iiru дело было так. У меня был неплохой по посещаемости сайт про домашних животных. Статьи были уникальные, сайт хорошо ранжировался. И вот я решил подразбавить его спаренными с другого сайта статьями. Мало того, я не просто парсил, я ещё и прогонял текст через чат gpt. Через пару месяцев сайт полностью вылетел из поиска Яндекса за не уникальный контент. Я спешно удалил все спарсенные статьи, но увы, сайт так и не попал в поиск.

  • @ТоббиМагиев
    @ТоббиМагиев 5 месяцев назад +1

    Поработайте с дикцией, слушать очень сложно

  • @seo38com
    @seo38com 10 дней назад

    А как ютуб парсить?

    • @ai-iiru
      @ai-iiru  10 дней назад

      @@seo38com Что Вы хотите собрать?