@@ai-iiru Приветсвую. а как спарсить статью целиком с картинками? Тут я так понял в ниндзяскрапере можно парсить только заголовки и описание мета. Если будет время добавьте подобный контент в видео. Спасибо
Боже мой! Гениально, именно это я для своего проекта и искала. Подскажите это платно, если да сколько стоит. Все парсеры морально устарели, а это то что доктор прописал! Искала две недели подобный механизм и когда опустила руки на вас наткнулась, это знак, что нужно продолжать проект.😊
Вы сделали мой день! Это же не сарказм, не? Можете на емайл ваши требования прислать, а дальше что смогу - сделаю. Стоимость опять-таки от сложности зависит
Подскажите, пожалуйста, как вы подключили scrapeNinja у меня нет всех этих полей, только возможность подключить через RapidAPI Key scrapeNinja выбрала бесплатный план, но где найти key вообще не понятно.
У меня тоже бесплатный план, это на подключение не влияет. Регистрируйтесь в rapidapi, при подключении scrapeninja вводите в поля 'x-rapidapi-host' и 'x-rapidapi-key'; в make после connection вводите URL сайта и т.д. На каком этапе застряли?
@@ai-iiru спасибо, но все равно ошибка. В rapidapi зарегистрировалась. В make добавляю ScrapeNinja- предлагает только создать подключение, а там только 2 поля: имя соединения и RapidAPI key
тоже не получается подключиться к rapidAPI:( зарегился там, вроде как нашел, где брать API, но при добавлении ключа make пишет ошибка 403 и да, присоединяюсь к вопросу ранее, если с помощью этого scrape ninja можно спарсить только заголовок и метаданные, а не всю страницу целиком, то в моем случае это будет бесполезно:( заранее спасибо за ответ
Не могу настроить Google таблицы. Сам блок работает а доступа к информации пишет " Информация зашифрована у вас нет доступа к информации". В самой программе таблицы я доступ открыл, таблицу составил, блок её находит и считывает но она зашифрована и я не могу её посмотреть. Вам спасибо! Много нужной и полезной информации. Может подскажете где моя ошибка?
Ильяс, добрый день! ПРедлагаю записать урок, где входящие новости с РСС канала проверяются через наличие новостей в конкретном ТГ канале. Если текст уникален на 75% - публиковать статью, в противном случае ничего не публиковать
Все вот эти Ваши пропуски объяснений, типа у меня тут зарегистрировано, сами разберётесь приводят к тому что разобраться с Ниньдзей не получается и дальше всё застопорилось на втором модуле.
@@Funnyaishortsworld Немного не понял - как сайт, который парсим и другой сайт соединены? И как может сбор информации с сайта влиять на другой сайт? Можете пояснить? Может, я чего-то не знаю, что обязан знать в этих случаях?
@@ai-iiru дело было так. У меня был неплохой по посещаемости сайт про домашних животных. Статьи были уникальные, сайт хорошо ранжировался. И вот я решил подразбавить его спаренными с другого сайта статьями. Мало того, я не просто парсил, я ещё и прогонял текст через чат gpt. Через пару месяцев сайт полностью вылетел из поиска Яндекса за не уникальный контент. Я спешно удалил все спарсенные статьи, но увы, сайт так и не попал в поиск.
"После вашей передачи, пришло еще больше писем с вопросами, с одной стороны всё понятно, с другой - не совсем " ))))
Столько всего интересного и полезного.Хорошо ,что Я подписалась .Спасибо .
Как мне повезло с вашим каналом!!! Здоровья и всяческих успехов вам!
@@cryptodatex Во благо!
@@ai-iiru Приветсвую. а как спарсить статью целиком с картинками? Тут я так понял в ниндзяскрапере можно парсить только заголовки и описание мета. Если будет время добавьте подобный контент в видео. Спасибо
Спасибо за видео, полезная информация!
@@maratnews Во благо!
Боже мой! Гениально, именно это я для своего проекта и искала. Подскажите это платно, если да сколько стоит. Все парсеры морально устарели, а это то что доктор прописал! Искала две недели подобный механизм и когда опустила руки на вас наткнулась, это знак, что нужно продолжать проект.😊
Вы сделали мой день! Это же не сарказм, не?
Можете на емайл ваши требования прислать, а дальше что смогу - сделаю. Стоимость опять-таки от сложности зависит
классный инструмент - даже не знал о таком
Подскажите, пожалуйста, как вы подключили scrapeNinja у меня нет всех этих полей, только возможность подключить через RapidAPI Key
scrapeNinja выбрала бесплатный план, но где найти key вообще не понятно.
У меня тоже бесплатный план, это на подключение не влияет. Регистрируйтесь в rapidapi, при подключении scrapeninja вводите в поля 'x-rapidapi-host' и 'x-rapidapi-key'; в make после connection вводите URL сайта и т.д. На каком этапе застряли?
@@ai-iiru спасибо, но все равно ошибка. В rapidapi зарегистрировалась. В make добавляю ScrapeNinja- предлагает только создать подключение, а там только 2 поля: имя соединения и RapidAPI key
Куда вам скинуть скрины? Тест мне на емайл отправьте, пожалуйста
Для вас загрузил видео про соединение ScrapeNinja, гляньте
Эээхх, мне все это надо было в 2017......
Ого, вот это мощно! Спасибо за понятные объяснения. Правда начало видео "болтается"
да, есть такое, сам увидел на монтаже, не стал переснимать, сорян
Второй способ отличный, все понятно. С первым вопросы про запросы этого скреперниндзи, не понятно как они делаются.
скреперниндзи? или вы про ScrapingBee?
Добрый день!
Можно ли спарсить канал на дзене?
@@allremont59 Здравствуйте! Текст можно
тоже не получается подключиться к rapidAPI:( зарегился там, вроде как нашел, где брать API, но при добавлении ключа make пишет ошибка 403
и да, присоединяюсь к вопросу ранее, если с помощью этого scrape ninja можно спарсить только заголовок и метаданные, а не всю страницу целиком, то в моем случае это будет бесполезно:(
заранее спасибо за ответ
@@alexandermalinin7411 В другом сценарии собираю только текст (статью) со страницы.
Что собирать зависит от скрипта, который Вы задаёте в теле модуля
мне надо на одном сайте сделать поиск, но поиск с рекапчей гугл, как в make заполнить поле для поиска и пройти рекапчу?
через make не получится, тут нужен скрипт, и то не факт, что пройдет
круто. а парсить после авторизации сможете, то есть зайти в с аккаунт и там систематически парсить ?
@@sergstrue362 Не, всякие капчи-логин-пароли не могём
Не могу настроить Google таблицы. Сам блок работает а доступа к информации пишет " Информация зашифрована у вас нет доступа к информации". В самой программе таблицы я доступ открыл, таблицу составил, блок её находит и считывает но она зашифрована и я не могу её посмотреть. Вам спасибо! Много нужной и полезной информации. Может подскажете где моя ошибка?
А Вы не проболи созадть новую таблицу и её привязать? А так я не могу по описанию сказать, в чём там проблема, извините.
И во благо!
много информации не показано. куда, что пишем.
Здравствуйте! А авито можно?
@@СергейПетров-ы9р2б Что на авито нужно?
Можно ли так работать с озон? Пробую он постоянно возвращает ошибку. Может с ним есть какие-то отдельные хитрости настройки?)
У меня нет опыта парсинга с озон, не могу сказать, к сожалению
ruclips.net/video/UmUnbl75W7E/видео.htmlsi=ALpD91NlCB8XMhJ5
Привет, как парсить не только текст, но и картинки с сайта?
@@vsgnezdilov Привет, картинки из кода страницы можно вытаскивать через регулярные выражения (regex)
Пыталась повторить, затык с регулярными выражениями, как в видео не получилось
@@Pavlina-xp4oh Вы можете выражения подбирать на regex101.com
Яндекс маркет можно спарсить?
зависит от данных, как много и часто нужны - чтоб стоимость была адекватной результатам.
1:10
2:53
3:06
7:10
Ильяс, добрый день! ПРедлагаю записать урок, где входящие новости с РСС канала проверяются через наличие новостей в конкретном ТГ канале. Если текст уникален на 75% - публиковать статью, в противном случае ничего не публиковать
@@shap3lessplay654 Благодарю за идею!
между прочим, об этом просят и реальные заказчики, похоже, актуально.
Все вот эти Ваши пропуски объяснений, типа у меня тут зарегистрировано, сами разберётесь приводят к тому что разобраться с Ниньдзей не получается и дальше всё застопорилось на втором модуле.
Благодарю, учту в следующих видео, не намеренно.
Для вас загрузил видео про соединение ScrapeNinja, гляньте
А как парсить текст?
С сайта? Или откуда?
@@ai-iiru ну конечно с сайта.
Сделаю тоже самое на Python в 5 раз быстрее. Добавлю любые ваши хотелки.
@@sdv75 Благодарю за отклик!
Могу Вам написать в ТГ?
@@ai-iiru zula_zulovich
@@ai-iiruzula_zulovich
@@ai-iiru Пишите @zula_zulovich
Пишите zula_zulovich
Записать на таблицу.
Любой сайт так парсить не получится, не вводите людей в заблуждение. Большинство крупных сайтов имеют защиту от такого парсинга.
И лягушкой не получится?
Согласен, например паркинг букмекерских контор не даст.
Парсинг сайтов на данный момент это прямой путь к тому, что ваш сайт выкинут из поиска.
@@Funnyaishortsworld Немного не понял - как сайт, который парсим и другой сайт соединены? И как может сбор информации с сайта влиять на другой сайт?
Можете пояснить? Может, я чего-то не знаю, что обязан знать в этих случаях?
@@ai-iiru дело было так. У меня был неплохой по посещаемости сайт про домашних животных. Статьи были уникальные, сайт хорошо ранжировался. И вот я решил подразбавить его спаренными с другого сайта статьями. Мало того, я не просто парсил, я ещё и прогонял текст через чат gpt. Через пару месяцев сайт полностью вылетел из поиска Яндекса за не уникальный контент. Я спешно удалил все спарсенные статьи, но увы, сайт так и не попал в поиск.
Поработайте с дикцией, слушать очень сложно
А как ютуб парсить?
@@seo38com Что Вы хотите собрать?