Google таблицы.Как импортировать данные с сайтов или что такое ImportXML. Урок 11.
HTML-код
- Опубликовано: 16 окт 2024
- В этом уроке вы узнаете как пользоваться функцией IMPORTXML в гугл таблицах, функция очень многофункциональная
мы рассмотрим базовые ее понятия и принципы работы. Функция IMPORTXML позволяет вытаскивать данные
с сайтов посредством Xpath запросов.
Смотрите до конца, будет интересно.
Станьте спонсором канала,. Подробнее:
/ @stmsolution
💰 Поддержать монетой:
🥇Bitcoin - bc1q5ve3p8zmcm6z9tapts6padpmnvv572tsujukad
📲 Через кнопку "Спасибо"
👍 Или станьте спонсором канала!
Мой паблик в Telegram - t.me/stmsolution
Ссылка на таблицу - goo.gl/J5KFXA
Кто хочет побаловаться с ней, просто создайте себе копию.
Что такое Xpath - ru.wikipedia.o...
Поддержи автора канала пальцем в верх и подпиской это для
меня лучший стимул продолжать развиваться.
Буду рад видеть вас в моей группе ВК - public1...
Twitter - / stm_solution
Мой сайт stmsolution.ru
Еще больше видео на моем канале / @stmsolution
Большое спасибо за информацию! Благодаря вашему видео, я сократил время разработки проекта с 3 месяцев до 1 дня)
Огромная благодарность за ваш труд! Очень чётко, полезно, доступно, сама суть)
Спасибо,что смотрите.
Благодарю за то что уделили столько времени и создали эти чудесные уроки
рад что полезен. Можете поспособствовать в развитии лайками и репостами в соцсети
Как долго я искала такой канал с этим описанием. Побежала просматривать все ваши видео))) Супер. Спасибо огромное.
Спасибо)) То то я смотрю просмотры повалили вверх))
@@stmsolution это все Я 😂😂😂😂🎶
Супер! Какая красота! Жизнь стала в разы легче:))))
дякую все досить гарно пояснили!
Рад помочь.
не сразу, но получилось. спарсил номенклатуру с ценами. Класс. Лукас Автору!
Рад помочь
@@stmsolution подскажите плиз, а если в классе два одинаковых тега, а нужно получить значение первого?. А так возвращает два значения по очереди(((
@@Denis-sbazaby [1]
@@stmsolution Направьте пожалуйста. Куда эту [1] устанавливать в функции?
@@alex_berton название тега а 1 это его номер
Ты просто лучший 👍👍👍👍👍🌹🌹🌹🌹
Огромное спасибо за ваши видео! Не совсем понятно обновляется ли информация в таблице если меняется содержимое сайта, и если нет то как сделать чтобы обновлялась! Ещё раз спасибо! =)
Столкнулся с проблемой... Забываю ставить лайки, так как слишком интересно😂
Обновляется, со временем)) главное что интересно, хотя лайки тоже хорошо))
@@stmsolution Видео класс, после просмотра сразу возник аналогичный вопрос. Спасибо что дали ответ!)
А оно не может не обновляться, так как ссылается не на число, а на "адрес числа". Если по этому "адресу" поселить другое число, функция укажет на него)
Спасибо за наглядное видео, очень пригодилось. Долго искал способ получения курсов акций и именно это видео помогло
Добрый день, а вы с какого сайта берете котировки?
@@ИльяЛунёв-и1т kase.kz
Вопрос как кроме названия фильма можно добавить в таблицу год выпуска или время фильма например ??
Спасибо за ваш труд, очень полезные уроки.
Добра тебе дружище!
Здравствуйте. Скажите пожалуйста, почему с сайта tradingview не получается получить данные с помощью функции IMPORTXML? После того как напишу формулу вместо цифры появляется тире (-)
Супер! класс))) теперь я знаю зачем эта хрень в браузерах F12)))) а главное понял как это применить,спасибо за видео и я погнал кодить)))))
Обращайтесь.
Добрый день. Спасибо за полезное видео! А можно ли вытаскивать с сайта не всю таблицу, а только нужно мне значение (ячейку, строку или столбец)?
По ссылке ваша талица не работает , причина в том что на исследуемом сайте поменяли название Class если в формулу талицы подставить новый класс то все заработает. И еще если копировать класс или всю формулу из ячейки в новую ячейку то формула не хочет работать . Связано это с тем, что в новом Классе есть лишний пробел и при копировании он исчезает , если добавить пробел то все работает.
Ничто не стоит на месте)) даже верстка сайтов))
Добрый день! Спасибо за видео! Подскажите пожалуйста, возможно ли excel таблицу из onedrive автоматически подтягивать в гугл таблицу...?
Круто! Подписался...
Доброго времени суток. Огромное спасибо автору за его труд, многому научился из его уроков, однажды лично мне помог с решением вопроса, именно с его видео когда-то случайно просмотренного для меня открылся функционал гугл таблиц, до этого я думал, что это просто квадратики в которых можно прописывать текст, менять их цвет и т.п))))) как оказалось это мощнейший инструмент. Хочу обратиться за помощью к автору канала. Не получается от слова "совсем" работа с импортом данных с сайтов... 1000 раз пересмотрел ролики, читал инфу из др источников... либо "ошибка"..либо "нет данных для импорта"... и т.д. Извините, виноват, из деревни, туповат...))))) Спасайте))
Нужна таблица и конкретное описание проблемы.
@@stmsolution как обсудить этот вопрос в личке?
круто, большое спасибо! Кстати когда страница на сайте подгружается по мере скроллинга, и адрес формируется как page1, page2 и т.д. а не с помощью пагинации,
тогда просто создается новый запрос, с окончанием page2,3,4... в ссылке. А как можно это автоматизировать? есть ли конкатенация в хмл запросе? цикл
Спасибо за видео, сразу возникли идеи и мысли, таким способом можно парсить контактную информацию с сайтов объявлений ?
врядли, такие сайты закрыты от парсинга
Привет. Добавленные таким образом данные обновляются? То есть, при изменении того списка на сайте, будут ли обновлён список фильмов в таблице?
Минут через 15-20 обновится
Добрый день! Очень полезные видео.
Сейчас в Excel я использую функцию - Получения внешних данных/выполнить веб-запрос
Далее подставляю iqy - файл и всё отлично работает.
А в Google такая функция присутствует? Спасибо.
Это работает только с a hrev? У меня не получается адаптировать ваше видео под вот такую штуку
сможете подсказать?
Здраствуйте! Пробую спарсить сайт мебельной фабрики, получается частично. Данных на странице больше 20, но парсятся только первых 9. В чем может быть причина?
Спасибо за урок!Под рукой ПК не было попробывал с айфона,тут конечно бяда с просмотром кода страницы и соответственно хрен найдёшь нужную строку отвечающей за тот или иной блок на сайте!Почемуто только 2 позиции получилось вытянуть из 50 указанных на странице.
А как примерно будет выглядеть запрос чтобы вытянуть цену ,картинку изображение?
Доброго времени. Спасибо за видео. Не подскажите, как сделать, что бы выводились не в столбец, а в строчку?
Пропишите в начале формулы функцию transpose
@@Stin_Stin =transpose(importXML(H8;"//div[@class='breadcrumb']/a"))
@@stmsolution не пойму, отработала функция в 9 строчках, а далее выдала, Ошибка: загрузка данных. Как не кручу-верчу, а перестала загружать данные
@@Stin_Stin тут без ссылки на таблицу не разобраться.
@@stmsolution docs.google.com/spreadsheets/d/19_V5KCdb-xpfr4UkHkuk5WYP7lAnYGll415HTEfwnMA/edit?usp=drivesdk взгляните пожалуйста
подскажите эта функция работает для Фейсбук , мне нужно получить количество участников из списка групп, название описание группы есть количество участников не получается.?
нет, для фейсбука отдельно парсеры писать надо
ДОБРЫЙ ВЕЧЕР! СКОЛЬКО БУДЕТ СТОИТ ИНТЕГРАЦИЯ САЙИА С ТЕЛЕГРАММ КАНАЛОМ ? ПРАЙСА НА ТЕЛЕФОНОВ НАДО БУДЕТ ОБНОВИТ
Можно также снимать инфу с веб страницы где нужно вводить логин и пароль в свой личный кабинет. Т.е снимать свои показатели?
Привет. Крутой урок. Вопрос: на сайте, с которого беру данные, идет несколько ссылок "а", соответственно выводит все данные, а не только те, которые нужны (Название и почту). Можете подсказать, что указать, чтобы выбирались данные только названия.
Надо смотреть куда данные выводит, если в разные ячейки то через функцию index,с указанием нужного столбца, если в одной ячейке то через регулярные выражения, но тут 2мя словами не объяснишь
Возможно ли сделать что бы если на первой странице поменялись фильмы - в таблце они тоже должны поменяться?!
Доброго времени суток. Можете подсказать: есть сайт биржи есть значения продукта покупки и продажи, как импортировать эти значения в таблицу отдельно в ячейки? Да и чтобы значения обновлялись по времени или по нажатию.
Тут надо через скрипты , urlFetchApp
Здравствуйте, не подскажите как данные из Гугл таблицу загрузить на сайте вордпресс количество строки 1000000 различием способом попробовал не получается
у вордпресса есть апи, через него загружают
Классный фильм "Хотдог"
excel не видит функцию, что делать?
Как функция importxml() вводится в русскоязычном excel.
На английском языке excel не распознаёт, не подхватывает даже в автомотическом дописывании функцию.
А там и нет аналогичной
@@stidrp похоже ты этому рад?
Что делать если в table и list нет нужного мне (Текста) Возможно ли чтоб число обновлялось при добавлении туда серии? Например было 100 Серий и через не которое время вышли еще серии и чтоб похаживало в отдельном столбе Я хочу чтоб при вышедшей серии или части. Число обновлялось. На пример я прочитал. Записал с какой части я закончил и с право от меня похаживает сколько частей уже вышло.
Добрый день!
Подскажите правильный код для получения данных цены из таблички. На примере neva-flot.ru/arenda-teplohoda-spb/teplohod-karaidel/ Например первая цена в табличке 10000 руб. Как ее вытащить, интересует именно этот код (...) =IMPORTXML("neva-flot.ru/arenda-teplohoda-spb/teplohod-karaidel/"; "...")
Пробовал копировать Xpach, но экселе пишет, что нет данных, что нужно указать? Помогите пожалуйста.
Большое спасибо. Очень полезное видео.
Попробовал повторить на другом сайте пишет "Нет данных для импорта".
Как можно с этим справиться?
Проверьте тянет ли вообще что либо, вытяните все ссылки, у сайтов может стоять защита
а как прописать формулу, если нужно вытянуть не все фильмы, а например третий в списке?
Добрый день! Спасибо! Подскажите, пожалуйста, а можно ли google-таблицу перенести в файл xml?
Да, можете сохранить как xml файл, на сколько помню
А можно фото скачать обратно с таблицы и чтобы качество сохранилось ?
при таком импорте будет 1 раз информация выведена? или будет обновляться? с сайта?
Через некоторое время подгружает снова, но точно через сколько решает гугл
@@stmsolution А есть ли возможность не ждать решенья Гугла, и принудительно запрашивать обновления списка фильмов допустим 1 раз в час?!
Пока не применял, но спасибо)
Решил реанимировать часть видео сервисов от Mediacentr iconbit , в нем плагины формата IMC.zip . Внутри архива zip два файла Service.XTL и Service.lua которые требуют редактирования парсера и пр. Видео на эту темпу можете сделать? А то в слепую все делаю методом тыка.
Мне кажется тут обычными формулами не сделать
@@stmsolution с xml я разобрался но с файлом lua засада полная.
Большое спасибо!
Но что делать если, к примеру, нужно вытащить все боевики со всех 10+ страниц? Что делать если таких страниц больше тысячи?
Буду благодарен за ответ
Учиться писать скрипты и юзать urlFetchApp, по другому никак, формула на такое не рассчитана
привет, у меня есть вопрос скажите мне, как можно импортировать (+ - * /) при импорте в функции importxml. Как они могут быть вовлечены?
Опишите подробнее задачу,не совсем понятно что хотите
Добрый день! Нужно было импортировать числовое значение с сайта (благодаря этому видео, получилось), и теперь это значение нужно умножить на данные таблицы. Подскажите, пожалуйста, как это сделать? Заранее благодарен!
Сошлитесь на ячейку с результатом импорта в данных таблицы
@@stmsolution когда ссылаюсь на ячейку с результатом, выдаёт следующую ошибку: «Аргумент Параметр 2 в функции MULTIPLY поддерживает только значения типа “число”. Тип значения “132.05” - текст, поэтому его нельзя привести к типу “число”»
После 132 должна быть запятая а не точка
Круто! А акцизные марки алкоголя так можно проверять? Марки в одном столбце, а информация с сайта ЕСПАР в другом
Надо изучать конкретный сайт. Может и можно
Здравствуйте! А как сделать чтобы по готовому списку пользователей Инстаграм узнать информацию о профилях ( количество подписок, подписчиков и публикаций)
С Инстаграм не работал, скорее всего тут надо будут скрипты, обычной формулой не ввтянуть
@@stmsolution спасибо за ответ
Красава
Спасибо
Нужно извлечь информацию из сайта. Но есть проблема. Информация появляется только тогда, когда провести авторизацию на сайте. Как это можно сделать?
Спасибі за урок. Чи можете показати (чи написати формулу) на прикладі витягу ЦІНИ з сайту?
Какой сайт? что именно за цену вам надо?универсальной формулы нет, надо конкретные случаи разбирать.
Прикольно. Спасибки. Но... Попробовал и не вышло, хотя html достаточно знаю. На моей таблице формула из примера работает. Значит дело в моих сайтах или в запутанности классов, которые не верно выбираю. Пишет нет данных обычно. Сайты да, с логином, но нужные страницы просматриваются и без логина. Так всё же, функция не может стянуть данные в подобном случае? Где авторизация, там не работает? Например www.curseforge.com/ и www.speedrun.com
Да, с логином не вытянешь, тут только через скрипты
Ок, буду копать в сторону скриптов, спасибо.
Подскажите пожалуйста, а сайты как то могут негативно реагировать на данный скрипт?
Как можно пообщаться ближе с Вами?
это не скрипт во все, сайтам все равно, если есть защита, то ничего вы не вытянете, а если нет то все ок
@@stmsolution в двух словах попробую объяснить: по скрипту сделал что при вводе ссылки в ячейку с сайта авито вытягивается некоторая информация. Вчера несколько раз повторил и сегодня мой йп заблокировали. С чем это может быть связано?
@@НовостройкиПермиДругойриэлторЮ это вряд-ли связано с этой формулой)) тут искать не стоит
@@stmsolution благодарю за ответы. формула огонь
На страничке код видимо изменился, там нет теперь content title, а что-то длинное и страшное вместо этого, не получается сделать по примеру ((
Ничто не постоянно))
Очень громкая музыка, перебивает голос:(.как можно отключить фоновую музыку?
К сожалению никак, она наложена вместе с голосом, в будущих видео уже поправил))
а может такое быть, что сайт защищается от копирования? Уж я и так и эдак пытаюсь вообще хоть что-нибудь вытянуть и все получаю сообщение, что нет данных для импорта
Конечно, для этого люди парсеры пищут
А что делать, если нужно спарсить фильмы не с одной страницы, а со всех страниц? Адрес то уже у каждой страницы свой. И по 100 раз (если 100 страниц) вбивать формулу- ну такое себе. Есть некая функция, которая бы както автоматизировала сбор данных со всех страниц?
Как же раздражает постоянно всплывающее напоминание "подписаться". Тем самым лишь наоборот отторгает от подобного желания
Учтем))
@@stmsolution благодарю ;-)
Статистика говорит обратное
Привет делал все как в видео выдаёт ошибку сентактическую?
Напишите пожалуйста кто знает как из Tradingview импортировать цену
Скорее всего писать свой парсер, обычной формулой не взять.
Здравствуйте! У меня такая проблема: сайт с которого мне нужно взять информацию, спрятан под впн, который у меня обеспечивается программой. Можно решить это, или гугл таблицы не смогут использовать мое соединение для импорта данных?
Та по идее могут, они же работают через свои сервера,главное что бы сайт был без логина и пароля
@@stmsolution А если под авторизацией, трансфер не сработает?
Нет
Не сработает формула импорта
почему не каждый сайт получается спарсить?
Потому что все сайты разные, какие то стоят с защитой, какие то формируются при загрузке страницы и тд
@@stmsolution спасибо за ответ
как вытащить наличие стройматериалов с сайта леруа uc-store-stock?
Приведите пример, что не выходит?
здравствуйте можете помогти сделать ссылку xml с гугл таблицы чтобы всегда было актуальное наличия которое я буду обновлять в гугл таблице
???
Может и могу, ли если увижу с чем работать, а может и нет
Здравствуйте, нужна помощь по данному уроку. Вы можете мне помочь? Если да, то куда вам можно написать скинуть скрины?
ВК, телеграм, пишите, я там есть
привет, подскажи возможно ли используя эту формулу настроить следующее. У меня в таблице колонка с названием организаций следующая их ИНН . на сайте www.audit-it.ru или другом подобном вставив ИНН можно получить данные о кампании . Как настроить чтобы данные о компании выводились в оседанию колонку автоматически?
В одну ячейку сайт в другую номера и потом объединять с помощью concatenate, после это все в importxml или importhtml, но не балуйтесь с этими формулами сильно, не больше 500 запросов, дальше будет долго грузить.
@@stmsolution большое спасибо за ответ, я был бы вам бескрайние благодарен если бы вы прислали ссылку на документ с примером.
Примера конкретно нет, давайте лучше то что у вас есть возьмём и сделаем. Есть у вас уже какая то таблица?
@@stmsolution Да вот наша рабочая таблица docs.google.com/spreadsheets/d/1qSIws07hPRZpHvNlEw2NYdofLReskpI4k7Eslotl7Gs/edit?usp=sharing на странице "Клиенты" хотелось добавить информацию о каждом клиенте основываясь лишь на его ИНН. Может быт вы ещё опытным взглядом посмотрите на всю таблицу и посоветуете что можно в ней поправить, улучшить.
@@sergeieremin1773 дайте полный доступ
подскажи как вытянуть цену биткоина с биржи бинанс , и что б данные обновлялись через 10 сек., такое возможно?
Видел когда то такое, но так что бы вытянуть и обновлялось через 10 сек, не знаю как.
Привет))) Нашел ответ на свой вопрос??? А то сам сижу сейчас ищу)
Я пытаюсь вставить курс долара. но пишет "не удалось обработать запрос."
Здравствуйте, все понятно вот только пробовал делать, не получается так как мне нужно сделать, не понятно с тегами сайта.Не могли бы Вы сделать или помочь?
Более подробно опишите, в чем вопрос?
@@stmsolution Сложно тут все описать, в двух словах: есть сайт цены позиций на разных страницах сайта и обновляются каждый день, хотелось бы чтоб открыть гугл таблицу все цены видеть не листая страницы и не сортируя цены.
Ну тут надо точно знать адреса всех страниц и в одном столбце прописать все эти адреса в другом ставить саму формулу импорта с ссылкой на этот столбец
@@stmsolution А период обновления цен как выставить? Например раз в сутки.
@@alex_berton никак, оно само обновляет
Есть ли способ получать данные с помощью importxml со страниц которые требуют ввод логина/пароля?
Нет, тут только скрипты нужны. Проверял.
@@stmsolution Жаль.. По скриптах не могу в сети ничего по этой теме найти, буду благодарен за любую информацию. спасибо!
начинается с 1:20 минуты
Здравствуйте, использую данную функцию в своей таблице, долгое время работало всё как надо, но в последнее время иногда таблица не видит сайт, при том что на сайт я зайти могу и вся информация там отображается, но в ячейке пишет: невозможно получить доступ к сайту. Может было у кого... как это лечится?
уменьшайте количество импортов, гугл специально режет єтот функционал , в рамках защиті от парсинга и трат ресурсов
@@stmsolution СПАСИБО!
span класс можно как-то вытащить? Можно ли весь сайт так по определенным параметрам спарсить?
Конечно, если сайт позволяет это.
@@stmsolution а можете на примере битрикса это показать?
@@maratbiktashev я не дружу с битриксом и там это не прокатит так как нужна регистрация, а это только через скрипты
@@stmsolution Понял. А то ковырял ковыряд битрикс. Если кто-то знает как сделать - напишите в комментах плз.
@@maratbiktashev это все через скрипты, urlFetch() поищите в поиске. Оно позволяет вытягивать все HTML данные с сайта + возможность прописать логин и пароль
можешь сделать рок по переносу информации из Сбис торги в таблицу эксель или гугол таблицу , чтоб автомотически переносилось информация
Что бы что то такое показывать нужна 1с, а её у меня нет, платная же + не видел что бы из 1с автоматом все в ехел вытягивали, надо сначала создать отдельный файл ехсел , настроить его как вам надо а после выгружаете из 1с нужную информацию в другой ехсел файл , после копировать вставить, все, я так всегда делаю на работе.
Доброго времени суток! Столкнулся с такой проблемой, импортирую ссылки c сайта примерно такие же как у Вас на видео, к примеру "/link/link/link/" и мне перед ними необходимо добавить собственно название сайта, готовая ссылка в таблице должна получится в таком виде "www.site.com/link/link/link/" , и это объединение необходимо производить во время импорта ссылок, чтобы в ячейки сразу записывалась готовые(объединённые) ссылки. Я то их могу объединить сделав что-типа такого "www.site.com"&"/link/link/link/" и потом сделать проводку, но хочу чтобы данные записывались уже в готовом виде. Пробовал делать вот так "www.site.com"&IMPORTXML("www.site.com/search"; "//a[@class='имя класса']/@href""), на выходе получается то что надо, но отображает только первую ссылку с данным классом хотя и объединенную. Возможно вы сталкивались с подобной задачей?
А вы листали в низ листа, может все правильно, но оно просто выводит через 500строк следующую позицию.
Так же советую посмотреть это видео ruclips.net/video/KPIX95LmxFo/видео.html
@@stmsolution Если делать через "CONCATENATE", то он объединяет все ссылки в одну CONCATENATE("www.site.com"; IMPORTXML("www.site.com/search"; "//a[@class='имя класса']/@href"")). Получается в начале добавляет "www.site.com", а далее идут в одной строке все импортируемые ссылки "www.site.com/link1/link1//link2/link2//link3/link3/" и так далее. А необходимо:
www.site.com/link1/link1/
www.site.com/link2/link2/
www.site.com/link3/link3/
Нашёл решение может кому пригодиться ArrayFormula("www.site.com"&IMPORTXML("www.site.com/search"; "//a[@class='имя класса']/@href"")). Импортируемые данные будут объединены с необходимой вам строкой и выведены в таком формате:
www.site.com/link1/link1/
www.site.com/link2/link2/
www.site.com/link3/link3/
Отлично, буду иметь в виду
Пришел послушать музыку, а тут парень говорит про какой-то импорт сайтов.
Сам в шоке!! Чё за хрень такая))
Более сложный подход, в экселе было решение проще где ты вставлял ссылку и сайт отображался в экселе где самому можно было выбрать модуль того откуда загружать данные
В Экселе так , здесь так)) кому что нравится))
Музыку ещё громче в следующих видео
в 2020 не работает, пробовал тэги уровнем выше названия и так и сяк вписывать, но в таблицу импорт не идёт. Пробовал полный тэг, потом часть тэга - ничего, некоторое время формула начинает работать и в ячейке появляется Loading но потом выходит #N/A
Спасибо. Все получилось, но очень нужны страницы 2 и 3 (ну дальше, если есть) Как?!
Тмпортируйте их как ссылки и сошлитесь на результат импорта
@@stmsolution спасибо за ответ, но можно чуть подробней? Пожалуйста... Я на Вашем канале вообще впервые для себя таблицы открыла
@@valentinagaranina7927 ну так же по ссылке как в видео только другой запрос сделайте , на пример на вывод всех ссылок страницы и там увидите ссылки на 2,3,4 страницу, дальше просто найдите див который их содержит и вытащите, а потом сошлитесь обычной формулой импорта на уже вытащенные ссылки, если не получится, пишите в группу в телеграм, с примером того что у вас есть
@@stmsolution спасибо. Буду пробовать.
Мне нужно импортироваь данные с сайта по игре Albion online ,а именно рыночную стоимость того или иного продукта и для показа цены нужно указать из списка город ,в котором будет совершена покупка.
Скорее всего вам надо писать парсер
Ну если альбион то там уже есть парсер который из игры ловит пакеты и подгружает данные все в таблицу
Но я столкнулся с проблемой что через время, хотя там в некоторые но частые временные промежутки запрос слитает и пишет #Н/Д тем самым нужно каждый такой запрос копировать удалять и вставлять что очень тяжко когда много позиций
есть по сложнее сайт.... никак не могу достать число 0.91, там через скрипты все (можете подсказать?) {"actSkuBulkCalPrice":"0.9","actSkuCalPrice":"0.91"
для начала надо ссылку на таблицу , что бы понять что вам надо и сайт откуда тянуть
@@stmsolution взял другой лист -
а можно ли импортировать таблицу из сайта?
importhtml. Но это если на сайте защиты нет
Здравствуйте. А как сделать несколько запросов в одной строке? =IMPORTXML("allegro.pl/oferta/dysk-twardy-4tb-hdd-sata-3-do-monitoringu-nas-7200-8616919126";"//h1[@class='_1sjrk'] | //div[@class='markdown-text']") в данном случае второй запрос выдает в другой ячейке, а нужно чтобы все было в одной. Заранее спасибо за ответ.
Попробуйте через точку с запятой проставить несколько формул и поместить их в фигурные скобки
ломаю голову, почему не могу вытянуть таким макаром данные с computeruniverse, что за фигня, может мне кто подсказать в чем проблема и как решается? isurl видит ссылку, статус истина, а вот через importxml выдает что ссылка не действительна
Возможно на сайте защита стоит, попробуйте вытянуть весь контент через //*
@@stmsolution все перепробовал, на минуту у меня результат был, я понял, что причина в редиректе и данные приходят с запозданием минут на 10-15, интересно как обойти в таком случае редирект, может нужна какая то родительская ссылка, с newegg тянется без проблем вообще
@@nocap9762 не, вам надо переходить на скрипты, при чем скорее всего не гугл скрипты, а с более сильным функционалом и поддержкой библиотек работающих с редиректами, python например
@@stmsolution короче я разобрался, подгрузка данных из-за редиректа приходят, но с запозданием на 25-30 минут, т.е. недействительная ссылка становится рабочей и данные с неё приходят в таблицу, там конечно ещё не все продумано, но вообще за видео большой респект, теперь нет проблем с расчетом среднерыночной стоимости товара на разных источниках, позволяет сформировать ррц
@@nocap9762 обратите внимание что у Гугла квоты на эти формулы, максимум 20 импортов одновременно, больше будет подгружать долго
ролик хороший. музыка все забивает. сделайте фон тише.
сделал, но уже в других видео))
Добрый день, кто нибудь пробовал вытаскивать цены с сайта Метро?
уже не работает!!!!! поменяли класс. если в названии класса есть пробелы что делать?
Уважаемый автор помогите пожалуйста
Как сделать так чтобы копированные числа не заносились в одну клетку?
Не совсем понял вопрос, что у вас не работает?
@@stmsolution спасибо что отозвались!
По работе приходиться работать с цифрами. к примеру: 1 2 12 16 13 24 9 19 20 17 18 7 :как мне перенести эти цифры из другого редактора в экзель что бы каждая вставилась не в одну клетку а в двенадцать?
А если у меня на каком-то арийском языке вывели список фильмов, то что делать?
Посмотрите в сторону региональности вашей таблицы , проверьте в настройках, выставленно ли Москва или регион вашей страны
У меня ничего не получается на конкретном сайте. Можно к вам обратиться за помощью. Все скрины готов скинуть.
Конечно можно. пишите в чем проблема , постараюсь помочь.
А где можем пообщаться, чтобы наглядно видно было со скринами?
Вк заходи, посмотри через мою группу. Пиши.
Что то у меня не получается. Попробовал сделать на Пандао. Вот такая формула получилась =ImportXML("pandao.ru/category/elektronika/umnaya-elektronika/umnye-chasy-i-aksessuary"; "//div[@class'product-sales']/a") а в ответ #Н/Д. Что не так?
Пароль надо вводить на том сайте что бы попасть на страницу?
@@stmsolution Это надо вводить в формулу или просто зайти на сайт?
Это вопрос мой. Надо или нет вводить логин?
@@stmsolution а действительно, как в этой функции использовать сайты, в которых есть логин и пароль? это возможно?
@@Vazzzovsky нет, с логином через скрипты нужно пробовать
можно музыку еще погромче
Класс! Теперь вопрос.
Страница формируется из запроса:
mingkh.ru/rating/moskva/moskva/
Каждая строка имеет ссылку на страницу на которой находятся нужные данные
mingkh.ru/moskva/moskva/1027700430889/
нужно собрать в таблицу : Наименование, Руководитель, E-mail.
КАК? Как грамотно создать запрос?
Смотрите код таблицы, тяжело так сказать как правильно формировать
А если мне надо только первый фильм?
В конце xpath запроса пропишите [1]
Блин.. слишком простые коды на сайтах, если брать сложнее, то я не могу с ним справится.. не понимаю, что писать, где влепить скобку, где нет и тд..(
надо доки изучать, там много инфы
@@stmsolution можно ли как-то списаться с тобой? Для более подробного разговора, если можешь, конечно же)
@@РоманНиколаевич-ю1щ в описании канала есть инфа как мне написать
🐰🐰🐰
did not work on my case