Webscraping com python e scrapy tutorial! 10000 itens do mercadolivre em 2 minutos!

Поделиться
HTML-код
  • Опубликовано: 29 янв 2025

Комментарии • 175

  • @prognapratica
    @prognapratica  Год назад +1

    Quer aprender mais sobre webscraping?
    Link para curso com 70 aulas e mais de 12 horas de conteúdo.
    hotm.art/scrapy - Cupom 50% de desconto PROGNAPRATICA

  • @dnescodino
    @dnescodino 2 года назад +10

    Finalmente alguém explicando sem enrolação

  • @marcusgoncalves5316
    @marcusgoncalves5316 3 года назад +3

    Muito legal. Estou aprendendo a utilizar o scrapy e consegui adaptar seu vídeo a minha necessidade. Muito obrigado mesmo!!

  • @mateusfernando4659
    @mateusfernando4659 4 года назад +2

    Muito bom. Pra quem tá começando ter um tutorial de ponto a ponto assim fica mais incrível ainda.

    • @prognapratica
      @prognapratica  4 года назад +1

      Valeu Mateus. Que bom que gostou!

    • @dominiquemundodaaventura1659
      @dominiquemundodaaventura1659 3 года назад

      @@prognapratica olá! Estou querendo monta um sistema usando a API do mercado livre. Como podemos conversar? Meu e-mail é breno@saratmodaindiana.com.br

  • @ianbarddal7294
    @ianbarddal7294 5 месяцев назад

    Meus parabéns, amigo. Que vídeo, senhores, que vídeo!

  • @AndreNorbim
    @AndreNorbim 2 года назад

    Otima didática, boa explicação das tecnicas e das estruturas de dados aplicadas. Parabéns!

  • @luizsantosboo
    @luizsantosboo Год назад

    Vídeo perfeito! Parabéns pela didática.

  • @guilhermeoliveira9162
    @guilhermeoliveira9162 3 года назад +4

    Rapaz... vc não me deu uma luz, deu um farol inteiro para poder começar a trabalhar com o Scrapy!! Tô ansioso pelo seu curso man!! A hora que publicar sou o primeiro a ir debulhar kkkk vc explica de uma maneira bem simples mas direta! Tem muito vídeo por aí que só "enrola"! Parabéns e manda ver aí no canal que já tô inscrito e querendo ver mais hahahaha!!! Parabéns professor! :D

    • @prognapratica
      @prognapratica  3 года назад +1

      Hahah, Valeu Guilherme. Tô devendo o curso mesmo. Espero entregar antes do natal de presente pra vcs! Obrigado pelo feedback.

  • @FenixPSDG
    @FenixPSDG 3 года назад +1

    Nossa cara, incrível kaka, eu baixo a página do produto inteira, usando c# e filtrando com umas funções próprias.
    O meu demora umas 2 horas, pra baixar uns 3000 produtos(só com 1 threads pra não tomar acesso negado)

    • @prognapratica
      @prognapratica  3 года назад

      Fala, Guilherme! Que bom que gostou. O scrapy é um framework incrível mesmo.

    • @FenixPSDG
      @FenixPSDG 3 года назад

      Ele é realmente mais prático e genérico que as gambiarras que eu fiz, porém em questão de performance acaba sendo a mesma, o problema está em ter que acessar e baixar a página inteira de cada produto.
      Fiz um benchmark e os resultados foram similares, queria uma forma de baixar somente os dados necessários, mas fazer oque.

  • @leandrosl86
    @leandrosl86 4 года назад

    ótimo conteúdo, achei bem interessante a forma como utiliza o screpy. Eu já tinha ouvido falar, mas não imaginava que ele pudesse tão robusto assim.

    • @prognapratica
      @prognapratica  4 года назад +2

      Fala Leandro. Scrapy é fenomenal. Vou lançar um vídeo sobre como fazer um monitor de preços simples integrado com banco de dados (usando requests) e se o vídeo for bem faço outro com scrapy.

  • @ReDeveloperr
    @ReDeveloperr 10 месяцев назад +2

    Simples e funcional

  • @dtsleite
    @dtsleite 2 года назад

    Perfeito! Ótima explicação e direta!

  • @gustavorosas-dev
    @gustavorosas-dev Год назад

    Me inscrevi neste canal maravilhoso mais rápido que uma bala!

    • @prognapratica
      @prognapratica  Год назад +1

      Haha . Fala , Gustavo. Seja bem vindo!

  • @gabrielfaria7135
    @gabrielfaria7135 2 года назад

    Top, mas como eu faço pra pegar as vendas diárias de produtos usados abs.

  • @EarthIsNotaColdDeadPlace
    @EarthIsNotaColdDeadPlace 2 года назад +1

    Muito boa aula! Obrigado!

  • @casadomago2021
    @casadomago2021 20 дней назад

    Tem como fazer algum script que fica camperando uma promoção de um celular especifico, tipo s24 ultra em loop
    infinitamente até ela aparecer e me notificar de alguma forma? (o objetivo é ser um dos primeiro a conseguir comprar, pq normalmente a promoção dura pouquissimo tempo)

  • @gabrielrezende3808
    @gabrielrezende3808 Год назад +1

    Cara, muito obrigado!!!

  • @VeigarAnao.
    @VeigarAnao. Год назад +2

    Salve dragao guerreiro da programacao, entao mano vc viu que eles deixaram tipos diferente pras ofertas?
    class="promotion-item max essas classes variam o max pra "avg" "sup" ou "max", sabe como posso colocar os 3? pra ele ja coletar tudo de uma vez

    • @prognapratica
      @prognapratica  Год назад +2

      fala man. para coletar tudo você poderia usar "| "no xpath , por exemplo: //li[@class="promotion-item avg"] | //li[@class="promotion-item sup"]

  • @supratecmidia5650
    @supratecmidia5650 2 года назад

    esta aparecendo o seguinte erro na hora de gerar o json: Object of type method is not JSON serializable
    . Como posso resolver?

  • @alexandreferreira4126
    @alexandreferreira4126 2 года назад

    legal, mas queria pegar além desses dados do vídeo a descrição, avaliações e imagens dos produtos, mas não consigo

  • @antonioribeiro1988
    @antonioribeiro1988 3 года назад

    Parabéns! Muito bom o vídeo!!

  • @rafaelbonates7980
    @rafaelbonates7980 Год назад

    Excelente vídeo, estou aprendendo muito fuçando nisso. Mas quero pegar itens de uma categoria específica e não estou conseguindo, quando coloco o link da página já filtrada ele retorna uma página com os seis produtos mais vendidos e as principais buscas, fui indo pelo Scrapy Shell fazendo os Requests dos links usando xpath mas ele cai nessa mesma tela.

    • @prognapratica
      @prognapratica  Год назад +1

      Fala Rafael, blz? Recomendo que dê uma olhada nos outros vídeos de webscraping que tem aqui no canal que algum pode te dar uma ideia. Qualquer coisa, avisa

  • @metalpoets
    @metalpoets Год назад

    otimo video, ja configurei minha spider de varias formas, e só consigo varrer apenas duas paginas em qualquer site tem uma ideia do que seja?

    • @prognapratica
      @prognapratica  Год назад

      sem ver o seu código, fica complicado. pode ser que a sua regra da próxima página esteja errada.

  • @otto_15
    @otto_15 2 года назад

    ótimo video e otima explicação também, no documento do output, nao teria como formatar de um jeito que ficasse mais fácil de visualizar? Deixando cada produto com seu bloco e tals?

    • @dnescodino
      @dnescodino 2 года назад

      Cria um .csv ao invés de .json

    • @otto_15
      @otto_15 2 года назад

      @@dnescodino sim, to dizendo criar de uma forma que fique em blocos mais visíveis

  • @paulowarley
    @paulowarley 3 года назад +2

    Muito bom !! Tá melhor q o selenium kkkk

    • @prognapratica
      @prognapratica  3 года назад

      Haha. Selenium só é útil em alguns poucos casos.

    • @marcel1886
      @marcel1886 3 года назад

      @@prognapratica oque tu faz quando a pagina usa java script existe uma forma de "burlar" isso? eu vi que a lib youtube-search-python faz pesquisa mesmo o youtube utilizando javascript para carregar as pesquisa faz um vídeo sobre haha

    • @marcel1886
      @marcel1886 3 года назад

      cara selenium é mt lento só uso como ultima opção

    • @prognapratica
      @prognapratica  3 года назад +1

      Marcel, eles usam o sistema de busca do youtube mesmo usando a própria urllib. Eu fiz um site assim para usar a própria forma de pesquisa do youtube. dá uma olhada. ytbsearch.herokuapp.com. depois posso fazer um vídeo explicando como fazer pesquisa no google e youtube. vou anotar aqui!

  • @Henry_Nunez
    @Henry_Nunez 3 года назад +1

    Excelente video. Venezuela

  • @caiolahud8385
    @caiolahud8385 4 года назад +1

    Muito bom o vídeo. É possível usar essa mesma lógica para fazer web scraping de profiles no linkedin?

    • @prognapratica
      @prognapratica  4 года назад +6

      Fala Caio. Cara, o LinkedIn é mestre em evitar raspagem de dados. Cheio de CAPTCHA, eles também banem o usuário, então essa abordagem não funcionaria. A abordagem do vídeo serve apenas para alguns tipos de sites. Cada site tem uma forma de fazer o web scraping.

  • @alinemoraes4214
    @alinemoraes4214 3 года назад +1

    Olá! Fiz conforme a aula, mas estou com o erro: INFO: Ignoring response 403. Configurei o User Agent, ROBOTSTXT_OBEY = False e #AUTOTHROTTLE_ENABLED = True. Pode me ajudar?

    • @prognapratica
      @prognapratica  3 года назад +1

      Oi Aline. Cola o código em um gist e manda o link aqui. talvez tenha faltado o user agent

    • @alinemoraes4214
      @alinemoraes4214 3 года назад

      github.com/Allineredfox/scrapy-ml/blob/main/ml

    • @prognapratica
      @prognapratica  3 года назад

      apareceu 404 aqui. está público?

    • @prognapratica
      @prognapratica  3 года назад +1

      caso não consiga, poste no pastebin.ubuntu.com/

    • @alinemoraes4214
      @alinemoraes4214 3 года назад

      Colei várias vezes os links aqui, mas parece que o RUclips está retirando.
      pastebin.ubuntu.com/p/fyN2hSvg68/
      pastebin.ubuntu.com/p/rvM8JfX48S/

  • @jslima1976
    @jslima1976 3 года назад +1

    Parabéns pelo canal e conteúdos! Poderia me tirar um dúvida, quando você pega o link do anúncio, teria uma forma de abrir o anuncio um a um e ir pegando dados que estarão nesses páginas, por ex valor do frete vai estar na página do produto.. depois voltar para o for e prosseguir .
    Resumindo, existe uma forma melhor de pegar todas as ofertas e conseguir extrair dados que estarão dentro da pagina daquela oferta, usando esse exemplo que você demonstrou?
    Obrigado

    • @prognapratica
      @prognapratica  3 года назад

      Tem como Sim. A solução é para.cada link que extrair, fazer uma nova requisição. A parte do frete é um pouco mais complexa: tem que injetar nos cookies para que funcione.

    • @jslima1976
      @jslima1976 3 года назад

      @@prognapratica o frete dei como exemplo... poderia ser qualquer dado estático outra página, a dúvida é mesmo como andar nesse for e ir essas páginas de cada oferta. Tem algum exemplo no canal disso? Outra dúvida, você daria aulas sobre esses assuntos. Muito obrigado!

    • @prognapratica
      @prognapratica  3 года назад

      @@jslima1976 então. É que o frete não é estático. É dinâmico.

    • @prognapratica
      @prognapratica  3 года назад

      @@jslima1976 aula particular,vc diz?

    • @jslima1976
      @jslima1976 3 года назад

      @@prognapratica isso, gostaria de aprender a usar algumas ferramentas corretamente, sou iniciante em python, mas já programei bastante tempo em Delphi.

  • @regisstack2047
    @regisstack2047 3 года назад +1

    Quando acesso uma página, ela tem um load de carregamento de informação. tem como eu colocar um delay para começar a raspagem de dados? Me parece que são requisições ajax que acontece na lista, também a url não altera, então tenho quase certeza que seja ajax.

    • @prognapratica
      @prognapratica  3 года назад

      Se for Ajax ou vc pega e faz webscraping da api direto acessando o Json da resposta do Ajax ou carrega com scrapy+ Selenium ou scrapy+ splash ou só Selenium

    • @Pedro-fn7ye
      @Pedro-fn7ye 3 года назад

      @@prognapratica no caso do site viva real, estou tentando com o splash mas ele não carrega direito...continua em pagina 2 (e repetindo todos os links de imovel). Pelo selenium, ele muda de pagina mas nao muda os imoveis. Então não estou conseguindo fazer o scrapping alem da pagina 1

    • @prognapratica
      @prognapratica  3 года назад +1

      Pedro, esses sites de imovel são complicados mesmo. Nem sempre é possível pegar todos os dados. Depois posta no pastebin o código que usou e coloca um link aqui.

    • @prognapratica
      @prognapratica  3 года назад +1

      Na verdade vc nem precisa de Splash ou Selenium. Dá pra fazer tudo com requests ou scrapy. Faça injeção nos request headers colocando o x-domain: www.vivareal.com.br

    • @Pedro-fn7ye
      @Pedro-fn7ye 3 года назад

      @@prognapratica Obrigado pela resposta rápida! Só vi hoje que tinha respondido! Coloquei em
      gist.github.com/pedro1407/85aa09faa85fd289e70e7cfb486656c7 comentei a linha que usa o lua script, mas deixei para ver que também não resolveu meu problema.

  • @marcobispo4877
    @marcobispo4877 3 года назад

    Muito bom ! E se eu quiser detalhes de cada produto, abrindo a pag individual de cada um como eu faço ?

    • @prognapratica
      @prognapratica  3 года назад

      Basta você fazer um yield scrapy.Request(Linkdoproduto, callback=outra função)

    • @arthurparis6001
      @arthurparis6001 3 года назад

      conseguiu fazer irmão?

    • @arthurparis6001
      @arthurparis6001 3 года назад

      @@prognapratica não entendi. Quero pegar o numero de vendas. Pra isso, tenho que entrar no link do anuncio e pegar a classe e o span. Esses são a classe e o span, respectivamente, //div@class="ui-pdp-header__subtitle"]' //span[@calss="ui-pdp-subtitle"]//text(). Se tiver como entregar mastigado ficaria muito grato. Sou um desastre na programação, vou ser obrigado a fazer uma mentoria cntg. Desde já, obrigado. Tmjjj

    • @prognapratica
      @prognapratica  3 года назад +1

      @@arthurparis6001 manda um link do produto para eu testar

    • @marcobispo4877
      @marcobispo4877 3 года назад

      @@arthurparis6001 Pior que não, sou bem nub cara, vcs tem um grupo do zap ?

  • @agnaldogabriel
    @agnaldogabriel 3 года назад

    Como faço para deixar ele raspar de tempos em tempos exemplo a cada 2 horas atualizar os dados?

    • @prognapratica
      @prognapratica  3 года назад

      Tem isso no vídeo do webscraping com python e requests.

  • @Antonio-hz2np
    @Antonio-hz2np 3 года назад

    É preciso saber HTLM pra fazer esses spiders no scrapy? ou só o python ?

    • @prognapratica
      @prognapratica  3 года назад

      Fala Sauron. Tem que entender um pouco de html sim. Mas só o básico. O que são tags , , e um pouco de xpath também( uma maneira de navegar entre essas tags e acessar os valores)

  • @igor-tcruz
    @igor-tcruz 3 года назад +1

    Muito bom.

  • @shoprgcarmarcos
    @shoprgcarmarcos Год назад

    Fala mestre, estou tentando seguir o seu tutorial, porém queria realizar ele dentro da aba de anúncios do painel do próprio vendedor. Tenho uma base de anúncios que precisava monitorar com uma frêquencia, porém eu to esbarrando na autenticação a todo momento. Como poderia burlar isso? Por se tratar de uma aba que necessitaria de um login teria como realizar o Scraping?

    • @prognapratica
      @prognapratica  Год назад

      Fala nobre, desculpe a demora. Tem como sim. Uma opção seria: usar o selenium para gravar os cookies de autenticação ou o profile do usuário que fez login e utilizar isso nos outros acessos. A solução é: como o mercadolivre sabe que vc tá logado e que não precisa te autenticar ou confirmar o telefone/email?É por aí. O scrapy é bom para usar em projetos que demandem maior volume de dados, se é uma simples automação pode ir de selenium mesmo.

  • @williammendes2590
    @williammendes2590 2 года назад

    Cara que vídeo bom.
    O Ponto é que não retornou nenhum item. Poderia me ajudar?

    • @prognapratica
      @prognapratica  2 года назад +1

      Fala Willian. Rodei o script aqui e ainda está funcionando. Veja o vídeo outra vez, fique ligado nas identações dos loops e nos xpaths.

  • @tonymarcel1608
    @tonymarcel1608 8 месяцев назад

    Mano eu sei o basico de programação em phyton , mas se eu comprar seu curso eu consigo ficar bom mesmo so tendo o basico ?

    • @prognapratica
      @prognapratica  8 месяцев назад

      Fala, Tony, blz? Quando eu comecei a estudar scrapy sabia só o básico. Variáveis, loops, funções. Nem objetos sabia direito. Mas aprendi muito e por isso passei esse conhecimento da forma mais progressiva que eu pude. Pode testar lá, você vai ter acesso ao meu email, então poderá tirar dúvidas de qualquer aula ou tópico. Caso tenha alguma dificuldade, entra em contato comigo.

  • @brunoviana3616
    @brunoviana3616 2 года назад

    o site ta bloqueando........nao consigo usar o scrapy shell, alguem sabe como resolver?

    • @prognapratica
      @prognapratica  2 года назад +1

      aqui ta normal. vc alterou o user agent e o robots ?

    • @brunoviana3616
      @brunoviana3616 2 года назад

      Consegui, muito obrigado.
      Vc tem mais conteúdos sobre scrapy?
      Tô tentando que ele envie o resultado por email...mas ainda não consegui
      Parabéns pelo video

  • @crystian7016
    @crystian7016 Год назад

    Eu fiz o teste ontem no ML e pegou tudo corretamente e em ordem. Hoje não está pegando em ordem e aparecem alguns itens de páginas seguintes. Teste com página inicial. Tem ideia do por quê?

    • @prognapratica
      @prognapratica  Год назад

      Provavelmente ou o mercado livre baniu seu IP ou a sua regra de próxima página não é válida. Tem que dar uma olhada nos erros.

    • @crystian7016
      @crystian7016 Год назад

      @@prognapratica Código idêntico ao seu. Se fosse ban acho que eu não conseguiria fazer mais nenhum tipo de conexão. Tirei a opção de todas as páginas pois não me interessa no momento. Continuei os testes só com a primeira página de ofertas. Aproveitando... Que comando usar exatamente pra pegar os links das imagens nesse caso?

    • @crystian7016
      @crystian7016 Год назад

      @@prognapratica Eu até consegui referenciar o link e pegar, porém dá o mesmo resultado do primeiro item pra todo o restante da lista de produtos. Já tentei de várias maneiras. Tenho que estudar o framework certinho ainda.

    • @prognapratica
      @prognapratica  Год назад

      Tem bastante tempo que mexi nessa página já. Devem ter alterado o site então. Mas a lógica é a mesma. Pega o xpath da próxima página e navega para ela. Para pegar a imagem , a mesma coisa, pega o xpath da imagem e acessa o atributo src.

    • @crystian7016
      @crystian7016 Год назад

      @@prognapratica Mudaram o nome das classes só, que eu tinha corrigido. Não faz sentido eu ver tudo em ordem pelo inspecionar e na busca com Scrapy vir desordenado, a não ser que realmente fizeram uma detecção do bot e enviam dados adulterados pra requisição dele. Se isso for possível, aprender meios de evitar detecção é fundamental. Obrigado.

  • @W.Oliveiraa
    @W.Oliveiraa 3 года назад +1

    Tentei raspar os links da imagem do produto, me retorna uma lista de caracteres, e não o link, alguma sugestão para pegar a imagem do produto? e tambem uma duvida e sugestão (não encontrei nenhum tutorial nem video) ensinando a salvar os produtos no banco de dados, seja sqlite ou outro qualquer.

    • @prognapratica
      @prognapratica  3 года назад +1

      Fala Willian. Vc usou o mesmo código deste vídeo? Talvez tenha faltado algum detalhe. Mande o link do código colado no paste bin para dar uma olhada.

    • @prognapratica
      @prognapratica  3 года назад +1

      Sobre banco de dados, vc pode ver o vídeo que eu ensino a fazer um monitor de preços e lá mostro como guardar os dados no mongodb usando requests

    • @prognapratica
      @prognapratica  3 года назад +1

      ruclips.net/video/lZHtscVnuo4/видео.html

    • @W.Oliveiraa
      @W.Oliveiraa 3 года назад

      @@prognapratica Mas essa parte do link da imagem, não foi aplicado nesse codigo que você ensinou. foi um script que eu fiz, de acordo com os ensinamentos do seu video

    • @prognapratica
      @prognapratica  3 года назад +1

      Ah, verdade. Coloca no pastebin E cola o link aqui que eu dou uma olhada para ver se faltou algo

  • @oleodiesel3587
    @oleodiesel3587 3 года назад +1

    pessoal, sou leigo na web dev. sou acadêmico e queria de alguma forma obter dos open source database as informações que preciso sobre a descrição dos artigos
    não sei como colocar o Google colab para analisar o ERIC Banco de dados sobre artigos que descrevam inteligência em artigos recentes de 5 anos pra hj
    alguém tem conhecimento de fazer isso?

    • @prognapratica
      @prognapratica  3 года назад

      Não entendi o que você quis dizer com "obter dos open source database" e também não entendi sobre a parte "analisar o ERIC banco de dados". Se conseguir ser mais claro, acho que fica mais fácil de ajudar.

    • @prognapratica
      @prognapratica  3 года назад

      OK. acabei de descobrir o que é esse ERIC database. Mas o que exatamente vc precisa de informação?

  • @douglasduarte360
    @douglasduarte360 2 года назад

    Olá, consigo pegar essas informações e disponibilizar em uma página HTML ?

    • @prognapratica
      @prognapratica  2 года назад

      é possível sim. tem um vídeo que mostra como fazer um buscador de preços aqui no canal. com as informações no banco de dados, basta sua página web requisitar os dados e disponibilizar

  • @LucasRochaNZ
    @LucasRochaNZ 3 года назад

    Bom demais!
    Existe uma forma de pegar os dados do cliente após a compra no mercado livre ?
    Como endereço de entrega, produto solicitado, formas de pagamento e etc

    • @prognapratica
      @prognapratica  3 года назад +1

      Dentro da sua conta? Acredito que sim, porém tem que ver se o mercado livre disponibiliza alguma api ou se é só com webscraping mesmo.

    • @LucasRochaNZ
      @LucasRochaNZ 3 года назад

      ​@@prognapratica Perfeito, fiz por uma api e esta indo, consegui fazer com que o produto e quantidade aparecerem, só com o valor que ainda estou com dificuldades, pois os valores são separados por span class="price-tag-fraction"
      span class="price-tag-cents" e não lembro como junta-los hahah
      Valeu pela resposta rapida, seu canal vem sempre me ajudando !

    • @prognapratica
      @prognapratica  3 года назад

      @@LucasRochaNZ usa um xpath para pegar a div que engloba essas spans e depois pega o //text. Aí quando tiver o valor vc faz um join.

  • @Felipe-ye5kt
    @Felipe-ye5kt 3 года назад

    Pergunta besta, como faz pra eascrever o caminho ali embaixo do console no navegador e mostrar o total de itens? aqui não aparece

    • @prognapratica
      @prognapratica  3 года назад +1

      Na hora de pesquisar no HTML? Ctrl+f

    • @prognapratica
      @prognapratica  3 года назад +1

      seu comentário não apareceu aqui, só no meu email. sobre o erro, provavelmente vc não alterou as setting.py. ou foi a parte do robots ou a parte do user agent.

    • @Felipe-ye5kt
      @Felipe-ye5kt 3 года назад

      @@prognapratica Que estranho, fiz 2 vezes o passo a passo certinho

    • @prognapratica
      @prognapratica  3 года назад

      Cola o código das settings e da spider no pastebin.com/ e manda o link aqui

    • @prognapratica
      @prognapratica  3 года назад

      Pq Eu acabei de testar aqui e deu certo. Ou cola todo o output do console também para ver se tem outro erro

  • @BrDuduGamer
    @BrDuduGamer 3 года назад

    tem como salvar esses dados em um banco de dados?

    • @prognapratica
      @prognapratica  3 года назад

      Tem sim. VocÊ precisa abrir a conexão na hora que a spider inicia o webscraping e fazer a inserção dos dados na etapa que processar os items.

    • @BrDuduGamer
      @BrDuduGamer 3 года назад

      @@prognapratica Obrigado! Outra pergunta, tem como criar um loop, ou seja executar o crawl a cada 60 min, por exemplo?

    • @prognapratica
      @prognapratica  3 года назад +1

      @@BrDuduGamer tem sim. Uma das formas é usar um scheduler como o Apscheduler e usar o Twisted Scheduler, já que o scrapy é feito em cima do Twisted. Além disso vc precisa criar um script com um CrawlerProcess para rodar o scrapy. Meio complicado de explicar no texto mas o caminho é este.

  • @juniorpedra4543
    @juniorpedra4543 3 года назад

    Não consigo realizar o comando scrapy startproject T2, aparece a mensagem [Errno 2] No such file or directory: 'T2\\scrapy.cfg',

    • @prognapratica
      @prognapratica  3 года назад

      Fala Junior. Vc tem que dar o comando na pasta em que está o scrapy.cfg

    • @prognapratica
      @prognapratica  3 года назад

      Provavelmente vc terá que mudar de pasta com o cd nomedapasta e depois pode fazer um listdir para ver se está na pasta que contém o arquivo scapy.cfg. aí vc consegue usar o scrapy na linha de comando

    • @juniorpedra4543
      @juniorpedra4543 3 года назад

      Grato pela ajuda consegui resolver aquela outra questão porém agora aparece a mensagem ModuleNotFoundError: No module named 'mercadolivre'. Observei que na hora de entrar com scrapy genspider ml mercadolivre.com ele não fez o arquivo ml, aí eu fui direto na pasta e criei o arquivo, porém ele continua dando essa mensagem.

    • @prognapratica
      @prognapratica  3 года назад

      Tenta refazer o passo a passo. O que pode ter ocorrido é de vc não ter criado a pasta spiders e ter colocado o arquivo ml na pasta errada

    • @prognapratica
      @prognapratica  3 года назад

      Vc tem que mudar a pasta antes de fazer o genspider

  • @naoseiqualnomepor395
    @naoseiqualnomepor395 3 года назад

    mano qual é esse programa que vc usa nao é o visual code ne?

    • @prognapratica
      @prognapratica  3 года назад

      Não. É o pycharm

    • @naoseiqualnomepor395
      @naoseiqualnomepor395 3 года назад

      @@prognapratica cara vc da mentoria

    • @prognapratica
      @prognapratica  3 года назад

      Encaminha um email para prognapratica@gmail.com com a sua demanda e orçamento e podemos conversar por lá.

  • @giovannimoreira4435
    @giovannimoreira4435 3 года назад

    Kra, eu segui o codigo a risca, porem o scrapy so me devolve um item d kd pagina, a unica maneira d eu conseguir raspar tds os itens e se eu busca pela "ol" e n pela "li"
    Alguma ideia do q pod ser?

  • @vilsonoliveira5366
    @vilsonoliveira5366 3 года назад

    Parabéns! Muito bom o vídeo.
    A minha dúvida é se é ilegal fazer essa raspagem no site do mercado livre ou outro site.
    Exemplo: fazer raspagem de um resultado de pesquisa do Google.

    • @prognapratica
      @prognapratica  3 года назад

      Fala Vilson. ilegal não é. E mesmo que fosse, os dados da internet são públicos. Há alguns sites que tem na política de uso deles que você não pode raspar e o ideal é você respeitar. Porém, caso você precise das informações e o site não tenha uma API, não tem outra forma a não ser raspar os dados. Os sites tem políticas também para evitar. o próprio google , se você não fizer da forma certa, rapidamente bane seu IP. É isso!

    • @vilsonoliveira5366
      @vilsonoliveira5366 3 года назад

      @@prognapratica Opa! Valeu pela dica! Eu estava fazendo hoje um teste de raspagem em uma pesquisa do Google e recebi algumas msgs "indesejaveis" do Google reclamando da raspagem.🙁👍

    • @prognapratica
      @prognapratica  3 года назад +1

      @@vilsonoliveira5366Sim. No google você tem que alterar algumas variáveis para evitar tomar ban. Faz parte!

  • @skylucacius8463
    @skylucacius8463 3 года назад

    Como fez essa seleção múltipla em 3:40 ?

    • @prognapratica
      @prognapratica  3 года назад

      Clica segurando alt.

    • @skylucacius8463
      @skylucacius8463 3 года назад

      @@prognapratica ao colar, o texto fica sem a indentenção ... como resolver isso ?

    • @prognapratica
      @prognapratica  3 года назад

      @@skylucacius8463 ao invés de colar com ctrl+ v, clique com o botão direito e selecione colar sem formatação

    • @prognapratica
      @prognapratica  3 года назад +1

      @@skylucacius8463 e também pode tentar selecionar tudo e fazer a identação com a tecla tab ou clicar com o botão direito e escolher a opção formatar texto.

  • @koruz9883
    @koruz9883 3 года назад

    Muito bom o vídeo, você tem algum vídeo que eu consiga acesso ao conteúdo da minha conta no Mercado Livre. Já que para acessár a página tem login e senha. Obrigado.

    • @prognapratica
      @prognapratica  3 года назад

      Ronaldo.nao tentei ainda. Acredito que seja possível.

  • @guilhermevernillo1892
    @guilhermevernillo1892 3 года назад

    Boa tarde amigo, tudo bem? Gostaria de entrar em contato com você, tenho um projeto para ser executado e creio que vc possa me ajudar.

    • @prognapratica
      @prognapratica  3 года назад

      Boa tarde, Guilherme. Envie os requerimentos para o email prognapratica@gmail.com que eu vejo se posso atendê-lo.

  • @quickcompany3079
    @quickcompany3079 3 года назад

    quer desenvolver um projeto pra mim? pago salario por mes

    • @prognapratica
      @prognapratica  3 года назад

      E aí, tudo bem? Estou produzindo um curso no momento, mas envie a sua proposta e necessidade para o email prognapratica@gmail.com que conversamos por lá. Valeu!

    • @quickcompany3079
      @quickcompany3079 3 года назад

      @@prognapratica poderia me passa um instagram ou algo do tipo? facilitaria muito