[Tuto Français] Comment Scraper un Site Web de 2ème Niveau avec Python (Proxy, Clean Data, Excel)

Поделиться
HTML-код
  • Опубликовано: 6 ноя 2024

Комментарии • 24

  •  10 месяцев назад

    Pour obtenir vos 100 premiers leads B2B offerts:
    scrap.id/s/1xY
    Pour une demande en Web Scraping:
    fdufaurboidin@gmail.com
    Pour utiliser les Proxies sur Bright Data (avec $10 de crédits gratuits) :
    brdta.com/francoisdufaurboidin

  • @alain.vetois2295
    @alain.vetois2295 9 месяцев назад +1

    Bonjour. Toujour aussi simple et detaillé dans les commentaires bravo pour les video sur le scraping.

    •  9 месяцев назад

      Bonjour,
      Je vous remercie.

  • @urbanrage1069
    @urbanrage1069 10 месяцев назад +1

    très bonne présentation, je ne pense pas que l'on peut le faire aussi facilement en PHP
    je vais regarder tes autres vidéos

    •  10 месяцев назад

      Faites-vous plaisir.

  • @aldricv
    @aldricv 10 месяцев назад

    Pour un mec qui a vécu à Lille quelques années, donc près du siège de Décathlon , la marque BTWIN se prononce "between" 😉

    •  10 месяцев назад

      Merci pour l'info ;)

  • @claudedufaur1012
    @claudedufaur1012 10 месяцев назад

    Très bon travail.

  • @chrisder1814
    @chrisder1814 Месяц назад

    Salut j'ai eu quelques idées pour scrapper des produits sur différentes marketplace et ensuite comparer les prix dans un Google sheet, mais je ne suis pas sûr que ces idées soient bonnes, est-ce que tu pourrais me dire ce que tu en penses

  • @loicbarel9052
    @loicbarel9052 10 месяцев назад

    Très bel épi !
    Je m'abonne !

    •  10 месяцев назад +2

      Des années d'expérience !

    • @loicbarel9052
      @loicbarel9052 10 месяцев назад

      @ A part ça la vidéo etait cool ! J'ai appris des choses.
      Quand je faisais du scraping j'utilisais pas ces modules

  • @christinel8347
    @christinel8347 7 месяцев назад

    Bonjour, votre vidéos est intéressante et d'un point de vue pédagogique, c'est une approche qui permet aux débutants d'aborder le webscraping alors bravo !
    Pour vérifier le nombre d'élement trouvés avec le selecteur CSS, je trouve pertinent de comparer en utilisant un autre fichier avec bs4 pour dénombrer automatiquement les cases trouvées. Personnellement, à devoir compter "manuellement" on peut faire une erreur, tandis que la machine va se baser sur le code : plus rapide selon moi et plus fiable.
    Merci pour la vidéo, c'est intéressant, j'aurais fait une amélioration sur le code avec une boucle automatique pour récupérer toutes les url des pages et un système d'arrêt automatique avec critères, cela pour éviter tout problème de nombre de pages : ici dans la fonction RANGE, le pas est limité jusqu'à 10 pages.
    bonne continuation, continuez ainsi car au niveau pédagogique, je trouve que vos vidéos peuvent servir de base pour des cours.

    •  7 месяцев назад +1

      Bonjour Christine,
      Merci pour vos axes d'amélioration.

  • @Bilalrajput2001
    @Bilalrajput2001 8 месяцев назад

    Could you please remake this video in English?

    •  8 месяцев назад +1

      If you pay me $500, I will do it.

    • @leopouzet5249
      @leopouzet5249 5 месяцев назад

      🤣🤣🤣🤣🤣

  • @PelletsEaseFrance
    @PelletsEaseFrance 10 месяцев назад

    ce ne serait pas plus simple avec le sitemap?

    •  10 месяцев назад

      Possible mais ce n'est pas sûr.
      Il y a un sitemap pour les produits mais il faut filtrer les URLs pour les vélos.
      Et le sitemap n'est pas disponible sur tous les sites.

    • @PelletsEaseFrance
      @PelletsEaseFrance 10 месяцев назад +1

      @ j'ai la chance qu'il y a un sitemap sur les sites qui m'intéressent. As-tu déja essayé playwright pour python?

    •  10 месяцев назад +2

      @@PelletsEaseFrance Non, jamais. Peut-être un jour.

    • @PelletsEaseFrance
      @PelletsEaseFrance 10 месяцев назад +1

      @ Bonne journée et merci pour cette sympathiques vidéo. Est-ce que un site du genre Decathlon est à la portée d'une petite entreprise? Des scripts open sources de ce genre là existent?

    •  10 месяцев назад +1

      @@PelletsEaseFrance Pour les scripts, je ne ne sais pas.
      Mais ça semble possible en termes de scraping