Ótima explicação sobre scraping! Estou pensando em como o HasData pode ajudar com automação de relatórios. Quem mais aqui já usou scraping para análises no Power BI?
Estou estudando DS há um certo tempo, e esse vídeo, em relação a Web Scraping, foi o mais explicativo que já vi, mesmo sendo 100% prático, o que é uma outra vantagem para quem quer aprender e por em prática. Tenho certeza, que por mais que não tenha atingido tantas pessoas, seria muito interessante disponibilizar mais um ou uns... tutoriais desse nível. Para mim foram 1:10 de vídeo que se tornaram horas de estudo. Com toda certeza desejo mais aulas do Paulo Sawaya !!!!
Parabéns pelo vídeo e didática! Este tipo de conteúdo parece enriquecer o canal. Sugestão para um próximo vídeo: "Leitura de uma base de dados NoSQL com o Python" Saúde e sucesso!
Primeiramente achei o vídeo super tranquilo de acompanhar e gostei muito do conteúdo e da tranquilidade que o tema foi abordado. Primeiro contato meu com webscraping, e com pouco tempo de python e não tive dificuldades. Muito bom mesmo. Acompanhei o vídeo e reparei que no final a lista repetiu sempre os mesmo 10 nomes para todas as combinações. Então reparei que no vídeo também ficou assim. Não me recordo se ele comentou sobre fazer a alteração. Aqui tive que alterar o trecho que atribui os valores dos filtros aos parâmetros, lá dentro do laço de repetição, mudando o sinal de "dois pontos" para o sinal de "igual": PARAMETERS['filters[ranking_category]'] = c PARAMETERS['filters[gender]'] = g PARAMETERS['filters[belt]'] = b PARAMETERS['filters[weight]'] = d PARAMETERS['page']= page Além disso, me deparei com um erro, quando o atleta não possui uma foto vinculada, então refatorei o método parse_athletes, na atribuição da variável "photo": #photo = photo_cell.find('img')['src'] photo = photo_cell.find('img')['src'] if photo_cell and photo_cell.find('img') else 'Sem foto Disponível'
Ótima explicação sobre scraping! Estou pensando em como o HasData pode ajudar com automação de relatórios. Quem mais aqui já usou scraping para análises no Power BI?
Muito bom!!! Parabéns! Quero ver mais vídeos do Paulo Sawaya!!!
Estou estudando DS há um certo tempo, e esse vídeo, em relação a Web Scraping, foi o mais explicativo que já vi, mesmo sendo 100% prático, o que é uma outra vantagem para quem quer aprender e por em prática.
Tenho certeza, que por mais que não tenha atingido tantas pessoas, seria muito interessante disponibilizar mais um ou uns... tutoriais desse nível.
Para mim foram 1:10 de vídeo que se tornaram horas de estudo.
Com toda certeza desejo mais aulas do Paulo Sawaya !!!!
Parabéns pelo vídeo e didática! Este tipo de conteúdo parece enriquecer o canal. Sugestão para um próximo vídeo: "Leitura de uma base de dados NoSQL com o Python"
Saúde e sucesso!
Excelente aula, parabéns pela Didática, Obrigado pela transferência de conhecimento
Primeiramente achei o vídeo super tranquilo de acompanhar e gostei muito do conteúdo e da tranquilidade que o tema foi abordado. Primeiro contato meu com webscraping, e com pouco tempo de python e não tive dificuldades. Muito bom mesmo.
Acompanhei o vídeo e reparei que no final a lista repetiu sempre os mesmo 10 nomes para todas as combinações. Então reparei que no vídeo também ficou assim. Não me recordo se ele comentou sobre fazer a alteração. Aqui tive que alterar o trecho que atribui os valores dos filtros aos parâmetros, lá dentro do laço de repetição, mudando o sinal de "dois pontos" para o sinal de "igual":
PARAMETERS['filters[ranking_category]'] = c
PARAMETERS['filters[gender]'] = g
PARAMETERS['filters[belt]'] = b
PARAMETERS['filters[weight]'] = d
PARAMETERS['page']= page
Além disso, me deparei com um erro, quando o atleta não possui uma foto vinculada, então refatorei o método parse_athletes, na atribuição da variável "photo":
#photo = photo_cell.find('img')['src']
photo = photo_cell.find('img')['src'] if photo_cell and photo_cell.find('img') else 'Sem foto Disponível'
Top .... Parabéns !!!!
Muito bom!!! Parabéns! Mais vídeos do Paulo Sawaya e quem sabe um pouco sobre Rust.
Muito bom! Excelente vídeo! Mais vídeos assim!!
Top demas seria top demas fazer isso em casa de aposta ou cassino online muito bem explicado se poder fazer vai fica top Deus abençoe
Parabéns, excelente conteúdo e super útil, ansioso e na expectativa de mais vídeos e dicas como essa.
Quero mais videos do Paulo Sawaya de linguagem M e Python ❤
didática maravilhosa !
Top demais, Parabéns pelo Vídeo e didática . Eu gostaria ver mais videos do Paulo Sawaya.
Muito bom Video.
ótima aula
Boa noite,gostava de ver automação em phyton
COmo obter o arquivo notebook desta apresentação
infelizmente não consegui fazer logo no inicio já fiquei estagnado em um erro.
Da erro nessa linha table = soup.find('table')
qual é o erro que aparece?
Não consigo resolver esse erro.
NameError Traceback (most recent call last)
in ()
----> 1 response = requests.get(URL, headers = HEADERS, params = PARAMETERS).text
2 soup = BeautifulSoup(response, 'html.parser')
3 print(soup)
NameError: name 'HEADERS' is not defined
def get_page_content(url,headers,parametes):
response = requests.get(url, headers=headers, params= parametes)
# print(response) --> 200
soup = BeautifulSoup(response.text, 'html.parser')
return soup
Pra pagina estatica, fantastica a aula. Pena que pra pagina dinamica ela nao ajuda...