Professor, sua didática é impressionante, eu costumo consumir muito conteúdo de curso online. Eu não tenho dúvidas que se você fizesse um curso na Udemy eu e muitos outros alunos comprariam, obrigado por disponibilizar esse material gratuitamente, abraços e parabéns!
Lutei com o DataFrame, e nos Find's procurando aulas, procurar a Tag's dos preços, nossa, estourei meus miolos o cérebro que Deus me deu, sentimento de satisfação e missão cumprida obrigado por compartilhar seu conhecimento, Deu muito trabalho. Fiz a proposta no final do vídeo, eu inseri um input para Scrapear no mercado livre ao rodar o script o input faz a Request do dados Scrapeia gera uma lista e salva em xlsx para excel ficou lindo de ver.
No alto dos meus 50 anos , maratonando a playlist de web scraping com Python e maravilhado com as possibilidades, alem da magistral forma de repassar o conhecimento, q vc domina PARABÉNS, conteúdo de muita utilidade e transmitida com extrema competência
Não tenho nada a dizer só comentei pra dizer isso, brincadeira, muito bom o trabalho que você faz aqui, estou impressionivilizado com isso espero mais aulas... Parabéns
Meu Deus, sem condições sua didática, seu carisma e seu conhecimento, me apaixonei por ti, mano! Tive que logar em 2 contas pra dar like aqui e to seguindo teu instagram, se você fizer algum curso pago ou ativar o membro do canal pra incentivar você a trabalhar mais nessa forma maravilhosa de transmitir seu conhecimento eu com certeza vou apoiar o máximo que puder. Parabéns!
Poxa, nem sei como te agradecer pelo seu apoio! Fico feliz demais quando vejo que o conteúdo está sendo proveitoso e passado de uma forma legal!! Muito obrigado pelo comentário e pelo carinho! Espero continuar oferecendo conteúdos de qualidade por aqui! Em breve, inclusive, vêm novidades! haha. Mais uma vez, muito obrigado! =)
Que conteúdo sensacional....estou cursando a graduação de Ciências de Dados em 2024 e suas aulas estão me ajudando muito.....Muito obrigado Professor por disponibilizar estas aulas de forma gratuita......se lançar um curso pago vou ser o primeiro a comprar...abs
Meu amigo, cai na sua aula 06 por acaso, já voltei a playlist e tô maratonando tudo. Didática sensacional. Finalizando aqui já vou partir pra playlist de Data Science. Sem palavras pra descrever a qualidade do seu conteúdo. Não havia encontrado nada tão detalhado e profundo assim antes, mostrando a vida real e as necessidades do dia a dia mesmo, diferente daqueles cenários simples e pré definidos que muitos "educadores" mostram por aí... Muita qualidade. Parabéns e obrigado!
Walisson, Parabéns pela série. Conteúdo muito massa e bem atualizado. Só tenho a agradecer pela sua boa vontade de disponibilizar tudo isso no 0800. Já estava quase desistindo de fazer um projeto, mas acho que através de suas aulas eu vou conseguir pelo menos sair do zero. Você é fera!!
Poxa, nem acredito que fiquei ao lado do Guanabara nessa tua jornada! Hahaha. Ele é uma referência... Um dia chegarei lá! Obrigado pelo comentário e feedback, Arthur!!
2 года назад+1
Muito obrigado por compartilhar seu conhecimento! Muito grato mesmo!
Estava procurando algo assim que me mostrasse de modo tao simples. Ainda preciso fazer um Web Scraping para buscar informaçoes para o meu trabalho. Mas terá que ser pra diversos sites, e nao apenas internamente em um. Voce tem como ajudar nisso, mostrando em uma aula como fazer ? Gostei muito da sua didática, calma e segura. Obrigado. E parabens. Conheci seu video hoje fazendo uma busca, e maratonei. Vi todos os que consegui encontrar. Valeu!!!!!
Brother, obrigado por compartilhar tanto conteúdo e com tanta qualidade. Parabens pela sua didática, sensacional! Fui fazendo junto aqui e deu tudo certo! alias, somente o link que nao consegui, o href nao funciona...mas isso descubro no futuro. show de bola!
Professor, excelentes as aula. Tive um problema, o pandas está gerando a tabela com os nomes das colunas errado (ordem diferente) do programado. pode me ajudar ?
Boa noite! Sensacional a tranquilidade para explicar o conteúdo, virei ouvinte de carteirinha.... Gostaria de saber como fazer isso quando tenho que buscar em um site que tenha várias páginas, tem como fazer?
Alguém poderia me ajudar? Não rodou, retornou os seguintes error: KeyError: 'href' Linha 30 = lista_noticias.append([titulo.text, '', titulo['href']]) Linha 1573 = return self.attrs[key]
Muito obrigado pelo feedback, Matheus!! Muito legal saber que o conteúdo está sendo proveitoso! E, sim, vai ter mais vídeos super legais nessa série! =)
Excelente conteúdo! Parabéns e obrigado. Vou ver os demais da série. Será que tem algum mostrando como fazer a pesquisa por assunto, conforme você mostrou no fim do vídeo?
Walisson, primeiro gostaria de dar parabéns pelo conteúdo que está criando, sua didática é muito boa e seu conhecimento idem. Porém tenho uma dúvida, quando você cria a "lista de listas" para ir armazenando as notícias, não seria mais fácil criar diretamente um dicionário?
Muito obrigado por todos os comentários e feedbacks, Ronaldo!! É um grande prazer te ter aqui no canal e espero que o conteúdo esteja agregando bastante pra você! Qualquer coisa, estou por aqui, cara. Grande abraço e bons estudos!
da pra exibir isso no meu site php? como faço pra exportar isso pra usar dessa forma, (de forma que atualize automaticamente) excelente conteúdo cara, muito melhor que muitos cursos pagos!!!!
prof, no caso do g1, q é uma pagina q vive atualizando, oq acontece com oq está salvo na planilha se eu salvar por cima? por exemplo, no dia 07 tenho os arquivos x y z e no dia seguinte salvo os arquivos a b c o que acontece com o 'x, y e z'?
Fala mestre, tudo na paz? Eu quero pegar um resultado de um site, mas o resultado é exibido em jwplayer. Eu não sei como fazer... Teria alguma ideia? Abs
Um grande problema é organizar as noticias por categorias, para serem disponibilizadas no site de forma organizada. Por exemplo, como fazer para que apenas o conteudo especifico apareça na capa, ou fofocas, esportes, ciencia etc... Essa organização que esta complicando muito meu trabalho aqui! haha
Olá, no meu Campo de Saída do VSCODE, os acentos e outros caracteres estão desconfigurados. A codificação está em UTF-8. Se alguém puder me ajudar eu agradeço, obrigado! Conteúdo show!!!
Preciso de uma ajuda. tenho um pedaço de código que faz uma request numa tag com classe "xXx"; genero = cartao.find('a', attrs={'class': 'xXx'}) ele retorna None mas EXISTE lá na página. O que pode estar acontecendo de errado?
boa noite, executei o mesmo codigo e deu um erro: Exception has occurred: KeyError 'href' File "C:\Users\thays\OneDrive\Área de Trabalho\python\intermediario\protocolo_http\webScrapping\2.py", line 18, in link_noticia = titulo['href'] #link da notícia ~~~~~~^^^^^^^^ KeyError: 'href' debuguei vi vi que o sistema esta pegando, no ultimo loop, uma classe css que não é do mesmo tipo das demais, logo não existe um href, pq o mesmo não é um link
Fala, Anderson! Excelente pergunta, cara! A ideia é que o BeautifulSoup é uma biblioteca mais simples para quem está iniciando e muito útil para fazermos buscas de informações em (alguns) sites, daí a gente acaba sempre iniciando com ela. Além disso, o Selenium é um webdriver, ou seja, uma ferramenta que roda o navegador de forma automática; mas para obter os dados em formato HTML e fazer o scraping ainda precisamos do BeautifulSoup, sabe? Ou seja, em resumo, o ideal mesmo (e o que veremos nos próximos vídeos da série) é combinarmos o Selenium com o BeautifulSoup para fazermos um Web Scraping mais completo e eficaz (vamos executando várias rotinas no navegador, e, enquanto isso, obtendo os dados que queremos). ;)
Walisson, não consegui exportar para excel no final mesmo instalando pelo terminal, fala que o módulo não foi encontrado. "no modulo named openpyxl" alguma dica?
consegui. pelo que entendi eu sempre tenho que instalar os módulos dentro do ambiente virtual, senão não carrega, é isso? quando eu ativei o ambiente virtual, aí foi.
Achei show, já estava estudando em livro, achei seu canal, gostei muito, fiz em um site de animes rsrsr.... 0, Gokushufudou,Ep. 5 (HD), 2 views visibility 20 minutos atrás, ************************************
Muito obrigado, Sandoval!! Sim, com certeza! Você gostaria de ler dados de um arquivo JSON salvo na sua máquina ou de um arquivo JSON disponível em algum link da web (tipo, uma API)?
Não sei se virá a ser um problema pra vcs, mas caso der erro ao imprimir a lista de noticias, tipo *ModuleNotFoundError: No module named pandas* vcs precisam instalar a biblioteca no terminal, igual os outros modulos importados. Comando: pip install pandas
Professor, sua didática é impressionante, eu costumo consumir muito conteúdo de curso online. Eu não tenho dúvidas que se você fizesse um curso na Udemy eu e muitos outros alunos comprariam, obrigado por disponibilizar esse material gratuitamente, abraços e parabéns!
Lutei com o DataFrame, e nos Find's procurando aulas, procurar a Tag's dos preços, nossa, estourei meus miolos o cérebro que Deus me deu, sentimento de satisfação e missão cumprida obrigado por compartilhar seu conhecimento, Deu muito trabalho. Fiz a proposta no final do vídeo, eu inseri um input para Scrapear no mercado livre ao rodar o script o input faz a Request do dados Scrapeia gera uma lista e salva em xlsx para excel ficou lindo de ver.
Excelente vídeo, Walisson! Assistindo em 11 de outubro de 2024! Estas dicas para contornar problemas durante uma raspagem de dados são excelentes! 👍👍👍
Muito bom!
Aprendendo muito com seus vídeos.
Com certeza gostaríamos de ver o Selenium. Parabéns pela didática.
Ótima Aula!
Supertop mano, estou assistindo aos vídeos e fazendo junto contigo no Sublime Text
No alto dos meus 50 anos , maratonando a playlist de web scraping com Python e maravilhado com as possibilidades, alem da magistral forma de repassar o conhecimento, q vc domina
PARABÉNS, conteúdo de muita utilidade e transmitida com extrema competência
Não tenho nada a dizer só comentei pra dizer isso, brincadeira, muito bom o trabalho que você faz aqui, estou impressionivilizado com isso espero mais aulas... Parabéns
O jeito que ele explica é dahora ahaha bem zen, não tem como não aprender kkk
muito bom, nao conhecia o canal ... mais 1 inscrito
Finalmente perdi o medo de webscrapping. Aula incrivel!
Meu Deus, sem condições sua didática, seu carisma e seu conhecimento, me apaixonei por ti, mano!
Tive que logar em 2 contas pra dar like aqui e to seguindo teu instagram, se você fizer algum curso pago ou ativar o membro do canal pra incentivar você a trabalhar mais nessa forma maravilhosa de transmitir seu conhecimento eu com certeza vou apoiar o máximo que puder. Parabéns!
Poxa, nem sei como te agradecer pelo seu apoio! Fico feliz demais quando vejo que o conteúdo está sendo proveitoso e passado de uma forma legal!! Muito obrigado pelo comentário e pelo carinho! Espero continuar oferecendo conteúdos de qualidade por aqui! Em breve, inclusive, vêm novidades! haha. Mais uma vez, muito obrigado! =)
top, parabens pelo trabalho!
Que conteúdo sensacional....estou cursando a graduação de Ciências de Dados em 2024 e suas aulas estão me ajudando muito.....Muito obrigado Professor por disponibilizar estas aulas de forma gratuita......se lançar um curso pago vou ser o primeiro a comprar...abs
Meu amigo, cai na sua aula 06 por acaso, já voltei a playlist e tô maratonando tudo.
Didática sensacional. Finalizando aqui já vou partir pra playlist de Data Science.
Sem palavras pra descrever a qualidade do seu conteúdo. Não havia encontrado nada tão detalhado e profundo assim antes, mostrando a vida real e as necessidades do dia a dia mesmo, diferente daqueles cenários simples e pré definidos que muitos "educadores" mostram por aí...
Muita qualidade. Parabéns e obrigado!
Conteúdo excelente! Não pare de compartilhar seu conhecimento por favor, sua didática é muito boa!
Muito obrigado pelo apoio!!
Muito obrigado pelo conteúdo, bastante esclarecedor, gostei muito da sua forma de ensinar.
Maluco é brabo demais! Faz tudo par ver simples.
Poxa, muito obrigado, cara!!
Continue com esse trabalho, eu nunca vi um conteúdo tão de didático como seu, e ainda por cima gratuito . Parabéns.
Aprendi muito já. Com certeza vou usar muito tudo que estou aprendendo.
deus o abençoe estas aula estao muito boas por favor nao pare voce nos ajuda muito
Walisson, Parabéns pela série. Conteúdo muito massa e bem atualizado. Só tenho a agradecer pela sua boa vontade de disponibilizar tudo isso no 0800. Já estava quase desistindo de fazer um projeto, mas acho que através de suas aulas eu vou conseguir pelo menos sair do zero. Você é fera!!
Parabéns Walisson, tem sido de grande ajuda acompanhar suas aulas, são ótimas.
Muito obrigado pelo feedback e apoio, Alan!!!
Mano sério parabéns pelo trabalho, tu e o Guanabara conseguiram me ensinar muito, você é foda.
Poxa, nem acredito que fiquei ao lado do Guanabara nessa tua jornada! Hahaha. Ele é uma referência... Um dia chegarei lá! Obrigado pelo comentário e feedback, Arthur!!
Muito obrigado por compartilhar seu conhecimento! Muito grato mesmo!
Excelentes tutoriais! Muito bem explicado e de fácil entendimento. Parabéns! Pretendo continuar assistindo os demais vídeos.
Fiz login só para deixar o like. Parabéns pelo conteúdo e pela clareza na explicação.
Muito obrigado pelo feedback!!
Caraca Walisson.... parabéns, que didática perfeita!!!! 👏🏻
Simplesmente uma das melhores didáticas que já vi!!! Poderia te ouvir por horas.
Vc é muito fera, continue com o seus vídeos!
Obrigado pelo feedback e pelo apoio, Henrique!!
Tenho interesse sim de ver Selenium, parabéns pela didatica
Muito incrível mesmo
Didática espetacular!!!!
Tá me ajudando muito mesmo
Muito obrigado pelo feedback, Yago!! Sucesso, mano!
Certamente queremos o Selenium!!
Valeu meu amigo! Didática exemplar!
Cara! Que conteúdo fantástico! Muito bom mesmo!
Muito obrigado pelo feedback, Isael!!
muito show parabéns
Que top! Parabéns pela excelente aula!
Parabéns pelo conteúdo, de excelente qualidade! Aprendi mais do que em certos cursos!!
cara, tu é fenomenal
Aula boa dmss , só entendi vendo seu vídeo !!
Estava procurando algo assim que me mostrasse de modo tao simples. Ainda preciso fazer um Web Scraping para buscar informaçoes para o meu trabalho. Mas terá que ser pra diversos sites, e nao apenas internamente em um. Voce tem como ajudar nisso, mostrando em uma aula como fazer ?
Gostei muito da sua didática, calma e segura. Obrigado. E parabens. Conheci seu video hoje fazendo uma busca, e maratonei. Vi todos os que consegui encontrar. Valeu!!!!!
Maratonando, parabéns pelo trabalho!
Meu amigo, você tem o dom da DIDÁTICA !
Poxa, muito obrigado pelo feedback, Felipe!!! Tamo junto! ✌🏼
este cara é um mito, pagaria tranquilo um curso dele
Cara, tu é demais viu!!!! Eu tô conseguindo aprender e aplicar na minha realidade e eu sou um ignorante na área.
Muito obrigado pelo feedback, Matheus! É super gratificante saber que o conteúdo está sendo relevante e útil! Sucesso para você, cara! Grande abraço!
Brother, obrigado por compartilhar tanto conteúdo e com tanta qualidade. Parabens pela sua didática, sensacional! Fui fazendo junto aqui e deu tudo certo! alias, somente o link que nao consegui, o href nao funciona...mas isso descubro no futuro. show de bola!
na linha 11: findAll agora é -> find_all :)
👏🏿👏🏿👏🏿
Ótima didática e conteúdo. Está de parabéns!
Muito obrigado pelo feedback, Lucas!!
Fala mais sobre Selenium :D, muito bom os videos.
Vc explica muito bem, parabéns pela didática!!!
Muito obrigado pelo feedback, Letícia!! :)
@@WalissonSilva por nada!! 😁 qual dock vc usa no Linux? achei bem legal
Professor, excelentes as aula. Tive um problema, o pandas está gerando a tabela com os nomes das colunas errado (ordem diferente) do programado. pode me ajudar ?
conteudo muito foda, depois vc poderia fazer algo ensinando a fazer login e senha em algum site.
qual é o link do seu curso, você ensina muito bem
Boa noite! Sensacional a tranquilidade para explicar o conteúdo, virei ouvinte de carteirinha....
Gostaria de saber como fazer isso quando tenho que buscar em um site que tenha várias páginas, tem como fazer?
Alguém poderia me ajudar?
Não rodou, retornou os seguintes error: KeyError: 'href'
Linha 30 = lista_noticias.append([titulo.text, '', titulo['href']])
Linha 1573 = return self.attrs[key]
Vídeo muito Bom!
Tomara que continue essa série de vídeos.
Muito obrigado pelo feedback, Matheus!! Muito legal saber que o conteúdo está sendo proveitoso! E, sim, vai ter mais vídeos super legais nessa série! =)
Muito bacana sua didática é ótima! Queria um vídeo dedicado somente ao pandas e ao bs4! Eles são otimos
Excelente conteúdo! Parabéns e obrigado. Vou ver os demais da série. Será que tem algum mostrando como fazer a pesquisa por assunto, conforme você mostrou no fim do vídeo?
Aguardando ansiosamente pelo selenium
po mano, conteúdo de qualidade dms obg msm
Uma pequena duvida, se eu quisesse pegar a imagem também e converter em URL, como eu faria?
Walisson, primeiro gostaria de dar parabéns pelo conteúdo que está criando, sua didática é muito boa e seu conhecimento idem.
Porém tenho uma dúvida, quando você cria a "lista de listas" para ir armazenando as notícias, não seria mais fácil criar diretamente um dicionário?
Muito boa suas explicações e aulas!!!
Muito obrigado por todos os comentários e feedbacks, Ronaldo!! É um grande prazer te ter aqui no canal e espero que o conteúdo esteja agregando bastante pra você! Qualquer coisa, estou por aqui, cara. Grande abraço e bons estudos!
muitio bom ! amigo, escrevi o código como o seu porém na parte do for me retornou uma notícia só, o que pode ser?
da pra exibir isso no meu site php? como faço pra exportar isso pra usar dessa forma, (de forma que atualize automaticamente) excelente conteúdo cara, muito melhor que muitos cursos pagos!!!!
quando eu passo no comando for os títulos vem todos fora de ordem, e tem uns que nem estão na pagina principal, vc sabe pq ta acontecendo isso?
prof, no caso do g1, q é uma pagina q vive atualizando, oq acontece com oq está salvo na planilha se eu salvar por cima?
por exemplo, no dia 07 tenho os arquivos
x
y
z
e no dia seguinte salvo os arquivos
a
b
c
o que acontece com o 'x, y e z'?
Fala mestre, tudo na paz? Eu quero pegar um resultado de um site, mas o resultado é exibido em jwplayer. Eu não sei como fazer...
Teria alguma ideia?
Abs
Um grande problema é organizar as noticias por categorias, para serem disponibilizadas no site de forma organizada.
Por exemplo, como fazer para que apenas o conteudo especifico apareça na capa, ou fofocas, esportes, ciencia etc...
Essa organização que esta complicando muito meu trabalho aqui! haha
perfeito o ensinamento!!
01/05/2022
Meu caro, continue por favor, mostre o Selenium e tudo que for possível. Tá demais!!!
Poxa, Joas! Muito obrigado pelo feedback e pelo apoio!! Beleza, pode deixar, então! Haha
Boa tarde, desde ja estou gostando mt do curso mas estou tendo um problema quando uso o findall todos os find a partir dai deixam de funcionar
Find-All
Olá, no meu Campo de Saída do VSCODE, os acentos e outros caracteres estão desconfigurados. A codificação está em UTF-8. Se alguém puder me ajudar eu agradeço, obrigado! Conteúdo show!!!
Show de bola
Excelente didática!
Muito boa a sua didática, parabéns pela iniciativa. Quando teremos a aula com selenium?
Parabéns pelo vídeo! Tem como passar um argumento para a busca da notícia? Por exemplo: Oxford.
Brother, faz um vídeo sobre web scraping pra busca de notícias na web usando inteligência artificial em modo loop
Dei like por dois motivos, muito boa a aula e pra tirar o 666 do seu canal kkkk
Quero saber mais sobre Selenium
Tem como pegar imagens ?
Aula top!!
Excelentes vídeos. Se acrescentar o Selenium, fica xoudibola. Muito obrigado!
Opa, muito obrigado pelo feedback!!! E já temos vídeo aqui no canal sobre Selenium! 😁
Selenium, jura? Quando Walisson? abraço.
Baita aula cara.
top demais !
muito legal!!!!
Preciso de uma ajuda.
tenho um pedaço de código que faz uma request numa tag com classe "xXx";
genero = cartao.find('a', attrs={'class': 'xXx'})
ele retorna None mas EXISTE lá na página. O que pode estar acontecendo de errado?
cara, estou com o mesmo problema, já conseguiu resolver?
boa noite, executei o mesmo codigo e deu um erro:
Exception has occurred: KeyError
'href'
File "C:\Users\thays\OneDrive\Área de Trabalho\python\intermediario\protocolo_http\webScrapping\2.py", line 18, in
link_noticia = titulo['href'] #link da notícia
~~~~~~^^^^^^^^
KeyError: 'href'
debuguei vi vi que o sistema esta pegando, no ultimo loop, uma classe css que não é do mesmo tipo das demais, logo não existe um href, pq o mesmo não é um link
Me tira um duvida? levando em consideração a superioridade do sellenium qual a vantagem de usar o BeatifulSoup?
Fala, Anderson! Excelente pergunta, cara! A ideia é que o BeautifulSoup é uma biblioteca mais simples para quem está iniciando e muito útil para fazermos buscas de informações em (alguns) sites, daí a gente acaba sempre iniciando com ela. Além disso, o Selenium é um webdriver, ou seja, uma ferramenta que roda o navegador de forma automática; mas para obter os dados em formato HTML e fazer o scraping ainda precisamos do BeautifulSoup, sabe? Ou seja, em resumo, o ideal mesmo (e o que veremos nos próximos vídeos da série) é combinarmos o Selenium com o BeautifulSoup para fazermos um Web Scraping mais completo e eficaz (vamos executando várias rotinas no navegador, e, enquanto isso, obtendo os dados que queremos). ;)
@@WalissonSilva Muito Obrigado , mais didatico impossivel !!! parabens!!!!!!!!
Walisson, não consegui exportar para excel no final mesmo instalando pelo terminal, fala que o módulo não foi encontrado. "no modulo named openpyxl"
alguma dica?
Olá, Camillo! Tenta instalar o pacote openpyxl, utilizando o comando: pip install openpyxl
@@WalissonSilva eu fiz desta forma, tanto n terminal, quanto pelo anaconda. instalei na pasta que está o projeto tbm, e mesmo assim retorna o erro.
consegui. pelo que entendi eu sempre tenho que instalar os módulos dentro do ambiente virtual, senão não carrega, é isso? quando eu ativei o ambiente virtual, aí foi.
Walisson tenho um projeto muito grandioso e lucrativo como posso entrar em contato?
Achei show, já estava estudando em livro, achei seu canal, gostei muito, fiz em um site de animes rsrsr....
0, Gokushufudou,Ep. 5 (HD), 2 views visibility 20 minutos atrás, ************************************
top muito top, meu muito obrigado!!!
Faz de selenium tbm, por favor
Já tem três vídeos sobre Selenium no canal, Icaro! 😉
Muito massa!!
Walisson sua didática é incrivel , parabéns....tem como trazer os dados de um arquivo JSON...como seria ?
Muito obrigado, Sandoval!! Sim, com certeza! Você gostaria de ler dados de um arquivo JSON salvo na sua máquina ou de um arquivo JSON disponível em algum link da web (tipo, uma API)?
Não sei se virá a ser um problema pra vcs, mas caso der erro ao imprimir a lista de noticias, tipo *ModuleNotFoundError: No module named pandas* vcs precisam instalar a biblioteca no terminal, igual os outros modulos importados.
Comando: pip install pandas