Świetny kolejny odcinek i kolejna wiedza z Pythona zdobyta. Mam nadzieję, że ten projekt wrześniowy to będzie coś w stylu Python + bazy danych (php). Swoją drogą to fajnie, że NIE podchodzisz do tematu w sposób jak dla mega początkującej osoby, bo ileż można słuchać na różnych kursach jak to działają funkcję i operatory... takie rzeczy można sobie "wygooglować". Naprawdę super content i pozdrawiam. ;)
Trochę teorii jest u mnie na kanale, ale staram się by nie była ona też zbyt podstawowa :) Projekt jesienny, to będzie duża rzecz, raczej bez PHP, sam Python. Rzetelnie od początku do tematów mocno zaawansowanych. Nie same filmy, ale mentoring, ćwiczenia, wzajemna motywacja. Szykujemy mega produkt :)
Wow, dziękuję. Pracuję wyłącznie z SQL, ale Python to mój kierunek na najbliższe lata :) Wpadł mi wiele miesięcy temu do głowy pomysł, który wymagałby właśnie takiego klikania po stronach w pierwszym etapie. Teraz już problem solved ;)
rewelacyjnie tłumaczysz, bardzo przyjemnie mi się pracowało równo z filmikiem, bardzo pomocny i merytoryczny film. Bardzo Cię proszę, wrzucaj więcej takich treści !
Mega materiał zachęcający mnie co raz bardziej do używania python'a ze względu na prostotę pisania rzeczy w tym języku np. na "back end'zie", a potem wyświetlanie tego na front-end'zie używając np vue, którego aktualnie używam wraz z eel'em i nie tylko co tworzy świetną kombinację na prosty program desktopowy dla własnego użytku do analiz, czy jakichkolwiek innych rzeczy, czy potrzeb. Świetny oraz prosty materiał i wszystko bardzo dobrze wytłumaczone. Przyjemnie się oglądało i Pozdrawiam!
No to pochwal się co ostatnio napisałeś i co planujesz napisać później :) Powoli szykujemy się do otwarcia kanału na discordzie dla osób oglądających filmy. Dołączysz? :)
@@KacperSieradziński Pewnie, że dołączę. Obecnie dopiero raczkuje, a że preferuje naukę z książek to na tapecie jest teraz "Python dla każdego" M. Dawsona i w kolejce czeka jeszcze "Automatyzacja nudnych zadań...". Szczerze to uczę się powoli bo muszę analizować kod krok po kroku aby to zrozumieć ale się nie poddaje 😏 Co to przedstawiłeś w poprzednim filmie udało mi się bez problemowo zrobić jednak raczej sam bym jeszcze tego nie zrobił. Fajnie że pokazujesz praktyczne zastosowanie Pythona. Jeśli chodzi o to co planuje robić dalej to na pewno ogarnąć Django ale bez solidnych podstaw się jeszcze za to nie zabieram. Sorki za długi komentarz i czekam na otwarcie kanału 😏👍Oby więcej takich inicjatyw
@@dariuszradyszkiewicz7340 Na wszystko przyjdzie pora:) Filmy są zawsze dobrą metodą na ułożenie sobie wiedzy. Mimo nauki i nabywanej wiedzy polecam zostać z nami na dłużej, bo na jesieni szykujemy bombę :)
@@KacperSieradziński Na pewno zostanę :) Czegoś takiego mi brakowało. Jest wiele tutoriali do Pythona jednak niewiele z nich jest tak treściwych. Już się nie mogę doczekać kolejnego 😏
Bardzo fajny tutorial, wydaje mi się, że nie trzeba kombinować z import argv skoro tworząc tabelę można wykorzystać CREATE TABLE IF NOT EXISTS i to załatwi sprawę.Czekamy na kolejne odcinki - jest sztos :)
Cześć Kacper, na początku chciałbym Ci podziękować za ten film. Mega wiedza przekazana w bardzo przystępny sposób. Rób tego więcej! Mam jeszcze pytanie. Próbuje zastosować pewne rozwiązania na podstawie Twojego filmu i mam problem. Po zastosowaniu metody strip() część pustych pól zostaje usunięta, ale zostają mi również kolejno 2 puste wiersze poniżej. Czym to może być spowodowane?
Cześć Bartku! Mam więcej filmów u siebie na kanale :-) Natomiast jeśli chodzi o pytanie.. to najprościej byś wpadł do nas na Discord'a i pokazał to na żywo. Pomożemy :-) Link znajdziesz na stronie sieradzinski.pl 🙂
Świetny filmik, dzięki Kacper. Dwa lata po premierze filmiku....mam pytanie. Buduję właśnie crawler, ale chciałbym uniknąć sytuacji, że będą mi się dublować rekordy w bazie. WIęc chciałbym sprawdzać czy scrapowana pozycja w bazie istnieje, jeżeli wszystkie pola są takie same jak w rekordzie już istniejącym to nie zapisywać go do bazy, jeżeli się różni to go zaktualizować. Jak mogę to ugryźć? :)
Najlepiej jest wyliczyć jakiś hash z tego co prawie na pewno będzie unikatowe.. np. tytuł + adres lub na przykład z adresu strony URL. Możesz też skorzystać z czegoś w stylu numer oferty :-) Trzeba sobie jakoś radzić..
⭐Zainteresowanych innymi moimi filmami odsyłam na kanał: ⭐ 📽️ dokodu.dev/youtube Przepraszam, że tak długo! Dajcie znać czy na przyszłość mam nagrywać krótsze :)
Witam. Uczę się na Twoich filmikach :). Mam jednak problem. Chciałem pobrać datę (jako kolejną kolumnę), ale mam problem. Jeśli dodamy : location = footer.find_all ... To otrzymamy 2x "span" w którym jest nazwa miejscowości oraz czas dodania. Gdy w kodzie dodamy .get_text() To wyprintuje nam tylko nazwę miejscowości. NIE mogę dostać się do drugiego "span" żeby wydobyć date. Probowałem już kilka sposobów i nic. Może jakaś wskazówka ??
Hmm.. pobierz wszystkie spany, a potem powiedz, że interesuje Cie ten drugi.. Ewentualnie uzyj pobierania za pomocą selektora CSS i od razu wskaż drugi. :)
Hej, mam problem nie mogę odpalać plików klikając w nie 2 razy. Zamiast tego muszę wchodzić w pychrama i tam go odpalać. Macie jakiś pomysł czemu tak się dzieję?
Jestem kompletnie zielony , ale mam mega ważne pytanie. Dotychczas robiłem sobie w pracy Webscrapping przez excela. Nie jestem informatykiem. Robię to bo mi ulatwia życie. Nasze strony dla wewnętrznych pracowników mają ważne informacje dla mnie. Okazało się przypadkiem że ta strona ma jakby alternatywny adres ... I tam nie ma żadnych kolorowych tabelek , zdjęć ...tylko same dane tak jak po wybraniu pokaż source code na zwykłej stronie np jak w tym filmiku. Pytanie czy jest jakiś sposób by znaleźć taki alternatywny adres strony który zawiera source code?
A drugie pytanie : czy dodatek Selenium o którym wspomniałeś to ten sam Selenium który można pobrać dla excela vba? I czy nie na żadnego ryzyka pobierając go i instalując ?
Hej, a hja zrobiłem scraper olx ktory pobiera dane o m2. W bloku try probuje sparsowac strone otodom jezeli sie nie uda to w bloku except parsuje strone z olx ;)
bardzo Cię proszę o pomoc. W momencie kiedy, próbuję użyć class_, wyświetla mi "no documentation found". Kompletnie nie mogę się z tym uporać. Pozdrawiam
Cześć :) beautiful soup jest bardziej parserem, który pozwala na odczytanie HTMLa. Wyciągnięcie tego co nas interesuje. Zauważ, że reguest robiłem innym narzędziem. Natomiast Selenium jest bardziej emulacją całej przeglądarki. Służy głównie do pisania testów sprawdzających aplikację. Z jego pomocą możesz kliknąć tu, coś wpisać tam, potem wysłać i zobaczyć czy dany element się zapisał lub pobrać coś co się wyrenderowało. Trochę coś innego :)
czesc, mam pytanie, jak wchodzimy przez pythona na jakąś podstronę, np dane ogłoszenie w OLX, to czy wtedy wpływamy na ilość wyświetleń tego ogłoszenia ?
To zależy czy OLX nas zliczy czy nie. Zakładam, że większa szansa by to zrobić za pomocą Selenium. Mam film na kanale jemu poświęcony. Zapraszam. Raczej jeśli będziesz to robił "spamowi" to Cię zaczną filtrowac.
Warto dodac (byc moze o tym wspomniales pozniej, ja ten komentarz pisze na poczatku filmiku), ze biblioteka Beautiful Soup idealnie nadaje sie rowniez do scrapingu ogromniastych plikow XML :)
Może też jakiś poradnik jak pobierać dane (jak w tym odcinku) tyle że z aplikacji na kompie, które nie dają domyślnie takiej możliwości (np. azymut/elewacje z programu Orbitron)
nie moge tego zrobic w pycharmie :D .... skubany nie mimo zainstalowania biblioteki bs4 nie wykonuje polecenia from bs4 import Beautifulsoup już nie mam pomysłu dlaczego
Według regulaminu OLX zabronione jest przetwarzanie tych danych i ich dalsze udostępnianie. Generalnie wszystko zależy od tego co chcesz dalej z tymi danymi robić.
@@2herzog bo jeśli chcesz przekazywać argumenty podczas uruchamiania to tak jest łatwiej :-) nie piszesz programów w Pythonie tylko po to by je uruchamiać w pycharmie :-)
Zainteresowal mnie ten film gdyz chce stworzyc sobie strone ktora bedzie pobierala dane z innej i odpowiednio grupowala. Ale jak widze jakies programy z ktorym nie mialem stycznosci to chyba tego nie ogarne:/ A niestety darmowe szabloy i ich funkcje na to (tak mi sie wydaje )nie pozwalaja:/
Świetny kolejny odcinek i kolejna wiedza z Pythona zdobyta. Mam nadzieję, że ten projekt wrześniowy to będzie coś w stylu Python + bazy danych (php).
Swoją drogą to fajnie, że NIE podchodzisz do tematu w sposób jak dla mega początkującej osoby, bo ileż można słuchać na różnych kursach jak to działają funkcję i operatory... takie rzeczy można sobie "wygooglować". Naprawdę super content i pozdrawiam. ;)
Trochę teorii jest u mnie na kanale, ale staram się by nie była ona też zbyt podstawowa :) Projekt jesienny, to będzie duża rzecz, raczej bez PHP, sam Python. Rzetelnie od początku do tematów mocno zaawansowanych. Nie same filmy, ale mentoring, ćwiczenia, wzajemna motywacja. Szykujemy mega produkt :)
Wow, dziękuję. Pracuję wyłącznie z SQL, ale Python to mój kierunek na najbliższe lata :) Wpadł mi wiele miesięcy temu do głowy pomysł, który wymagałby właśnie takiego klikania po stronach w pierwszym etapie. Teraz już problem solved ;)
Bardzo się cieszę! Trzymam kciuki!
Super materiał Kacper. Najlepsze jest to, ze tlumaczysz wszystko od 0 tak aby nawet poczatkujaca osoba wszystko zrozumiala. Dzieki!
Bardzo dziękuje za miłe słowa i zapraszam też do mnie na kanał po więcej :D
rewelacyjnie tłumaczysz, bardzo przyjemnie mi się pracowało równo z filmikiem, bardzo pomocny i merytoryczny film. Bardzo Cię proszę, wrzucaj więcej takich treści !
Bardzo dziękuje za miłe słowa :) nagrałem sporo więcej filmów poza tym :)
Super z Ciebie gość. Świetnie się słucha. Dzięki za ten materiał.
Nie wiem jak się do CIebie zwracać? Może tak azjatycko.. Wen Szu Boa, bardzo dziękuje!
Mega materiał zachęcający mnie co raz bardziej do używania python'a ze względu na prostotę pisania rzeczy w tym języku np. na "back end'zie", a potem wyświetlanie tego na front-end'zie używając np vue, którego aktualnie używam wraz z eel'em i nie tylko co tworzy świetną kombinację na prosty program desktopowy dla własnego użytku do analiz, czy jakichkolwiek innych rzeczy, czy potrzeb.
Świetny oraz prosty materiał i wszystko bardzo dobrze wytłumaczone. Przyjemnie się oglądało i Pozdrawiam!
Dziękuje i zapraszam do mnie na kanał :) Pozdrawiam!
Dzięki Kacper za kolejny film. Seria o Pythonie jest super! Motywujesz do nauki tego języka za co wielki plus :)
No to pochwal się co ostatnio napisałeś i co planujesz napisać później :) Powoli szykujemy się do otwarcia kanału na discordzie dla osób oglądających filmy. Dołączysz? :)
@@KacperSieradziński Pewnie, że dołączę. Obecnie dopiero raczkuje, a że preferuje naukę z książek to na tapecie jest teraz "Python dla każdego" M. Dawsona i w kolejce czeka jeszcze "Automatyzacja nudnych zadań...". Szczerze to uczę się powoli bo muszę analizować kod krok po kroku aby to zrozumieć ale się nie poddaje 😏 Co to przedstawiłeś w poprzednim filmie udało mi się bez problemowo zrobić jednak raczej sam bym jeszcze tego nie zrobił. Fajnie że pokazujesz praktyczne zastosowanie Pythona. Jeśli chodzi o to co planuje robić dalej to na pewno ogarnąć Django ale bez solidnych podstaw się jeszcze za to nie zabieram. Sorki za długi komentarz i czekam na otwarcie kanału 😏👍Oby więcej takich inicjatyw
@@dariuszradyszkiewicz7340 Na wszystko przyjdzie pora:) Filmy są zawsze dobrą metodą na ułożenie sobie wiedzy. Mimo nauki i nabywanej wiedzy polecam zostać z nami na dłużej, bo na jesieni szykujemy bombę :)
@@KacperSieradziński Na pewno zostanę :) Czegoś takiego mi brakowało. Jest wiele tutoriali do Pythona jednak niewiele z nich jest tak treściwych. Już się nie mogę doczekać kolejnego 😏
@@dariuszradyszkiewicz7340 super! :)
Tematy automatyzacji zadań zawsze mile widziane :)
Kolejny temat na liście to discordowy bot, może być?
@@KacperSieradziński Jasne, zapowiada się ciekawie.
Bardzo fajny tutorial, wydaje mi się, że nie trzeba kombinować z import argv skoro tworząc tabelę można wykorzystać CREATE TABLE IF NOT EXISTS i to załatwi sprawę.Czekamy na kolejne odcinki - jest sztos :)
Taak, sporo takich rzeczy przychodzi mi zawsze do głowy po nagraniu :) Jeśli czekasz na więcej to zobacz też i mój kanał :) Pozdrawiam!
Bardz fajnie sie oglada, bardzo fajnie sie slucha. Pozdroooo
Świetna robota Kacper! Mega się Ciebie słucha :) (ogląda też)
Mocarzyk :D No Ciebie się tu nie spodziewałem :) Dzięki!
Super , dzięki! Łapka+subskrybcja :)
A mnie też zasubskrybujesz? No weź.. :D
Lux
No ba!
Cześć Kacper, na początku chciałbym Ci podziękować za ten film. Mega wiedza przekazana w bardzo przystępny sposób. Rób tego więcej! Mam jeszcze pytanie. Próbuje zastosować pewne rozwiązania na podstawie Twojego filmu i mam problem. Po zastosowaniu metody strip() część pustych pól zostaje usunięta, ale zostają mi również kolejno 2 puste wiersze poniżej. Czym to może być spowodowane?
Cześć Bartku! Mam więcej filmów u siebie na kanale :-) Natomiast jeśli chodzi o pytanie.. to najprościej byś wpadł do nas na Discord'a i pokazał to na żywo. Pomożemy :-) Link znajdziesz na stronie sieradzinski.pl 🙂
Super
Świetny filmik, dzięki Kacper.
Dwa lata po premierze filmiku....mam pytanie. Buduję właśnie crawler, ale chciałbym uniknąć sytuacji, że będą mi się dublować rekordy w bazie. WIęc chciałbym sprawdzać czy scrapowana pozycja w bazie istnieje, jeżeli wszystkie pola są takie same jak w rekordzie już istniejącym to nie zapisywać go do bazy, jeżeli się różni to go zaktualizować. Jak mogę to ugryźć? :)
Najlepiej jest wyliczyć jakiś hash z tego co prawie na pewno będzie unikatowe.. np. tytuł + adres lub na przykład z adresu strony URL. Możesz też skorzystać z czegoś w stylu numer oferty :-) Trzeba sobie jakoś radzić..
Gdzie jest ten kurs Bartka CSS z udemy o którym Pan mówi w 1:23 ??
⭐Zainteresowanych innymi moimi filmami odsyłam na kanał:
⭐
📽️ dokodu.dev/youtube
Przepraszam, że tak długo! Dajcie znać czy na przyszłość mam nagrywać krótsze :)
Dla mnie mogą być jeszcze dłuższe filmiki 🙂👍
Gdzie krótsze! Jeszcze dłuższe :)
52 minuty zleciało nie wiadomo kiedy. Dłuższe, dłuższe :)
To zapraszam też na mój kanał, wciśnijcie subskrybuj i dzwonek :)
Witam. Uczę się na Twoich filmikach :). Mam jednak problem. Chciałem pobrać datę (jako kolejną kolumnę), ale mam problem.
Jeśli dodamy :
location = footer.find_all ...
To otrzymamy 2x "span" w którym jest nazwa miejscowości oraz czas dodania.
Gdy w kodzie dodamy .get_text()
To wyprintuje nam tylko nazwę miejscowości. NIE mogę dostać się do drugiego "span" żeby wydobyć date. Probowałem już kilka sposobów i nic. Może jakaś wskazówka ??
Hmm.. pobierz wszystkie spany, a potem powiedz, że interesuje Cie ten drugi..
Ewentualnie uzyj pobierania za pomocą selektora CSS i od razu wskaż drugi. :)
@@KacperSieradziński wyskakuje mi bład, coś źle robię . A czy mogłbyś tu zapisać kod, w który powoduje wypisanie tego drugiego spanu ?
kapitalny odcinek, może teraz jakiś web framework?
U mnie na kanale jest kilka odcinków :)
Hej, mam problem nie mogę odpalać plików klikając w nie 2 razy. Zamiast tego muszę wchodzić w pychrama i tam go odpalać. Macie jakiś pomysł czemu tak się dzieję?
Jestem kompletnie zielony , ale mam mega ważne pytanie. Dotychczas robiłem sobie w pracy Webscrapping przez excela. Nie jestem informatykiem. Robię to bo mi ulatwia życie. Nasze strony dla wewnętrznych pracowników mają ważne informacje dla mnie. Okazało się przypadkiem że ta strona ma jakby alternatywny adres ... I tam nie ma żadnych kolorowych tabelek , zdjęć ...tylko same dane tak jak po wybraniu pokaż source code na zwykłej stronie np jak w tym filmiku. Pytanie czy jest jakiś sposób by znaleźć taki alternatywny adres strony który zawiera source code?
A drugie pytanie : czy dodatek Selenium o którym wspomniałeś to ten sam Selenium który można pobrać dla excela vba? I czy nie na żadnego ryzyka pobierając go i instalując ?
Hej, a hja zrobiłem scraper olx ktory pobiera dane o m2. W bloku try probuje sparsowac strone otodom jezeli sie nie uda to w bloku except parsuje strone z olx ;)
bardzo Cię proszę o pomoc. W momencie kiedy, próbuję użyć class_, wyświetla mi "no documentation found". Kompletnie nie mogę się z tym uporać. Pozdrawiam
Takie rzeczy to tylko na Discordzie :-) dokodu.dev/discord :)
Kacper, świetny film. Czy jest sens bawić się w asyncio i httpx, żeby przyspieszyć wykonywanie requestów, masz może o tym jakieś video?
Jeszcze nie mam, ale jeśli wrzucę to na mój kanał :)
Z asynchronicznie ja jest jedną zabawa przy robieniu API. Film. Pyfestivalu :)
To nie jest czymś w rodzaju Selenium, którym także można ingerować w DOM strony czy to zupełnie inna bajka?
Cześć :) beautiful soup jest bardziej parserem, który pozwala na odczytanie HTMLa. Wyciągnięcie tego co nas interesuje. Zauważ, że reguest robiłem innym narzędziem.
Natomiast Selenium jest bardziej emulacją całej przeglądarki. Służy głównie do pisania testów sprawdzających aplikację. Z jego pomocą możesz kliknąć tu, coś wpisać tam, potem wysłać i zobaczyć czy dany element się zapisał lub pobrać coś co się wyrenderowało. Trochę coś innego :)
@@KacperSieradziński Ale też w Selenium można pisać crowlery, tylko, że będzie to chyba nieco wolniejsze rozwiązanie, jeśli dobrze rozumiem.
@@sexus2451 dokładnie tak
czesc, mam pytanie, jak wchodzimy przez pythona na jakąś podstronę, np dane ogłoszenie w OLX, to czy wtedy wpływamy na ilość wyświetleń tego ogłoszenia ?
To zależy czy OLX nas zliczy czy nie. Zakładam, że większa szansa by to zrobić za pomocą Selenium. Mam film na kanale jemu poświęcony. Zapraszam.
Raczej jeśli będziesz to robił "spamowi" to Cię zaczną filtrowac.
Fajne
Dzięki ;) wpadaj też do mnie na kanał :)
Warto dodac (byc moze o tym wspomniales pozniej, ja ten komentarz pisze na poczatku filmiku), ze biblioteka Beautiful Soup idealnie nadaje sie rowniez do scrapingu ogromniastych plikow XML :)
Nie wspomniałem, ale dziękuję za uzupełnienie! Jest to absolutna racja :)
Mega! Może coś w stylu programu który rusza kursorem za nas? :D
Jest biblioteka do tego - Pyautogui
ostatnio olx zrobił refactoring możesz nagrać poradnik jak teraz to zrobić ?
Niestety nie mogę, trzeba pokombinować :-)
Może też jakiś poradnik jak pobierać dane (jak w tym odcinku) tyle że z aplikacji na kompie, które nie dają domyślnie takiej możliwości (np. azymut/elewacje z programu Orbitron)
Samuraj wiadomo kiedy będzie english kurs ? ;D
W całym tym projekcie jest jeszcze jedno słabe ogniwo, ja :)
@@SamurajProgramowania A o który kurs chodzi? Twój czy Pythonowy? :D
@@KacperSieradziński Założyłem, że o mój kurs angielskiego dla wiecznie początkujących :)
nie moge tego zrobic w pycharmie :D .... skubany nie mimo zainstalowania biblioteki bs4 nie wykonuje polecenia from bs4 import Beautifulsoup
już nie mam pomysłu dlaczego
To wpadaj na discorda :) discord.gg/6r4sbu5 Pomożemy :)
Kacper, a jak z legalnością takiego web scrapingu? Gdzieś czytałem, że jest to niezgodne z prawem ze względu na prawo autorskie itd.
Według regulaminu OLX zabronione jest przetwarzanie tych danych i ich dalsze udostępnianie. Generalnie wszystko zależy od tego co chcesz dalej z tymi danymi robić.
Był OLX to Allegro teraz. Ja nie dałem nim rady. Jakieś pomysły jak ich scrapować?
Wpadnij na discorda i zadaj pytanie tam. Nie bardzo wiem jak pomóc bez dodatkowych informacji :)
po co jest ta linijka z if len(argv)...?
Aby sprawdzić czy został przekazany argument w konsoli np python skrypt.py ARGUMENT
@@KacperSieradziński a dlaczego nie mozna po prostu uruchomić poprzez run w pycharmie?
@@2herzog bo jeśli chcesz przekazywać argumenty podczas uruchamiania to tak jest łatwiej :-) nie piszesz programów w Pythonie tylko po to by je uruchamiać w pycharmie :-)
@@KacperSieradziński dzieki za odpowiedzi
olx zrobił refactoring i teraz klasy są dynamicznie przydzielane do każdego wpisu inna klasa, trzeba trenować na innym przykładzie ^.^
Super odcinek !
Ktoś zna osobę w Warszawie godna polecenia do pomocy w nauce programowania ale nie online lub jakieś praktyki ? Pozdrawiam
Proponuję napisać na grupach facebookowych PyWawy. Gdybyś szukał online to daj znać :)
Kacper Sieradziński dziękuje za odpowiedz.
Pozdrawiam
Zainteresowal mnie ten film gdyz chce stworzyc sobie strone ktora bedzie pobierala dane z innej i odpowiednio grupowala. Ale jak widze jakies programy z ktorym nie mialem stycznosci to chyba tego nie ogarne:/ A niestety darmowe szabloy i ich funkcje na to (tak mi sie wydaje )nie pozwalaja:/
Czy ktos moglby poratowac kodem jak dane zamienic na dataframe w pandas zamiast na tabele w Sqllite3 ?
Bardzo fajny pomysł! Przemyślę, dzięki!
pandas.read_sql nie wystarczy ??
A może teraz coś w stylu deep learning. Napisać skrypt, żeby uczył się sam wyszukiwać ofert z podanych stron. :D
klasyk klasyków to sieć neuronowa, która próbuje przewidzieć cenę mieszkania. bo to co mówisz to do sieci neuronowych raczej nie pasuje. ;)
juz chyba nie ma klasy 'offer-wrapper' ;((
Jak to teraz rozwiazac :(
Może odcinek o Selenium WebDriver w celu Web Scrapingu.
Myślałem o tym, może coś nagram :) masz pomysł odn. serwisu który mógłbym scrapowac? :)
@@KacperSieradziński Myślałem o allegro i aplikacji śledzącej licytację i przebijającej oferty ;)
Fajnie by było, jakby kod z lekcji byłby gdzieś udostępniony np. na gist.
pastebin.com/aiFc8Zhj Proszę, gista wrzucę za kilka chwil.
Dodaj link w opisie do Kacpra, może już wystartował
Jaki link? Do kanału? Zapraszam :D
Zobaczcie teraz jakie są ceny po prawie półtora roku :D
Podrożało.. na pewno :D
nr tel pobierz z olx ;)
Ciekawe wyzwanie, Seleniowe :) pomyśle :)
@@KacperSieradziński zrobiłem właśnie z selenium. Ciekawe czy da się inaczej
@@rajkonkret wszystko czego nie ma w źródle strony umiem pobrać tylko Selenium. Możliwe, że są inne metody, nie wiem :)