LINKI CZY CONTENT? 👉 Kiedy i w co inwestować?

Поделиться
HTML-код
  • Опубликовано: 25 фев 2022
  • W jakich proporcjach inwestować w SEO i pozycjonowanie? Skąd mam wiedzieć, który link przyniesie więcej crawl budgetu? Jak nie przeinwestować procesu budowy architektury informacji? Jak sprawdzić, kiedy mam niewystarczający crawl budget i powinienem przyłożyć się bardziej do pozyskiwania linków?
    ✌️ Dołącz do społeczności Paq Commerce: paq-studio.com/newsletter/
    👉 Subskrybuj: bit.ly/2JnSz5L
    ‣ Agencja SEO Paq-Studio: paq-studio.com
    ‣ Blog SEO Paq Studio: paq-studio.com/blog-seo/
    ‣ Paq Studio na Facebooku: / agencjapaqstudio
    ‣ Podcast Spreaker: www.spreaker.com/show/paq-studio
    -
    ‣ Prowadzący Adrian Pakulski: / adrianpakulski
  • НаукаНаука

Комментарии • 14

  • @poscielszpulka6247
    @poscielszpulka6247 2 года назад

    Super :) No dobrze to powiedz proszę jak się ma korelacja crawlingu do autorytetu domeny , bo teraz tak kupujemy link na domenie X z dużym DR ale np w zakładce porady i załóżmy google boot wchodzi raz do nas potem pojawiają się nowe art. i nasz ,, spada w dół w architekturze." i w teorii jeśli google boot nie wejdzie kilka razy ,to wiele nie zyskamy, a teraz inny przykład kupujemy link na domenie Y z mniejszym DR ale jest na stronie głównej i załóżmy że zostaje tam na dłużej , w teorii mamy więcej sesji google boota jednak co z DR i TF ? Jak na to patrzeć ? Dzięki mam nadzieje że za bardzo nie zagmatwałem..

    • @PaqStudio
      @PaqStudio  2 года назад +1

      Crawling nie jest jednoznaczny ze skalowaniem pozycji, tj. oba procesy zwyczajowo idą ze sobą w parze, ale też nie korelują 1 do 1.
      Przykład 1: To, że kupię dużo "syfiastych" linków w jakimś SWL'u (systemie wymiany linków) może być rzeczywiście powodem wzmożonego crawlingu na mojej stronie internetowej ze strony GoogleBota, ale w związku z tym, że wszystkie te strony mają szeroko rozumiany - niski autorytet - mogą nie wpłynąć w istotny sposób na pozycje. Czyli takie linki ułatwią indeksację nowych podstron, kategorii, kart produktowych itd., ale to wcale nie znaczy, że zbudują pozycje.
      Innym przykładem - działającym w podobny sposób będą linki nofollow. Linki nofollow wbrew nazwie - przekazują crawling, ale nie przekazują linkjuice'u. Czyli są skuteczne do spychania aktywności GoogleBota np. w celach poprawy indeksacji nowych treści, ale sensu stricte - nie da się nimi zbudować pozycji.
      Przykład 2: To, że pozyskam 1 link z naprawdę mocnej domenie XYZ, który to link będzie gdzieś zakopany w architekturze informacji tej mocnej domeny XYZ i ten link zostanie przez GoogleBota odnaleziony dopiero po dłuższym czasie, będzie powodem, dla którego algorytm poprawi moją pozycję w SERP'ach, ale nie musi za tym iść żaden wzmożony crawling. Ponieważ sam fakt tego, że ten mocny serwis XYZ linkuje do mnie jest wystarczającym bodźcem, dla którego A. dostanę mocnego boosta do pozycji, ale jednocześnie B. mogę wcale nie pozyskać żadnego konkretnego crawlingu.
      I nawet jeśli w przykłądzie 2 - GoogleBot nieczęsto będzie po tym linku przechodził do mnie - to wcale nie znaczy, że zbudowana tym linkiem pozycja zostanie wytracona. Oczywiście warto byłoby jednak, żeby GoogleBot wracał co jakiś czas i dostrzegał, że ten link nie został usunięty, bo generalnie linki leżą w cache'u Google'a do jakiegoś czasu i jeśli nie zostaną ponownie dostrzeżone, to rzeczywiście - tak, jakby przestawały działać, wpływać, przekładać się na utrzymanie pozycji. Tak w dużym skrócie rzecz jasna.
      Musisz spoglądać na te dwa procesy, jak na osobne zdarzenia.
      Ale jasnym jest, że jeśli masz pozyskać link z dwóch różnych serwisów, to dla Ciebie lepiej będzie, jeśli wybierzesz ten, który nie zostanie gdzieś zakopany b. daleko w architekturze informacji, bo jeśli Bot przestanie odwiedzać taki artykuł sponsorowany - z czasem go wyindeksuje, a co za tym idzie - wytnie linkjuice, jaki do tej pory z takiego artykułu sponsorowanego do Ciebie napływał.
      PS. Pamiętaj, że metryki DR i TF są metrykami wewnętrznymi Ahrefsa i innych narzędziówek SEO, więc nie są punktem odniesienia dla analiz, a jedynie dużym uproszczeniem, jakimś tam markupem, żeby łatwiej dało się na danych pracować.
      Nie wiem, czy ten komentarz wyczerpuje temat, ale jeśli coś nie jest wciąż jasne - jesteśmy do dyspozycji.

    • @poscielszpulka6247
      @poscielszpulka6247 2 года назад +1

      ​@@PaqStudio Dziękuje o to właśnie chodziło :)

  • @mariuszka5040
    @mariuszka5040 5 месяцев назад

    Gratulacje za fajne merytorycznie filmy;) mam też pytanie. Powiedzmy mam 2000 produktow zaindeksowanych a 1000 nie. Czy może się zdarzyć, że robot w pewnym momencie zaindeksuje stare produkty a te zaindeksowane usunie? Mam w planie ogarnąć stare, słabe opisy, opisy kategorii ale też wprowadzac kolejne nowe juz dużo lepiej opisane. Po trochu każdego z naciskiem na nowe produkty żwby uaktualnić ofertę. Pozdrawiam

    • @PaqStudio
      @PaqStudio  5 месяцев назад

      Nie widzimy żadnych przesłanek, żeby Google miało wyindeksować już wcześniej zaindeksowane produkty tylko dlatego, że w ofercie pojawiają się nowe. Oczywiście, przy pewnej skali, jeśli nie będziesz powiększał "crawl budgetu", np. pozyskując do sklepu linki zewnętrzne, to po prostu wytracisz zdolność do wprowadzania do indeksu nowych kart produktowych.
      Słowem: to nie jest tak, że Google usuwa z indeksu stare URLe i żeby zaindeksować nowe, tylko "przytyka się" i nie będzie wprowadzał do indeksu nowych, albo będzie robił to opornie.
      Oczywiście to tak w dużym uproszczeniu.

    • @mariuszka5040
      @mariuszka5040 5 месяцев назад

      @@PaqStudio Dziękuję za odpowiedź. Skupie się na linkowaniu żeby zwiększyć swój crawl budget. A w między czasie będę dodawał po trochu nowe produkty. Tak myslałem, czy ich nie dodawać ręcznie do zaindeksowania w GSC? Żeby była pewność, że te nowe produkty będą już zaindeksowane. Miałbym jeszcze jedno pytanie odnośnie kategorii. Sklep ma już parę ładnych lat. Teraz inaczej bym stworzył kategorie. I teraz właśnie pytanie. Czy mozna zmienić nazwę kategorii? W adresie URL nie ma nazwy... Drugie - czy jeżeli przerzucę produkty do innej kategorii to będą wystepowały błędy 404? Pozdrawiam

    • @PaqStudio
      @PaqStudio  5 месяцев назад

      1. Możesz zgłaszać URLe do indeksacji do SC, ale jeśli coś nie ma potencjału do zaindeksowania, to i tak się nie zaindeksuje.
      To jest szeroki wątek, nie do zniuansowania w komentarzu.
      Możesz przyjąć, że próba zaindeksowania przez SC jakiejś podstrony, jest równa wysłaniu 1 sesji Googlebota na ten URL. To, czy ten URL zostanie zaindeksowany i na jak długo, to już jest inny temat.
      2. URLe mają niewielki wpływ na pozycjonowanie, więc możesz zmieniać nazwy kategorii, byle byś nie ruszał ich URLi. A jeśli już musisz ruszać URL, to zrób 301 ze starego URLa na nowy, ale traktuj to jako ostateczność.
      3. Pytania o przerzucenie produktów do innej kategorii (i generowanie 404), nie rozumiemy.

    • @mariuszka5040
      @mariuszka5040 5 месяцев назад

      @@PaqStudio dzięki za odpowiedź. W zasadzie w punkcie 2 odpowiedziałeś mi na pytanie 3 które widzę sobie ubzdurałem (błąd 404). Fajnie, bo mogę sobie troche porządku zrobić na sklepie. Czy jeżeli z jakiejś kategorii przeniosę produkty do innej a sama kategoria zostanie pusta, to mogę ją tak po prostu usunąć?

    • @PaqStudio
      @PaqStudio  5 месяцев назад +1

      @@mariuszka5040 Tak, możesz ją usunąć. No chyba, że planujesz uzupełnić ją w czasie w produkty, to zostawą ją pustą na jakiś czas, a produkty dodasz do niej, kiedy będziesz rozszerzał ofertę.

  • @poscielszpulka6247
    @poscielszpulka6247 2 года назад

    Jeszcze taka myśl mnie naszła oglądając praktycznie wszystkie wasze filmy , czy to nie jest tak ze oprócz wiedzy teoretycznej / praktycznej jest coś takiego jak ,,intuicja seo-owca" ? Bo tak naprawdę nikt do końca nie wie jakie są 100% zależności i jak w 100% ,, myśli google" ? Nie ukrywam że ciekawi mnie temat SEO jednak bez przerobienie dużej ilości projektów i jeszcze więcej analiz sama wiedza jest mało warta, to tak jakby czytać o nauce pływania? Czy dobrze myślę ?

    • @PaqStudio
      @PaqStudio  2 года назад +1

      Metryki, ich kaloryczność w oddziaływaniu na SERP'y zmieniają się wraz z upływem czasu, więc nic nie jest constans. A kompetencje to wypadkowa 1. obserwacji wyników projektowych, 2. stawiania hipotez A/B i ich testowania w wydzielonym środowisku testowym (i finalnie - zbieranie wniosków), 3. rozumienia przyczynowo-skutkowego tego, jakie są interesy algorytmu, jakie są interesy użytkownika, 4. doświadczenia "wstecz", 5. analiza logów serwerowych. Oczywiście - pracując X lat w branży nabywa się też "intuicję", "nosa" (choć jest to raczej zbiór dotychczasowych doświadczeń), które pozwalają na zakładanie BARDZIEJ TRAFNYCH hipotez i oszczędzanie czasu na testowaniu rzeczy (z perspektywy czasu) oczywistych.
      A jeśli chodzi o porównanie do nauki pływania, to absolutnie tak - grunt to zbierać informacje i samodzielnie obserwować, jak WŁASNE hipotezy implikują na wyniki.