Spadek Crawlowania Googlebota: Co Mówi John Mueller?
Spadek Crawlowania Googlebota: Co Mówi John Mueller?
W ostatnich dniach w serwisach społecznościowych pojawił się wątek dotyczący drastycznego spadku crawlowania przez Googlebota, co przyciągnęło uwagę Johna Muellera z Google. Użytkownik Reddita zgłosił, że po wprowadzeniu uszkodzonych adresów hreflang w nagłówkach HTTP, liczba żądań crawl wzrosła o około 90% w ciągu 24 godzin.
Jak wynika z relacji, dodanie błędnych adresów hreflang spowodowało, że Googlebot napotkał na problemy, zwracając błędy 404. Użytkownik opisał: „W zeszłym tygodniu wdrożenie przypadkowo dodało uszkodzone adresy hreflang w nagłówkach HTTP na całej stronie: Googlebot je przeszukał → wszystkie zwróciły twarde 404.”
Mueller zasugerował, że tak drastyczny spadek crawlowania mógł być spowodowany nie tylko błędami 404, ale raczej problemami po stronie serwera, takimi jak błędy 429, 500, 503 lub timeouty. Jego odpowiedź może być kluczowa dla webmasterów, którzy zmagają się z podobnymi problemami.
Na podstawie: Źródła








