Jak Google Indeksuje Zablokowane Strony? Nowe Spojrzenie na Robots.txt
Jak Google Indeksuje Zablokowane Strony? Nowe Spojrzenie na Robots.txt
W ostatnim czasie temat indeksowania zablokowanych stron przez Google zyskał na znaczeniu, dzięki wypowiedziom Johna Muellera. Jego reakcja na tweet Barry'ego Adamsa z Polemic Digital otworzyła nowe spojrzenie na funkcjonalność pliku robots.txt.
Mueller podkreślił, że Google może indeksować URL-e, które są zablokowane przez robots.txt, co jest zgodne z zamysłem twórców tego protokołu. W praktyce oznacza to, że strony mogą być widoczne w wynikach wyszukiwania, mimo że zostały zablokowane dla robotów wyszukiwarek.
Barry Adams zwrócił uwagę, że robots.txt to narzędzie do zarządzania crawlingiem, a nie indeksowaniem. Warto zatem mieć to na uwadze, planując strategię SEO. Często to linki prowadzące do zablokowanych stron mogą być przyczyną ich indeksowania, co zaskakuje wielu wydawców.
Na podstawie: Źródła




![Marketingowy Skrót: internet w wersji produkcyjnej [2008-05-21]](https://www.czq.pl/CDN/wp_images/74.webp)
![Marketingowy Update: decyzje podejmowane na danych i intuicji [2008-05-22]](https://www.czq.pl/CDN/wp_images/82.webp)
![Marketing Today: marketingowy kompromis roboczy [2008-05-23]](https://www.czq.pl/CDN/wp_images/214.webp)
![Marketingowy Brief: marketingowy status: to skomplikowane [2008-05-24]](https://www.czq.pl/CDN/wp_images/195.webp)
![Digitalowy Skrót: zasięgi w wersji optymistycznej [2008-05-25]](https://www.czq.pl/CDN/wp_images/137.webp)