Jak Google ocenia strony zablokowane przez robots.txt?
Jak Google ocenia strony zablokowane przez robots.txt?
John Mueller z Google niedawno wyjaśnił, jak Google określa istotność zapytań dla stron zablokowanych przez robots.txt. Wiele osób sądzi, że takie strony nie mogą być indeksowane, ale to nieprawda. Google nadal indeksuje te strony, co rodzi pytanie: jak Google wie, jakie zapytania są dla nich odpowiednie?
Podczas wczorajszego spotkania Google Webmaster Central pojawiło się pytanie dotyczące intencji użytkownika. Mueller zauważył, że ponieważ strona jest zablokowana, Google nie ma dostępu do jej treści. Zamiast tego, Google porównuje URL z innymi adresami, co jest znacznie trudniejsze w przypadku zablokowanych stron.
Mueller podkreślił, że w większości przypadków Google priorytetowo traktuje indeksowanie innych stron, co może wpływać na ranking zablokowanych URL-i. To pokazuje, jak skomplikowany jest proces oceny treści w kontekście SEO.
Na podstawie: Źródła








