Google Przypomina o Używaniu Robots.txt do Blokowania URL-i Akcji
Google Przypomina o Używaniu Robots.txt do Blokowania URL-i Akcji
Gary Illyes, analityk w Google, w swoim poście na LinkedIn ponownie podkreślił ważność używania pliku robots.txt przez właścicieli stron internetowych. Jego wskazówki koncentrują się na zablokowaniu dostępu dla robotów internetowych do URL-i, które wywołują akcje, takie jak dodawanie produktów do koszyka czy listy życzeń.
Illyes zwrócił uwagę na powszechny problem związany z nadmiernym ruchem robotów, który obciąża serwery. Wiele z tych skarg dotyczy sytuacji, gdy roboty wyszukiwarek skanują URL-e przeznaczone wyłącznie dla użytkowników. Jak zauważył: „Zbyt często to URL-e akcji, takie jak ‘dodaj do koszyka’ i ‘dodaj do listy życzeń’, które są bezużyteczne dla robotów.”
Aby uniknąć niepotrzebnego obciążenia serwerów, Illyes doradza blokowanie dostępu w pliku robots.txt dla URL-i zawierających parametry takie jak „?add_to_cart” lub „?add_to_wishlist”. Przykładowo, sugeruje, aby właściciele stron zwrócili uwagę na odpowiednią konfigurację swoich plików.
Na podstawie: Źródła







