Pozycjonowanie i optymalizacja stron polega między innymi na tym, by przedstawić robotom wyszukiwarek internetowych jak najwięcej wartościowych treści. Czasem jednak część treści należy ukryć przed wyszukiwarkami. Dlaczego? Powodów może być kilka – prywatność, duplicate content, nadmierny transfer tworzony przez roboty, itd. Jak to zrobić, żeby ukryte treści nie wpłynęły negatywnie na pozycjonowanie?
To sposób na blokowanie wybranych części podstrony. Część treści, która nie ma być zaindeskowana, może zostać osadzona w ramce, która jest zablokowana np. poprzez robots.txt.
Można skonfigurować serwer tak, by blokował lub wyświetlał stronę bez wybranych treści dla botów z danej puli adresów IP lub dla botów o danej wartości user-agent.
Większe wyszukiwarki internetowe dają użytkowniom możliwość usunięcia stron z indeksu. Strony zgłoszone do usunięcia przy pomocy narzędzia „Usuń adresy URL” dostępnego w Narzędziach Google dla webmasterów zwykle znikają z indeksu Google w przeciągu 24 godzin. Wkrótce przedstawimy opis korzystania z tego narzędzia.
Do atrybutów linku dodać można kolejny – rel=”nofollow”. Roboty wyszukiwarek internetowych nie będą wtedy przechodziły dalej po takich linkach. Należy jednak pamiętać, iż ktoś z zewnątrz może dodać linka do strony bez atrybutu rel=”nofollow”, a wtedy strona zostanie zaindeksowana. Oczywiście można dodaktowo zastosować rozwiązania wymienione wcześniej, które skutecznie zablokują roboty 😉
Pozycjonując stronę internetową warto pamiętać o powyższych rozwiązaniach, żeby możliwie skutecznie ukrywać treści przed robotami Google.
Sprawdź w 90 sekund, jak Twoja strona radzi sobie w sieci!
Pod lupę bierzemy aż 70 różnych parametrów.
Odbieraj regularną dawkę wiedzy i nowości ze świata digital marketingu!
Zero spamu, tylko konkrety!
Na dobry start
proponujemy Ci bezpłatnie: