Już na przełomie XX i XXI wieku strony internetowe, które wysoko rankingowały w SERP (Search Engine Results Pages), miały w Internecie wielu klientów. Ze względu na to, że działalność online bardzo często generowała znaczne przychody, od których mogło zależeć nawet istnienie poszczególnych firm, rozpoczęła się rywalizacja o wysokie pozycje.
Niestety, systematyczne rozwijanie strony i tworzenie wartościowego contentu nie należy do najłatwiejszych zadań, dlatego popularne stały się praktyki spamerskie. W efekcie, bardzo często można było spotkać się ze technikami, takimi jak keyword stuffing (czyli sztuczne upychanie słów kluczowych w treści), pozyskiwanie ogromnej liczby linków niskiej jakości, wyświetlanie innej treści użytkownikom, a innej robotom Google oraz wieloma innymi działaniami niezgodnymi z wytycznymi wyszukiwarki.
Taki stan rzeczy nie podobał się oczywiście twórcom wyszukiwarki i sprawił, że wprowadzone zostały update’y, których celem było identyfikowanie witryn stosujących zakazane praktyki. Tak rozpoczęła się walka ze spamerskimi technikami SEO.
Chcąc dokładnie przedstawić, jak poszczególne aktualizacje przeciwstawiały się sztuczkom spamerów, musimy odejść od opisywania update’ów w kolejności chronologicznej. Dlatego w drugiej części artykułu dotyczącego pomniejszych zmian algorytmu Google, skupimy się tylko na tych, które miały za zadanie walczyć ze spamem. Opisane w niej będą aktualizacje Floryda, Austin, Brandy, Jagger oraz Dewey.
Dokładny wpływ przedstawionych aktualizacji algorytmu na działanie wyszukiwarki nie został ujawniony. Jest to celowy zabieg ze strony Google. Gdyby szczegóły wyszły na jaw, na ich podstawie możliwe byłoby opracowanie sposobu oszukania wyszukiwarki w celu zdobycia wysokiej pozycji. Z tego powodu, chcąc ustalić jakie były dokładne zmiany, trzeba opierać się na dedukcji i badaniach przeprowadzonych w wyszukiwarce przez firmy pozycjonujące strony internetowe.
W listopadzie 2003 roku wyszedł update algorytmu zwalczający spamerskie techniki SEO, który swoją nazwę zaczerpnął od stanu Floryda, bardzo często nawiedzanego przez huragany. Podobnie jak kataklizm, aktualizacja również narobiła sporo zamieszania i wywróciła wszystko do góry nogami. Nie obyło się bez kontrowersji, ponieważ po wprowadzeniu Florydy, SERP zmienił się do tego stopnia, że był ledwie rozpoznawalny.
Proszę sobie wyobrazić: jest listopad, początek sezonu przedświątecznego. Państwa sklep posiada wysoką pozycję w wynikach wyszukiwania, dlatego najbliższe dwa miesiące mają obfitować w zyski i liczne zamówienia. Niestety Google bez ostrzeżenia wprowadza aktualizację algorytmu Floryda, która sprawia, że Państwa witryna traci swoją pozycję i spada w wynikach wyszukiwania np. z pozycji 5 na 60. W związku z tym ruch na stronie, podobnie jak dochody w szczycie sezonu sprzedażowego, spadają prawie do zera. Taka sytuacja dotknęła w 2003 roku wielu sprzedawców internetowych.
Dla dużej części z nich musiało być to straszne przeżycie, jednak zmiany miały także pozytywne, długofalowe skutki. Warto pamiętać, że to właśnie dzięki takim aktualizacjom Internet jest obecnie wypełniony wartościowymi informacjami, a nie tekstami, które są przesycone słowami kluczowymi do tego stopnia, że nie da się ich zrozumieć. Walka ze spamerskimi technikami SEO wymagała ofiar. Strony, które w szczycie sezonu nagle straciły swoją pozycję, w większości przypadków stosowały praktyki oficjalnie zabronione przez Google i dlatego spotkała je kara.
Niestety wprowadzenie aktualizacji algorytmu Floryda spowodowało nie tylko utratę pozycji spamerów, ale także części przedsiębiorców postępujących zgodnie z wytycznymi Google. Z drugiej strony wiele witryn, które miały niższe pozycje mimo tego, że były rozwijane zgodnie z wytycznymi, poszybowało w górę wyników wyszukiwania. Dla tych przedsiębiorców, były to szczęśliwe święta. Nie bez przyczyny Google podkreśla, że celem nie jest ukaranie stron nie stosujących się do wytycznych, tylko nagrodzenie tych, które je spełniają.
Floryda uderzyła w najpopularniejsze praktyki spamerskie końca lat 90tych i początku nowego tysiąclecia. Należał do nich keyword stuffing, ukrywanie tekstu, stosowanie linków niskiej jakości oraz tworzenie witryn linkujących lub przekierowujących do głównej domeny branda, pozbawionych wartościowego contentu, ale mających frazę w URL. Takie strony miały za zadanie wysoko rankingować na dane słowo kluczowe, a następnie kierować do głównej domeny branda.
Dokładny sposób działania aktualizacji Floryda nigdy nie został ustalony, jednak powstało na ten temat kilka teorii.
Jedna z nich głosiła, że update algorytmu zwalczający spamerskie techniki SEO działa jak filtr. W momencie, gdy po wpisaniu zapytania Google określi listę wyników, przeprowadza filtrację, usuwając z listy strony, które wykorzystują niedozwolone praktyki.
Niestety teoria miała kilka wad. Wszystko wskazywało na to, że filtr działa jedynie w przypadku niektórych branż. Na cel miał brać sobie strony komercyjne np. sprzedające ubrania, biżuterię, czy kosmetyki. Podobno frazy związane z działalnością zarobkową miały go „aktywować”.
Ta teoria okazała się jednak daleka od prawdy. Gdyby Google posiadał taki filtr, mało prawdopodobne, że wykorzystałby go tylko w przypadku niektórych dziedzin.
Ponadto, sama idea filtra była nietrafiona. Nowy SERP w niczym nie przypominał wyników wyszukiwania sprzed wprowadzenia update’u algorytmu Floryda. Niektóre strony przemieściły się np. z pozycji 8 na 45, a witryny, które nie były nawet w pierwszej setce, mogły wylądować na pierwszym miejscu.
Obecnie specjaliści opowiadają się za tym, że aktualizacja algorytmu Floryda zmieniła sposób, w jaki Google wybiera strony do swojego rankingu.
Mimo tego, że motywacje Google były jak najlepsze i miały na celu zmusić webmasterów do skorzystania z lepszych technik SEO, nagła, diametralna zmiana wyników wyszukiwania pozbawiła wielu przedsiębiorców ruchu na stronie w momencie, gdy utarg jest największy w całym roku. Takie działanie wywołało wiele głosów sprzeciwu.
W związku z tym firma złożyła nieoficjalną obietnicę, że już nie będzie wprowadzać znacznych zmian na chwilę przed rozpoczęciem okresu świątecznego. Przez kilka lat Google dotrzymywał słowa, aż do pojawienia się Pingwina, który wszedł w życie na przełomie listopada i grudnia 2012 roku.
Wraz z początkiem roku 2004, Google kontynuował swoją walkę z niedozwolonymi technikami SEO, wprowadzając update algorytmu, który otrzymał imię Austin. Dzięki niemu wyszukiwarka stała się „mądrzejsza” i mogła lepiej rozpoznawać tematykę strony oraz niedozwolone praktyki. Ten update algorytmu zwalczający spamerskie techniki SEO również wprowadził wiele zamieszania i znacznie odmienił SERP.
Jednym z efektów wprowadzenia update’u Austin, było ukaranie wielu stron, które do tej pory miały szczęście i nie straciły pozycji wraz z wprowadzeniem aktualizacji Floryda. Powodem spadku w rankingu mogło być np. korzystanie z farm linków, spam w meta tagach, stosowanie niewidocznego tekstu oraz keyword stuffingu.
Niestety, przy okazji wprowadzania zmian ucierpiały także witryny, które stosowały się do wytycznych Google, ale polegały na praktykach SEO prowadzonych jedynie na stronie, bez korzystania z linków oraz innych działań off page (czyli prowadzonych poza witryną).
Kary dla przedsiębiorców stosujących techniki spamerskie bywały bardzo dotkliwe. Jedną z nich był „ban”, czyli całkowite usunięcie strony z indeksu. Witryna, która została w ten sposób ukarana, nie miała najmniejszych szans na pojawienie się w wynikach wyszukiwania.
Początkowo pojawiło się wiele nieprzychylnych głosów pod adresem wyszukiwarki. Mimo wszystko, z perspektywy czasu możemy przyznać, że update Google Austin miał wiele pozytywnych skutków i przyczynił się do zwiększenia wartości contentu znajdującego się w Internecie. Dzięki niemu zamieszczane treści mają wyższą jakość, a w efekcie łatwiej możemy znaleźć interesujące nas informacje.
W lutym 2004 roku Google poszedł za ciosem i wprowadził update algorytmu, który pozwalał wyszukiwarce lepiej interpretować treści znajdujące się na stronach. Wraz z nim pojawiło się znaczne poszerzenie indeksu oraz kilka zmian w mechanice algorytmu.
Wprowadzono tzw. LSI (Latent Semantic Indexing) wykorzystywane przez wyszukiwarkę do „rozumienia” wyrazów bliskoznacznych. Dzięki niemu wyszukiwarka mogła dużo precyzyjniej określić dokładną tematykę strony. W sporym uproszczeniu zadaniem LSI jest sprawdzanie kolokacji oraz wyrażeń powiązanych, żeby doprecyzować kontekst, w jakim na stronie pojawiają się frazy, a w efekcie przedstawić użytkownikowi wyniki jeszcze lepiej pasujące do jego zapytania.
Dzięki temu, po wpisaniu w Google zapytania dotyczącego ubrań damskich teoretycznie otrzymamy wyniki obejmujące sklepy handlujące np. sukienkami lub spódnicami, a nie będzie wśród nich tych, które w asortymencie posiadają jedynie odzież męską.
Za sprawą aktualizacji Brandy zmienił się również sposób zliczania linków. Po jego wprowadzeniu, stało się bardzo ważne, by anchor oraz cały tekst, w którym link został umieszczony, były tematyczne i nawiązywały do strony, do której prowadzi link.
To nie była jedyna innowacja dotycząca linków. Wraz z wejściem w życie tego update’u pojawiła się również koncepcja sąsiedztwa linków . Od początku funkcjonowania wyszukiwarki znaczną rolę odgrywało źródło, z którego pochodzą odnośniki prowadzące do strony, jednak od tej pory miały one jeszcze bardziej zyskać na znaczeniu. Przykładowo, jeśli witryna służyła do sprzedaży używanych aut, a prowadziły do niej linki z blogów, forów i stron o tematyce samochodowej, wyszukiwarka mogła precyzyjnie określić branżę, w jakiej działa witryna.
Jedynie część zmian, które wprowadzał update Brandy, została potwierdzona, pozostałe to wynik dedukcji fachowców zajmujących się SEO. Po wprowadzeniu update’u Brandy, specjaliści od SEO zauważyli, że aktualne zmiany mają coś wspólnego z autorytetem stron, ponieważ witryny eksperckie zostały wyraźnie nagrodzone. Wiele osób szybko stwierdziło, że ten update nie będzie tak znaczący jak np. Floryda, czy Austin. Ze względu na to, że podczas powiększania indeksu ponownie zaindeksowano strony, które wcześniej były ukarane „banem”, niektórzy uznali, że Brandy cofa SERP do czasów sprzed Florydy.
W dyskusji wziął udział również pracownik Google, wypowiadający się pod pseudonimem GoogleGuy. Potwierdził wprowadzenie aktualizacji oraz dość enigmatycznie oznajmił, że wprowadzenie update’u Brandy nie cofa Google do wcześniejszego stanu, a wręcz przeciwnie, robi kilka kroków naprzód i tworzy nową jakość algorytmu.
Update został wprowadzony w październiku 2005 roku. W tym czasie, w Las Vegas odbywał się koncert zespołu The Rolling Stones oraz konferencja PubCon. Dziennikarze, rozentuzjazmowani przez oba wydarzenia, określili Matta Cuttsa: „Mickiem Jaggerem wyszukiwania”. Stąd wzięła się nazwa nowej aktualizacji algorytmu. Update był wprowadzony w kilku etapach, nazwanych przez specjalistów od SEO: Jagger1, Jagger2 oraz Jagger3.
Pod względem zmian w rankingu wyszukiwania, Jagger był porównywany do Florydy, ponieważ w znacznej mierze odmienił SERP. Jego wprowadzenie zapoczątkowały zmiany obejmujące profile linków prowadzących do witryny. Dzięki niemu algorytm umiał rozpoznać temat anchora oraz całego tekstu związanego z linkiem, co pozwoliło mu docenić te tematyczne. W efekcie praktyki obejmujące pozyskanie ogromnej liczby linków np. poprzez ich zakup z farm lub masową wymianę, były łatwiejsze do wykrycia i straciły na znaczeniu.
Kolejna zmiana, którą wprowadzał Jagger dotknęła witryny posiadające duplikaty treści na różnych podstronach. Problemy z duplikatami miały również strony, które prezentowały te same treści pod różnymi wersjami adresu np. z „www” i bez niego, z „/index.html” albo ze slashem na końcu adresu W większości przypadków były to problemy związane ze znacznikami canonical.
Wprowadzenie aktualizacji Dewey w kwietniu 2008 roku nie zostało potwierdzone, ale wywołało ogromne zmiany w SERP. Wielu przedsiębiorców skarżyło się, że jednego dnia posiadali witrynę znajdującą się w top 10 na najważniejsze dla nich frazy, a następnego w ogóle nie mogli jej znaleźć w wynikach wyszukiwania. W ten sposób niektórzy kompletnie stracili ruch na swojej stronie.
Liczne protesty oraz negatywne wypowiedzi kierowane pod adresem Google sprawiły, że firma zajęła stanowisko w tej sprawie. Matt Cutts oznajmił, że nie widzi znacznych zmian w rankingu wyszukiwania. Poprosił użytkowników, by przesyłali mu informacje na temat słów kluczowych, których dotyczą znaczne zmiany. Stwierdził, że najprawdopodobniej nie będzie odpowiedzi na nadesłane wiadomości, jednak postara się przydzielić pracowników do zbadania zgłoszeń. Zaznaczył, by w wiadomościach dotyczących tej sprawy pojawiało się słowo „Dewey”. Matt Cutts podkreślił także, że nie prosi o informacje, by przekonać się jak działa update algorytmu, tylko chce dowiedzieć się, o czym wszyscy mówią. Ostatecznie nie potwierdził wprowadzenia aktualizacji.
Mimo oficjalnego stanowiska Google, specjaliści od SEO doszli do wniosku, że update Dewey rzeczywiście miał miejsce, a jego celem było usprawnienie trafności wyświetlanych wyników wyszukiwania. W efekcie jego wprowadzenia, pozycję straciły witryny korzystające z farm i kupionych linków.
Aktualizacje, których celem była walka z nieprzestrzeganiem wytycznych Google i spamerskimi technikami SEO, wywołały u webmasterów skrajne emocje. W wyniku ich wprowadzenia, pozycje straciły strony wykorzystujące np. niskiej jakości linki, keyword stuffing, czy niewidoczny tekst. Dzięki temu, że Google nauczyło się rozpoznawać i karać takie praktyki, przedsiębiorcy zostali zmuszeni do zadbania o treści, które umieszczają na stronie.
Niestety, chcąc to osiągnąć, wyszukiwarka sprawiła, że wiele stron spadło w wynikach wyszukiwania, przez co zmniejszył się na nich ruch, a w efekcie dochody właścicieli. Taki los spotkał nie tylko spamerów. W trakcie wprowadzania aktualizacji algorytmu, ucierpiało także wiele stron, które nie korzystały z niedozwolonych praktyk SEO.
Nie możemy zapomnieć także o tym, że efektem tamtych burzliwych i kontrowersyjnych przemian jest fakt, że obecnie coraz rzadziej możemy spotkać się z wykorzystaniem „sztuczek SEO”, a content znajdujący się na większości stron jest atrakcyjny dla użytkownika. Historia zmian, jakie przechodzi algorytm pozwala zrozumieć kierunek jego rozwoju, dlatego nasz poradnik pozycjonowania już wkrótce zostanie rozwinięty o kolejną, trzecią część cyklu dotyczącego „zapomnianych”, mniej znanych aktualizacji algorytmów Google.
Źródła: Ryte Wiki; Search Engine Journal; WebWorkshop; TakenMind; Search-Marketing; WebProNews; SitePoint; Flagstone Search Marketing; Search Engine Roundtable
Sprawdź w 90 sekund, jak Twoja strona radzi sobie w sieci!
Pod lupę bierzemy aż 70 różnych parametrów.
Odbieraj regularną dawkę wiedzy i nowości ze świata digital marketingu!
Zero spamu, tylko konkrety!
Na dobry start
proponujemy Ci bezpłatnie: