Jaką rolę w pozycjonowaniu witryny pełni algorytm Google?

Znalezienie odpowiedzi w Internecie na jakiekolwiek zadane pytanie bierzemy za pewnik. Szukanie rozwiązania w wyszukiwarce Google stało się remedium na troski i bolączki współczesnego człowieka. Jednak czy kiedyś przeszło Ci przez myśl pytanie, w jaki sposób wyszukiwarka ocenia witryny, które Ci proponuje? Na jakiej podstawie podaje Ci gotowe rozwiązania na tacy? Co decyduje o kolejności wyświetlanych wyników w SERP? Żeby odpowiedzieć na te i inne pytania, musisz najpierw dowiedzieć się, czym jest algorytm Google.

Czym jest algorytm Google i dlaczego jest taki ważny?

Historia algorytmu sięga aż 1997 roku, kiedy to „wynaleziono” PageRank. Miał on stanowić o powszechnej ocenie stron WWW. W ogólnym rozumowaniu PageRank jest algorytmem. Jeśli kiedykolwiek zastanawiałeś się, dlaczego sugerowane wyniki w Google są tak bardzo zbliżone do Twoich poprzednich wyszukań albo dlaczego akurat w TOP10 znajdują się TE konkretne linki, to wszystko to jest właśnie efektem przeliczeń algorytmu.

Algorytm ten to aktualizowany i często skomplikowany proces, zmieniający się właściwie codziennie. Google podaje bardzo wiele wytycznych, według których algorytm ocenia witryny internetowe i na podstawie tych wytycznych określa ich pozycję na frazy kluczowe.

Warto jednak pamiętać, że nie wszystkie czynniki rankingowe są udostępnione do wglądu. Wysoko w wynikach wyszukiwania znajdzie się strona internetowa posiadająca cechy najbardziej pożądane z punktu widzenia algorytmu. Jest to jednak sytuacja płynna - pozycja strony może ulegać zmianie, dlatego też wyników podawanych przez algorytm nigdy nie można brać za pewnik.

Ciągłe aktualizacje i zmiany (w tym te, które nie są podawane do wiadomości publicznej) powodują, że strona, znajdująca się na pierwszej pozycji na wybraną frazę kluczową, następnego dnia może znaleźć się na trzeciej – i na odwrót (to zjawisko nazywane jest nagłym awansem).

Warto zapoznać się z podstawowymi czynnikami rankingowymi Google, ale nadal mieć z tyłu głowy informację, że nie mamy wpływu na wszystko to, co dzieje się w wynikach SERP. Należy również nadmienić, że informacja o aktualizacji algorytmu przekazywana jest zazwyczaj albo prawie zawsze, po fakcie. Nie pozwala to więc na jakiekolwiek wcześniejsze przygotowania. Jeśli jednak aktualizacja jest przewidziana i podana do wiadomości publicznej przed jej wdrożeniem, nie zawsze gwarantuje to, że zdążymy się przed nią w jakikolwiek sposób uchronić.

Czy jesteśmy zatem skazani na straty? Po co w ogóle optymalizować strony internetowe, skoro algorytm Google robi z nimi co chce?

No, nie do końca tak jest. Wspominałam, że nie na wszystko w ocenie witryny mamy wpływ (i dobrze, bo czym byłyby wyniki Google bez nutki niepewności). Jednak trzymając się realizacji pewnych zasad w postaci czynników rankingowych oraz śledząc nowinki ze świata SEO, jesteśmy w stanie zminimalizować jakiekolwiek ryzyko utraty pozycji fraz kluczowych i reagować na nie z odpowiednią szybkością.

Podstawowe czynniki rankingowe Google

Czynniki te określają ramy, w jakich możemy poruszać się przy optymalizacji strony internetowej, jednocześnie pozostając w zgodzie z wymogami Google. Czyli, stosując się do tych wytycznych, możemy zagwarantować sobie nie tylko wysokie pozycje słów kluczowych, ale również brak filtrów narażających domenę na spadki.

Jedne z podstawowych czynników rankingowych Google to m.in.:

  1. Wysokiej jakości treść na stronie, np. opisy produktów, kategorii, firmy, artykuły. Czyli każdy unikalny i sensowny tekst, a w nim wdrożone frazy kluczowe. Jest to być może trudna zagrywka, ale uwierzcie mi – warto w nią zainwestować.
  2. Linki – zarówno te wewnętrzne, jak i zewnętrzne. Prawdopodobnie jest to najsilniejszy czynnik rankingowy. Im więcej wysokiej jakości treści linkuje do Twojej domeny, tym większa szansa na osiągnięcie zadowalających efektów. Jednym zdaniem, jakość linków musi być potwierdzona wysokiej jakości treścią.
  3. Mobile-first index – czyli uczynienie strony responsywną. Od 2016 roku priorytetem w dziedzinie projektowania strony www stało się dostosowanie ich do urządzeń mobilnych. Oznacza to, że kompatybilność witryn z telefonami i tabletami ma bezpośrednie przełożenie na wyniki w rankingu Google.
    Aktualne szablony powinny być oparte na jednym kodzie i nadawać priorytet w wyświetlaniu wersji mobilnej, aby zapewnić lepszą obsługę i funkcjonalność strony.
  4. Szybkość ładowania się strony – ma ona związek również z punktem poprzedzającym, czyli mobile-first index. W efekcie strona ma się ładować nie tylko sprawnie, ale i szybko na każdym typie urządzenia, na którym jest wyświetlana. Reasumując, chodzi o zapewnienie użytkownikowi jak najlepszej obsługi w każdych warunkach.
  5. Certyfikat SSL – wdrożenie go jest istotne, kiedy korzystamy z przesyłu danych wrażliwych na stronie – mam tutaj na myśli przede wszystkim dane użytkowników. Jednak ostatecznie implementacja HTTPS przyda się w przyszłości (a może już teraz?) każdej witrynie. Klient musi wiedzieć, że informacje, którymi się dzieli np. dokonująć zakupów w sklepie internetowym, są bezpieczne.
  6. Korzystanie z dobrodziejstw UX. Nadszedł ten moment, kiedy SEOwcy muszą zacisnąć zęby i wyjść poza optymalizacyjne ramy, a marketerzy powinni otworzyć się na optymalizację SEO. Z połączenia tych dwóch mocy, czyli ze współpracy specjalistów od UX (User Experience) oraz pozycjonerów powinna płynąć realizacja projektów dostosowanych w najlepszy możliwy sposób do użytkowników. Przede wszystkim pod kątem użyteczności strony internetowej.

Więcej na ten temat przeczytasz w tym artykule: SEO i UX - czyli o godzeniu dwóch racji.

Najważniejsze aktualizacje algorytmów ostatnich lat

W tym artykule nie może zabraknąć wymienienia najbardziej istotnych (jest to jednak po części subiektywny wybór) aktualizacji algorytmów, które fragmentarycznie bądź kompleksowo zrewolucjonizowały pojmowanie czynników rankingowych. Tym samym wymusiły one na właścicielach domen spore zmiany w wyglądzie szablonów na stronie, jak również wprowadziły szereg udogodnień dla korzystających z tych domen i/lub z wyszukiwarki użytkowników.

2009 - Czerwiec 2010 – Caffeine

Ogłoszony o 2009, ale ostatecznie w pełni wprowadzony w czerwcu 2010, algorytm Caffeine. Zakładał zwiększenie wydajności w wyświetlaniu wyników wyszukiwania oraz odświeżaniu najnowszych wpisów. Można napisać, że aktualizacja ta zwiększyła znacznie rozmiar indeksu, co przyczyniło się do wzrostu widoczności domen na nowe frazy kluczowe. Od tego momentu również zwiększyła się precyzja w dopasowaniu wyników do szukanego hasła. Interpretacja fraz kluczowych weszła na nowy, wyższy poziom, co dodatkowo zwiększyło ich wartość.

Luty 2011 – Panda

Panda jest ciągle aktualizowanym algorytmem, mającym na celu obniżanie lub podwyższanie wartości domeny na podstawie jakości treści. Cyklicznie aktualizacje powstrzymują domeny o wątpliwej jakości dobrego wyniku w wyszukiwarce. Obawiać się mogą również witryny, w których stosunek ilości reklam do treści jest bardzo wysoki.

Kwiecień 2012 – Pingwin

Druga po Pandzie najbardziej rewolucyjna aktualizacja algorytmu. Tuż po uporządkowaniu kwestii jakości tekstów, zabrano się za podejrzane strategie linków.

Przed wprowadzeniem algorytmu, popularnym działaniem było stosowanie spamerskiego linkowania zewnętrznego mającego podnieść pozycje fraz kluczowych. Odpowiednia ilość linków gwarantowała zazwyczaj sukces. Przy okazji starano się oszukać algorytm umieszczając URLe m.in. w artykułach, które udawały treść wysokiej jakości.

Chociaż głównym zadaniem Pingwina miało być nie tylko karanie domen za niską jakość linków, ale również nagradzanie tych posiadających dobrze zoptymalizowaną strategię, to doświadczenie pokazało, że Google skupiło się głównie na moralizowaniu.

Sierpień 2013 – Koliber

Mała (jak koliber), ale znacząca aktualizacja, mająca na celu lepsze rozpoznawanie kontekstu zapytania w wyszukiwarce. W tym momencie nastąpiła duża zmiana skupiająca się na wyszukiwaniu semantycznym. Pomimo wpisywania jednego lub dwóch haseł, wyszukiwarka stara się dopasować kontekst i znaczenie frazy kluczowej. Chociaż Google było bardzo dumne z tej aktualizacji, to przeszła ona trochę bez echa.

Kwiecień 2015 – Mobile-first index „Mobilegeddon”

Czyli rozpoczęcie mobilnej rewolucji. Była to najnowsza aktualizacja algorytmu mobilnego mającego na celu wprowadzenie lepszej jakości wyszukań na smartfonach i tabletach. Algorytm ten miał wpływ wyłącznie na wyszukiwania mobilne, ale w praktyce dość mocno wpłynął na sposób budowy współczesnych szablonów stron. Zaczęto bowiem promować witryny, które były responsywne i dyskryminować te niedostosowane.

Wrzesień 2016 - Opos

Niepotwierdzony przez Google algorytm, mający jednak duży wpływ na wyszukiwanie lokalne, w tym na widoczność wizytówki Moja Firma. Od tego momentu firmy nieznajdujące się w granicach miast bądź regionów, do których kieruje optymalizacja witryny, powinny mieć trudności w osiągnięciu zadowalających pozycji słów kluczowych.

Dodatkowo fizyczna lokalizacja osoby wpisującej zapytanie w Google zyskała na znaczeniu i to ona miała decydujący wpływ na wyświetlane wyniki.

Marzec 2017 – Fred

Podobnie jak w przypadku aktualizacji algorytmu „Opos”, Google nie potwierdziło oficjalnie tej zmiany. Algorytm ten miał „odcinać” od wysokich wyników domeny skupiające się wyłącznie na monetyzacji swoich działań i zarabianiu, aniżeli na wysokiej jakości treści lub nawet UX.

Lipiec 2018 – Mobile Google Speed

Aktualizacja wprowadzająca nowy czynnik rankingowy w ocenie stron internetowych. Chodzi mianowicie o szybkość ładowania się witryny na urządzeniach mobilnych. Ta aktualizacja znacząco wpłynęła na firmy, które uzyskiwały ruch głównie z bezpłatnych wyników wyszukiwania.

Nie oznaczało to jednak, że strony działające wolno straciły całkowicie na znaczeniu. Działo się tak tylko wtedy, kiedy posiadały „szybszą konkurencję”.

Styczeń 2020 – Core

Dość tajemnicza aktualizacja, o której niewiele wiemy, jednak odnosząca się do aktualizacji – jak sama nazwa wskazuje – rdzenia. W zasadzie odnosi się to do wielu małych aktualizacji, które odbywają się w wyszukiwarce nawet do dwóch razy na dzień.

Według aktualizacji algorytmu Core, witryny, które utraciły wysokie pozycje w SERP, mają mieć większe trudności w ich odzyskaniu. Aktualizacja ta skoncentrowana była na zapewnieniu lepszej jakości wyników wyszukiwania, ale tak właściwie można podsumować każdą aktualizację.

Co dają nam aktualizacje algorytmu wyszukiwarki?

Aktualizacje algorytmu każdorazowo dostosowują wyniki wyszukiwania do przyzwyczajeń i oczekiwań użytkowników, ułatwiając im poruszanie się w SERP. Chodzi w nich przede wszystkim o uczynienie wyszukiwarki Google użytecznej zarówno dla szukających, jak i mających zostać wyszukanymi.

Kolejnym plusem aktualizacji jest eliminowanie niechcianych i spamerskich praktyk związanych z SEO. Mowa tutaj o tzw. black hat techniques – czyli o wszystkich działaniach, które według Google są niepożądane. Jeśli sam stosujesz takie techniki (często nieświadomie), mogą one dać chwilowy pozytywny efekt. Ale do czasu. Strona zoptymalizowana według oficjalnych zasad, zawsze ma większą szansę na uzyskanie dobrych pozycji oraz ich utrzymanie, aniżeli ta posługująca się nieetyczną optymalizacją.

Algorytm można porównać do świetnie prosperującego ula, w którym nieustannie zapamiętywanych jest sporo procesów, mających ułatwić Ci komunikację na linii użytkownik – firma. Wszystkie aktualizacje to zmiany w funkcjonowaniu ula. Z jednej strony są to kłody rzucane pod nogi pozycjonerom, z drugiej nieoceniona pomoc i cenne wskazówki - zarówno dla firm, jak i użytkowników. Śledzenie bieżących informacji, podawanych przez Google oraz zmian wyłapywanych przez blogerów i/lub osoby zajmujące się SEO to skarbnica wiedzy na temat większości aktualizacji. Nikt bowiem nie zareaguje szybciej od poirytowanego pozycjonera, który musi zmierzyć się z nagłymi spadkami pozycji ;)

 

Specjalistka ds. SEO
Kasia Cieślik

SKONTAKTUJ SIĘ Z NAMI!