Filtr od Google: ręczny i algorytmiczny – jak się nie narazić?

Filtr od Google: ręczny i algorytmiczny – jak się nie narazić?

Dla stron internetowych, ruch z kanałów organicznych jest najważniejszy w pozyskiwaniu użytkowników. Sukces w biznesie aktualnie niemal w większości zależny jest od tego, jak wygląda współczynnik konwersji. Aby osiągać lepsze i szybsze wyniki w pozycjonowaniu, niektórzy próbują oszukać Googlebota. Manipulują algorytmem stosując np. niedozwolone przez Google praktyki lub próbują nadmiernie zoptymalizować witrynę. Niestety (dla nich), Google coraz lepiej radzi sobie z oceną działań podejmowanych na stronach.

Z każdym kolejnym updatem wyszukiwarki, koryguje ona ilość i jakość podstron znajdujących się w indeksie. Może to znacząco wpłynąć na widoczność witryn – zarówno pod względem wzrostów, jak i spadków. Każda kolejna próba oszukania wyszukiwarki może zostać potraktowana karą. Jak zazwyczaj wyglądają te kary? Jak je rozpoznać? 

Różnice pomiędzy filtrem algorytmicznym a ręcznym

Kary w domyśle Google to tzw. filtry. W nomenklaturze SEO rozróżniamy filtry algorytmiczne oraz ręczne. Filtry te mogą zostać nałożone na witrynę, kiedy ta nie przestrzega zasad optymalizacji pod SEO (tzw. White Hat SEO), np. stosując techniki Black Hat SEO. Dzięki nim próbuje skrócić czas uzyskania sukcesu w wynikach organicznych. Jak rozpoznać, że nasza witryna ma nałożonego filtra? Najczęstszym efektem są nagłe lub cykliczne spadki witryny, pojawiające się bez względu na prowadzone linkowanie bądź regularną optymalizację. W skrajnych przypadkach dochodzi nawet do usunięcia konkretnych podstron lub całej domeny z indeksu wyszukiwarki. 

Otrzymanie filtra ręcznego, czyli w domyśle tego „gorszego” ma jednak swój duży plus. Wyszukiwarka powiadomi Cię o tym w panelu Google Search Console. Jeśli znajdziesz tam niepokojące Cię komunikaty świadczące o tym, że na witrynie znaleziono działania spamowe, musisz zacząć działać jak najszybciej. Google zazwyczaj dokładnie opisuje, czego dotyczy problem . Dzięki temu łatwiej i szybciej jest na niego zareagować. Kiedy usuniesz problem wskazany przez wyszukiwarkę, wystarczy zgłosić się do ponownej weryfikacji i czekać na werdykt. 

W przypadku filtra algorytmicznego sytuacja jest nieco bardziej skomplikowana, bowiem informacji o jego otrzymaniu nie znajdziesz nigdzie. Wspomniane nagłe spadki widoczności mogą być alarmujące – i właśnie wtedy powinieneś szukać gdzieś przyczyny. Google nakłada filtry algorytmiczne znacznie częściej, niż te ręczne. Jest to niejednokrotnie reakcja na jakąś aktualizację algorytmu i rekalkulację wyników. W momencie, kiedy optymalizacja witryny odbiega znacząco od wymagań update’u, możesz liczyć się z problemami. Aby stwierdzić i w ogóle zauważyć, że na stronę został nałożony filtr algorytmiczny, konieczne jest regularne monitorowanie odwiedzin i śledzenie statystyk wyszukiwalności oraz klikalności. Niestety nie ma jednej przyczyny nałożenia kary algorytmicznej, dlatego tak trudno później jest zdiagnozować problem. Zdarza się, że nawet kilka miesięcy po usunięciu niepoprawnej optymalizacji, możemy liczyć się ze zmniejszoną widocznością serwisu. Wychodzenie z filtra algorytmicznego jest karkołomne i czasem przypomina to szukanie igły w stogu siana.

Za co Google karze filtrami?    

  1. Upychanie słów kluczowych w każdym możliwym miejscu na stronie. Google karze za te działania już od ponad dekady. Pomimo tego, jest to jeden z największych i niestety ciągle praktykowanych błędów. W październiku 2019, Google wprowadził aktualizację algorytmu zwaną BERT, dzięki któremu wyszukiwarka zaczęła lepiej rozumieć język naturalny, przez co sprawniej rozpoznaje ilość i jakość umieszczonych w treści fraz kluczowych. Była to jedna z najważniejszych ówczesnych aktualizacji. Dzięki niej poprawiło się również odczytywanie przez Google fraz z długiego ogona i rozumienie ich semantyki. 
  1. Posiadanie słabej jakości treści, często skopiowanej z innych domen. Aby zyskać aprobatę Google, należy posiadać wartościową treść, w której zawarte są frazy kluczowe rozrzucone w odpowiedniej ilości. Co bardzo ważne, teksty te nie mogą być skopiowane z innych domen, muszą być poddane redakcji (najlepiej z użyciem zgodnych z prawem przypisów). Bardzo popularną metodą zwiększającą ilość wartościowej i przydatnej użytkownikowi treści na domenie jest prowadzenie bloga, gdzie regularnie aktualizujemy domenę o nowe artykuły. W ocenie jakości witryny pod kątem treści, tak samo jak w przypadku odczytywania fraz kluczowych, również tutaj ogromne znaczenie miała aktualizacja algorytmu zwana BERT. 
  1. Korzystanie ze spamerskich linków odsyłających do domeny. Dość popularną i niepoprawną praktyką w celu zwiększenia widoczności serwisu jest kupowanie dużej liczby linków, które prowadzą do witryny. Często osoby, które się na to decydują, nie mają nawet świadomości, że linki te są bardzo słabej jakości i uznawane są za spamerskie. Wyszukiwarka bardzo szybko może zorientować się, że próbujemy oszukać system idąc na łatwiznę, przez co możemy z dużą dozą prawdopodobieństwa być narażeni na nałożenie filtra. Działając zgodnie z zasadami optymalizacji, powinniśmy cyklicznie realizować założenia linkowania, zwracając uwagę przede wszystkim na jakość, a nie ilość. Najlepszą metodą będzie korzystanie z artykułów sponsorowanych i w nich umieszczanie linków. Można pokusić się również o realizowanie tzw. szeptanki na forach lub portalach tematycznych. „Tematycznych” to tutaj słowem kluczem, bowiem chodzi właśnie o wymienność linków z portali, które są równie branżowe. Nigdy nie wierz, jeśli ktoś przekonuje Cię, że oferowane linki są niewykrywalne przez Google. 
  1. Widoczność witryny może znacząco spaść, jeśli na stronie stosujemy reklamy bądź banery utrudniające nawigację. Generalnie utrudnianie użytkownikom działań na stronie nie tylko może spowodować nałożenie filtra, ale również nie przyczynia się w żadnym stopniu do dobrego odbioru domeny przez przyszłych klientów. Kolejne aktualizacje algorytmu potwierdziły, że stosowanie nachalnych reklam może negatywnie wpłynąć na ogólną widoczność strony. Pisząc krótko, witryna ma być przyjazna przede wszystkim użytkownikowi. Ruch Googlebota odzwierciedla często ich działania i potrafi ocenić przydatność i funkcjonalność szablonu. 
  1. Skoro wspomnieliśmy już o linkach zewnętrznych linkujących do witryny, musimy również wspomnieć o linkach wewnętrznych, czyli tych do np. podstron ofertowych, kategorii, produktów, itp. Struktura linku powinna być jak najbardziej czytelna i tak samo krótka. URL powinien przekazywać informację użytkownikowi, w którym miejscu na domenie się znajduje. Im krótszy i bardziej czytelny link, tym lepiej dla jej widoczności, a tym samym lepsza ocena przez Google. Sztucznie generowane linki, które zawierają np. wiele losowych znaków nie mówią nic o treści podstron.
  1. Dość staromodną praktyką już coraz rzadziej spotykaną jest ukrywanie treści na stronie nie tylko przed robotem Google, ale również przed użytkownikami. Polega to na stosowaniu takiego samego koloru fontu, jak tło na którym się on znajduje, czyli tzw. biały tekst na białym tle. W taki sposób dawniej można było ukryć wiele fraz kluczowych. Aktualnie Googlebot bardzo szybko wykrywa takie działania i dawniej dość często było to powodem nakładania filtrów. 
  1. Niepoprawne linki zewnętrzne, źle wygenerowane linki wewnętrzne, ale również linkowanie do zbyt wielu obcych domen jest powodem, dla którego można otrzymać filtra. Zdarza się, że nie zdajemy sobie sprawy z tego, że nasza domena stała się źródłem linków, które zostały np. po budowie szablonu. Może dojść również do sytuacji, w której nasza witryna stała się ofiarą ataku hakerskiego, przez którego powstała farma linków.  

W przypadku, kiedy koniecznie chcemy lub wręcz musimy umieścić dużą liczbę linków do innych domen, możemy je odpowiednio opisać i zablokować w kodzie atrybutem „nofollow”. Dzięki temu Google nie „przejdzie” pomiędzy witrynami, a my mamy czyste sumienie.

  1. Karę w postaci filtra można również otrzymać ze względu na wspomniany atak hakerski. Chociaż sama sytuacja najczęściej nie powstaje z naszej winy, to zhakowana strona internetowa niemal zawsze staje na celowniku Google, nie pozostając niezauważoną. Niestety, ale niektóre systemy CMS są bardziej narażone na częste ataki, a to głównie przez błędy w oprogramowaniu lub luki w kodzie, które stanowią furtkę dla spamerskich robotów. Złośliwe oprogramowanie może dodać na stronę spamerskie linki (w dużej ilości) oraz np. treść w innym języku naszpikowaną losowymi frazami kluczowymi. Może dojść do sytuacji, że witryna otrzyma odgórny komunikat z serwera, że została zhakowana, wtedy tym bardziej nie umknie to uwadze Google. Co więcej, informacja o tym, że witryna została zhakowana może często być gorszą karą, niż utrata rankingu w wyszukiwarce – tracimy bowiem przy okazji zaufanie naszych klientów.
  1. Stosowanie praktyk Black Hat SEO, czyli tzw. Cloaking. Więcej na ten temat przeczytasz w artykule: Czym jest cloaking w SEO, czyli o ukrywaniu treści. Ogólnie pisząc, polega to na pokazywaniu robotowi Google zupełnie innej wersji witryny, niż ta prezentowana użytkownikom. Według praktyk optymalizacyjnych wytyczonych przez Google, taka sytuacja jest wręcz niedopuszczalna i surowo karana np. filtrem algorytmicznym. Strona internetowa powinna występować tylko w jednej wersji i wyświetlać się w taki sam sposób potencjalnym klientom, jak i wyszukiwarce.     
  1. Bardzo wolne ładowanie się witryny to kolejny powód, dla którego Google może nałożyć filtr. Zwłaszcza w dobie zwracania ogromnej uwagi na reponsywność serwisów, czyli ich wyświetlania się na urządzeniach mobilnych, z których korzysta przecież coraz więcej osób. Z tym punktem wiąże się również nie wyświetlanie się serwisu np. poprzez błąd serwera. Więcej na ten temat przeczytasz tutaj: Kody odpowiedzi HTTP i ich wpływ na pozycjonowanie. Podczas długiej „nieobecności” witryny w sieci, Google może uznać, że strona nie zasługuje już na pojawianie się w indeksie. W tej sytuacji tym bardziej szybka reakcja na problem wydaje się kluczowa. Dłuotrwałe problemy z ładowaniem się serwisu niemal zawsze skutkują problemami z wyświetlaniem się go w indeksie wyszukiwarki.  

Jak pozbyć się filtrów nałożonych przez Google?

Gdy tylko zorientujesz się, że Twoja domena ma lub może mieć nałożony któryś z filtrów: algorytmiczny lub ręczny, powinieneś działać natychmiast, aby uniknąć dalszych spadków. Jeśli problem jest wskazany w Google Search Console, to w zasadzie pozostaje jedynie go rozwiązać. W przypadku filtra algorytmicznego odpowiedzią jest… szukanie i kompleksowy audyt przy użyciu wyspecjalizowanych narzędzi SEO, aby móc określić potencjalne źródło problemu.

Kiedy kara nałożona jest np. za spamerskie linki, powinieneś określić profil linków i wyselekcjonować te, które są szkodliwe. Następnie przy pomocy Google Search Console i narzędzia Disavow, zgłaszasz te linki i wyrzekasz się ich. Po pozbyciu się problemów, albo sygnalizujesz ich rozwiązanie (w przypadku filtra ręcznego), albo czekasz na reakcję Google (lub kolejną aktualizację algorytmu). Możesz też spróbować zaindeksować poszczególne podstrony ręcznie (jeśli problem dotyczy tylko ich, a nie całej witryny). Musisz uzbroić się w cierpliwość. 

Jak unikać nałożenia filtrów przez Google?

Zasad jest kilka, ale za to są niezwykle przejrzyste. Mianowicie:

  • wybierz szybki, bezpieczny i sprawdzony hosting dla strony internetowej, 
  • dokładnie zapoznaj się z wytycznymi Google odnośnie pozycjonowania (np. White Hat SEO) witryny i nie próbuj ich ominąć, 
  • regularnie sprawdzaj statystyki dotyczące Twojej witryny (przede wszystkim w Google Search Console, Google Analytics, czy w https://app.senuto.com/, https://www.semstorm.com/pl) – nie tylko jej ogólną widoczność, ale również profil linków (np. poprzez narzędzie https://ahrefs.com/),  
  • śledź aktualizacje algorytmu Google – przynajmniej miej na uwadze te najważniejsze, które zazwyczaj powodują najwięcej zamieszania w indeksie, 
  • dokonaj uważnej selekcji reklam i banerów wyświetlanych na Twojej stronie internetowej,
  • zabezpiecz stronę, aby uniknąć ataków hakerskich. 

Zobaczysz, że Twoja witryna wyjdzie z tego cało!

Google miesięcznie wydaje zapewne setki, jak nie setki tysięcy kar za niestosowanie się do wytycznych. Filtry Google są całkowicie do uniknięcia, jeśli dobrze zapoznasz się z sugestiami, co może je prowokować. Najważniejsze jest posiadanie konta na darmowym narzędziu Google Search Console, w którym najszybciej dowiesz się, czy zbliżają się kłopoty. Możesz tam również monitorować postępy w zwiększaniu widoczności witryny, takie jak klikalność oraz wyświetlenia fraz kluczowych.

Niezależnie od tego, jak bardzo zgrzeszyłeś, świadomie albo nieświadomie, pozbycie się filtrów jest niemal zawsze wykonalne. Jeśli szukasz porady w dziedzinie SEO i potrzebujesz pomocy w kwestii uwolnienia się od filtrów, skontaktuj się z nami! Kluczem do usunięcia jakiejkolwiek kary jest zrozumienie, co ją spowodowało. Możesz to zostawić specjalistom będącym na bieżąco z aktualnymi wytycznymi Google odnośnie pozycjonowania oraz z wszelkimi aktualizacjami algorytmów wyszukiwarki.  

Kasia Cieślik
Specjalistka ds. SEO