Wyszukiwarka Google robi wszystko, aby wykrywać i zmniejszać skuteczność niechcianych praktyk pozycjonerskich. Bez względu na to, czy są to praktyki realizowane przez ich twórców, czy przez niechcianą konkurencję. Wraz z rozwojem świadomości odnośnie nowoczesnego pozycjonowania oraz stosowaniem optymalizacji zgodnej z wymogami Google, spada liczba witryn narażonych na filtry (czyli kar nałożonych przez Google za uciekanie się do „złej optymalizacji”). Niemniej, nie zawsze możemy ustrzec się przed tzw. black hat SEO atakującym naszą witrynę, czyli ogólnie pisząc – depozycjonowaniem.
Czym jest depozycjonowanie?
Depozycjonowanie (inaczej: negatywne pozycjonowanie), to najprościej ujmując, praktyki stosowane przez witryny (za którymi stoi człowiek) do obniżenia rankingu innej witryny. Działania te mogą spowodować spadek widoczności domeny w Google, spadek wejść na tę domenę lub pozycji fraz kluczowych. W najgorszym wypadku realizacja depozycjonowania powoduje nałożenie filtra (np. algorytmicznego) przez Google.
Bardzo trudno jest wymienić konkretne działania związane z depozycjonowaniem. Osoby odpowiedzialne za ten proceder, najczęściej posiadają swoje sposoby, aby obniżyć ranking innych domen. Jeśli jednak dobrze zna lub kojarzy się, jak wygląda optymalizacja zgodna z wymogami Google, to łatwo można wyciągnąć wnioski, jak inni mogą używać tych technik do atakowania i szkodzenia stronom WWW.
Jak możemy rozpoznać depozycjonowanie naszej domeny?
Jak wspomniałam, rozpoznanie depozycjonowania nie jest łatwym zadaniem. Spadek widoczności lub pozycji fraz kluczowych może być podyktowany nie tylko negatywnym działaniem konkurencji, ale również aktualizacją algorytmu Google oraz zmianami podejmowanymi bezpośrednio na domenie. Wszystkie wspomniane poniżej najpopularniejsze przykłady świadczące o depozycjonowaniu, mogą być również efektem nieudolnego pozycjonowania lub nieświadomych błędów popełnianych przez samych właścicieli stron internetowych.
Kluczem jest odróżnienie tych sytuacji i wdrożenie odpowiednich działań “leczniczych”. Poniżej znajdują się najczęstsze przyczyny spadku widoczności serwisu, które mogą świadczyć o depozycjonowaniu.
Spamerskie linki
Jednym z najczęstszych działań depozycjonerskich powodujących spadek widoczności serwisu, jest stosowanie linkowania zewnętrznego, pochodzącego ze spamerskich źródeł i nakierowanego na domenę. Jest to również typowy przykład z dziedziny „black hat SEO”, czyli realizacja starych i nieaktualnych praktyk pozycjonerskich, które w tych czasach już się nie sprawdzają, a najczęściej szkodzą.
Taki masowy atak może spowodować, że w kilka dni lub tygodni, ranking domeny znacząco się obniży. Konkurenci tworzą serię nieprzyjaznych linków z ogromnej liczby spamerskich katalogów lub stron internetowych. Z punktu widzenia wyszukiwarki, zawsze będzie wyglądać to źle. Wszakże nagły wzrost dużej liczby linków prowadzących do witryny nie jest po prostu naturalny – zwłaszcza, jeśli linki te pochodzą z problematycznych domen. W przypadku wykrycia takich działań, Google może oflagować Twoją domenę jako równie spamerską i ukarać za próbę opracowania niechcianej kampanii.
Mógłbyś zapytać – ale jak to, Google każe za to, że na innych stronach pojawia się dużo odnośników do mojej domeny? Oczywiście! Dzieje się tak, ponieważ linki te mogą wychodzić np. ze stron dla dorosłych lub otagowanych jako hackerskie. Wyszukiwarka nie bawi się w szczegółową ocenę tych linków.
Jeśli zorientujesz się i upewnisz w tym, że Twoja domena mogła znaleźć się na celowniku nieuczciwej konkurencji, koniecznie wykonaj analizę linków (o której wspominam w kolejnych akapitach, pisząc chociażby o narzędziu AHREFS). Wyodrębnij URLe spamerskie i wyrzeknij się ich w narzędziu Google Search Console. Dzięki temu dasz znać wyszukiwarce, aby nie uwzględniała tych konkretnych linków w ocenie Twojej witryny.
Duplikacja treści
Jest to dość często stosowana praktyka depozycjonowania, zwykle realizowana przez samych poszkodowanych (nieświadomie). Jednym z celów Google, jest dostarczanie użytkownikom wysokiej jakości treści. Jednak to właśnie na Twoich barkach spoczywa realizacja tego planu. Algorytm wyszukiwarki nadaje priorytet treściom, które w jego mniemaniu są wystarczająco merytoryczne, a jednocześnie przyjazne użytkownikom. Pisząc „przyjazne użytkownikom”, mam na myśli sensowny podział na akapity, mądrze wdrożone frazy kluczowe, odpowiedzi na ważne pytania zadane np. w tytule lub w podtytułach. Wszystko w treści musi zamykać się w jedną całość, nawet jeśli widnieje ona jedynie jako opis kategorii.
Jak już wspomniałam, Google wysoko ocenia content będący unikalnym. Co się stanie, jeśli inna witryna skopiuje od nas tę wartościową treść i posłuży się nią jako swoją? A jeśli domena, na której znajdzie się ukradziona treść, znajduje się wyżej w rankingu wyszukiwarki, a tym samym jest bardziej uprzywilejowana z perspektywy Google?
Nawet, jeśli Twoja witryna jest oryginalnym źródłem informacji, konkurenci mogą wykorzystać wiele z treści tam umieszczonych i przedstawiać je jako własne, niejako przekonując wyszukiwarkę do tego, że to Twoja domena skopiowała teksty.
Informacje z domeny mogą być kopiowane zarówno na inne, podobne domeny, ale również na fora internetowe, do social mediów, itp. Wszystko po to, aby sprawić wrażenie iluzji, że to Twój content nie jest wystarczająco unikalny.
Poszkodowani często sami nieświadomie kopiują swoje treści na inne witryny, bez podania linka zwrotnego. Co więcej, umieszczają zbyt wiele skopiowanej treści w obrębie swojej witryny (o czym możesz więcej przeczytać tutaj: Duplicate content – co to jest duplikacja treści?).
Stosowanie praktyk związanych z kopią treści, może powodować sukcesywny spadek widoczności serwisu. Spadek, którego możesz nie zauważyć od razu, ponieważ jego efekty będą rozciągnięte w czasie.
Jeśli napotkasz w Internecie kopię Twojej treści, najpierw skontaktuj się z właścicielem domeny. Być może nie ma on świadomości, że na jego stronie znajduje się skopiowany tekst. Tak może się stać, jeśli powierza on marketing np. firmie zewnętrznej. Jeśli kontakt nic nie da, zawsze możesz skorzystać z formularza Google do zgłaszania naruszenia praw autorskich (musisz posiadać podpiętą stronę do Google Search Console).
Strona została zhakowana
Jeśli pomyślimy o zhakowanej stronie, to na pewno przed oczyma jawi nam się wizja niedziałającej domeny, matrixowe zlepki kodu wysuwające się z górnej części przeglądarki lub po prostu niemożność zalogowania się do CMSa. Aktualnie, aby zaszkodzić jakiejkolwiek witrynie, wystarczy działać nieco subtelniej, wręcz niezauważalnie – do czasu.
Jeśli hakerzy lub spamerskie boty dostaną się do Twojej witryny, najpewniej w ogóle tego nie zauważysz od razu. Boty mogą podmieniać linki na banerach prowadząc do spamerskich lub nieistniejących stron WWW. Dodatkowo mogą wprowadzać subtelne zmiany w kodzie strony, które powodują odwracalne, ale trudne do wyśledzenia szkody, np. dodają bloki tekstu w obcych językach (często są to kopie treści), zmieniają struktury URL, tworzą nowe podstrony, które nie są umieszczone w menu, usuwają grafiki i wiele innych.
Aby zastosować tego typu formę depozycjonowania, z pewnością trzeba się bardziej zaangażować i posiadać bardzo specjalistyczną wiedzę. Częściej zdarza się, że strona została zainfekowana wirusem zupełnie przypadkowo. Najczęstszym powodem zbyt słabe zabezpieczenie kodu strony lub luki w zainstalowanych wtyczkach przepuszczające niechcianych gości. Dlatego musisz pamiętać o regularnych aktualizacjach strony lub wtyczek oraz o możliwie najlepszym zabezpieczeniu miejsca logowania do CMS oraz plików serwera strony (FTP). Często ustawienie mocnego hasła niestety nie jest wystarczające.
Fałszywe recenzje i oceny zamieszczane w Internecie
Najczęstszymi miejscami, gdzie zamieszcza się fałszywe i negatywne recenzje, są Facebook, wizytówka Google Moja Firma, Instagram (komentarze), czy różnego typu portale, na których ocenia się pracodawców. Podczas gdy te ataki na wspomnianych witrynach mają jedynie zdyskredytować domenę i firmę w oczach potencjalnych klientów, to niskie oceny w wizytówce Google Moja Firma mogą mieć znaczący wpływ na pozycjonowanie lokalne. Co następnie może prowadzić do spadku ruchu na witrynie.
Zgłaszanie treści lub witryny z powodów prawnych i/lub naruszenia praw autorskich
To najpewniej jedna z najszybciej egzekwowanych skarg mogąca z dnia na dzień zaszkodzić witrynie. Google ma prawny obowiązek reagowania na skargi związane z łamaniem prawa. Niestety wyszukiwarka w takich sytuacjach może działać pochopnie, co powoduje nagłe i tymczasowe wyrzucenie witryny z indeksu. Chociaż od momentu zgłoszenia, do rozwiązania sprawy zwykle nie mija wiele czasu, to jednak sytuacja ta może aszkodzić Twojej witrynie, ponieważ przez pewien czas znajdzie się ona poza zasięgiem Google. Nie wspominając już o chwilowym braku klientów.
Jak się ustrzec przed depozycjonowaniem?
Ochrona witryny internetowej polega na ciągłym dokształcaniu się odnośnie aktualizacji wyszukiwarki oraz na reagowaniu na nagłe problemy pojawiające się w obrębie serwisu. Niestety jest to niekończące się zadanie, które ewoluuje w miarę pojawiania się na rynku SEO nowych zagrożeń. W kolejnej części artykułu podpowiadam, z jakich danych analitycznych korzystać, aby odpowiednio szybko zareagować na spadek widoczności oraz jak chronić domenę przed depozycjonowaniem.
Zanim jednak zaczniesz działać pochopnie, upewnij się, że powodem spadku widoczności na witrynie, jest właśnie depozycjonowanie. Z pozoru może się to wydawać oczywiste, jednak ruch może spaść z różnych powodów. Kluczowa jest interpretacja danych znajdujących się na serwisach analitycznych. Poniżej przedstawiam kilka z tych najpopularniejszych.
Skąd mam czerpać informacje o błędach pozycjonerskich?
Najważniejszym miejscem, z którego najwcześniej możesz dowiedzieć się o procederze depozycjonowania witryny, jest Google Search Console. Narzędzie stworzone przez Google najszybciej powiadomi Cię, czy na Twojej witrynie dzieje się coś złego.
Google Search Console wysyła regularne komunikaty na skrzynkę Gmail, na której możesz weryfikować swój stan witryny. Informuje o usterkach w linkach wewnętrznych, problemach z danymi strukturalnymi, czy pojawiającym się wzroście błędów na stronie.
Kolejnym ważnym narzędziem, jestGoogle Analytics. Chociaż nie znajdziesz tam komunikatów o błędach na stronie, to z pewnością wyciągniesz ważne informacje posługując się danymi analitycznymi. Czy ostatnio strona zanotowała spadek wyświetleń? Czy liczba nowych użytkowników spada, zamiast wzrastać? Czy średnia pozycja słów kluczowych gwałtownie maleje? Czy CTR (współczynnik klikalności) jest bardzo wysoki? Każda z tych danych nadaje się do analizy. Wprawne oko wyłapie poważne aberracje już po kilku chwilach. Gwałtowne odchylenie danych analitycznych od normy, niepodyktowane racjonalnie (np. zmiana strony, usunięcie ważnych kategorii, itp.), z pewnością pozwoli wyciągnąć wstępne wnioski.
Kolejne przydatne narzędzie ogólnie weryfikujące widoczność strony, to SENUTO. Jest to narzędzie płatne, niestety z drobnym opóźnieniem w przesyle danych (często widzimy dane sprzed tygodnia). Jednak w połączeniu z materiałami zebranymi z Google Search Console oraz Google Analytics, ułatwi nam analizę. Proste i przejrzyste wykresy i listy, które prezentuje SENUTO, dadzą obraz tego, czy nasza domena jest coraz lepiej widoczna w Google, czy wręcz przeciwnie – jej wyświetlenia spadają.
Do analizy linków zewnętrznych, czyli pojawiających się na innych portalach, a prowadzących do naszej domeny, można użyć narzędzia Majestic lub Ahrefs. Znajdziemy tam informacje nie tylko odnośnie linkowania i jakości URLów prowadzących do witryny, ale również analizy fraz kluczowych (Ahrefs), czy wykresy historyczne linków (Majestic).
Są to bardzo obszerne narzędzia i niestety tak samo, jak w przypadku Senuto, płatne.
Jak być o krok do przodu?
Nie daj się zwieść konkurencji! Chociaż ustrzeżenie się przed nią jest bardzo trudne, bowiem nie mamy pełnej władzy nad tym, co dzieje się poza obrębem naszej witryny (kto kopiuje treści, jak jest linkowana, itp.), to możemy starać się zapobiec efektom depozycjonowania i sprawić, że Google przychylnym okiem spojrzy na wszelkie błędy – zwłaszcza te dokonane nie przez nas.
Aby uniknąć problemów związanych z duplikacją tekstów (czyli z ich kradzieżą), opisów, artykułów na innych serwisach, staraj się bardzo często tworzyć unikalne treści i aktualizować jej zawartość. Pisząc o unikalnych treściach, mam na myśli chociażby artykuły na bloga. Nie dość, że będą one dobrze działać marketingowo, stawiając Twoją witrynę w roli eksperckiej, to jeszcze ustrzegą ją w mniej lub bardziej większym stopniu, przed późniejszymi, ewentualnymi problemami z duplikacją. Duża ilość unikalnej treści to dobry sposób, aby powrócić do łask Google w momencie nagłych spadków.
Korzystaj z analityki, prowadź regularną kontrolę wyników. Podpięcie strony do Google Analytics oraz Google Search Console, to obecnie konieczność. Nie chodzi wyłącznie o bezpieczeństwo witryny, ale o regularne śledzenie danych. Ilość informacji tam zawartych, na początku może wydawać się nieco przytłaczająca, ale z czasem, korzystając z odpowiednich lektur, z pewnością nauczysz się analizować interesujące Cię strefy.
Linkując domenę, korzystaj z zaufanych i pewnych źródeł. Nie twórz złej historii linkowania jeszcze przed ewentualnym atakiem. W taki sposób w żaden sposób nie wybronisz się z kar za depozycjonowanie nałożonych przez Google. Ogólnie rzecz ujmując, realizuj poprawną i zgodną z wytycznymi optymalizację. Jeśli będziesz porządnym „obywatelem” wyszukiwarki i nie podpadniesz jej dużo wcześniej, to istnieje szansa, że podczas napotkania problemów, zostaniesz lżej potraktowany.
Nie daj się zdepozycjonować!
Aktywny i regularny monitoring danych jest kluczem do wyprzedzenie konkurencji. Nie uchroni on Twojej witryny w pełni, ale pozwala szybko reagować na problemy, jeszcze przed otrzymaniem kar i nałożeniem filtrów przez wyszukiwarkę. Pamiętaj, że „odwdzięczanie” się konkurencji takimi samymi działaniami depozycjonerskimi, nie ma najmniejszego sensu. Musisz zachować zimną krew i działać rozsądnie, w czym mam nadzieję, pomoże Ci ten artykuł.