KonstantinKanin.com

Marketing internetowy w Rosji, Ukrainie, Białorusi

SEO / SEM

Wywiad z przedstawicielem Google SQT Russia: «Webmasterzy w Rosji zamiast pomagać użytkownikom, tworzą strony w celu zarabiania»

W zeszłym tygodniu w Rosji odbyła się IV edycja SEO Conference, w której brali udział m.in. przedstawiciele największych wyszukiwarek w Rosji — Yandex, Google i Mail.Ru. Agencja SeoProfy zrobiła wywiad z Władimirem Oficerovym, kierownikiem rosyjskiego Search Quality Team Google, który publikujemy poniżej.

W jaki sposób wybierane są projekty do nałożenia ręcznych sankcji? Jakie są kryteria?

W rzeczywistości istnieje wiele źródeł, przez które narastają problemy związane z ręcznymi sankcjami. Niektóre z algorytmów antyspamowych nie są wystarczająco dokładne, aby je wdrożyć w trybie automatycznym, ale są wystarczająco dokładne, aby generować strony-„kandydaci”, które budzą podejrzenia, i strony te mogą potem być rozpatrywane ręcznie.

Na dole wyszukiwarki jest przycisk «zgłoś spam» i takie przypadki też są rozpatrywane.

Jak Google rozróżnia linki przychodzące na naturalne, zakupione i dostarczone żeby specjalnie zabić stronę konkurencji?

Gdy chodzi o obniżenie rankingu za nieprawidłowe linki, to istnieje prawdopodobieństwo, że ludzie będą korzystać z tej metody w celu ukarania konkurentów.

Dość niezawodne mechanizmy istnieją wewnątrz algorytmu, który pozwala wybrać linki, które zostały stworzone przez czarną optymalizację. Nie jest to takie trudne do zdefiniowania i staramy się takie linki usuwać. W pewnym stopniu staramy się wybrać „jak najlepsze wrażenie” o Waszych witrynach.

Ale jeśli dochodzi do ręcznej sankcji, do Was jest wysyłany e-mail i możecie naprawić sytuację. A to, które z nich są ręczne lub nieręczne, naturalne lub nienaturalne, to odpowiedź jest zupełnie jednoznaczna – jeśli dokładaliście starań aby pojawił się ten link i zapłaciliście komuś pieniądze, to link nie jest naturalny.

Czy algorytmy różnią się w zależności od rynków i języków? Jeśli tak, to gdzie najmocniej, gdzie najmniej i w jakich krajach najbardziej rośnie ruch z wyszukiwarek?

Jaki ruch z wyszukiwania rośnie najbardziej ja oczywiście nie mogę powiedzieć :) Wzrost ruchu według krajów jest proporcjonalny do wzrostu internetu w kraju. Duże trendy według krajów można zobaczyć na Google Trendy wykorzystując popularny zapytanie, jak na przykład „facebook„.

W sprawie pytania o algorytmach dla różnych języków. Na pewno istnieje kontekst użytkownika, czyli jego język, kraj, interfejs Google, z którego dane pytanie zostało zadane. To są główne czynniki, które wpływają na wyniki wyszukiwania, które użytkownik widzi.

Nasz indeks jest jeden dla wszystkich krajów i języków, ale wiele algorytmów mają ustawienia specyficzne dla różnych języków. Oczywiste jest, że w rosyjskim jest morfologia, a w angielskim nie ma, a arabski pisze się od prawej do lewej. Czyli te wszystkie niuanse oczywiście uwzględnione są w rankingu.

Jak Google traktuje backlinki witryn, które mają na przykład 5+ lat? Linki są kiepskie, ale wstawione 5 lat temu. Czy będą one traktowane przez Google jako kiepskie? Na przykład, jeśli kupiłem ładną domenę, ale tam jest jakiś profil linków.

Wiek linka nie wpływu na jego jakość. Może mieć 50 lat, ale jeśli te linki zostały kupione – są kupione i tyle. Analizujemy tak zwaną „zakupność” linka na podstawie statystycznych czynników.

Czyli jeśli kupiłem domenę, powiedzmy Povar.com, i chcę zrobić kulinarny portal, a tam wcześniej ktoś coś robił, czyli w rzeczywistości nie wiem jaka jest historia tej strony, ale tworzę fajne treści. Co robić w tym przypadku?

Jeśli tam były linki, ustawione nie w sposób naturalny, macie narzędzia, aby linki te odrzucić. Jeśli sankcje zastosowano ręcznie, można wysłać na ponowne rozpatrzenie.

Oczywiście, w końcu, po anulowaniu ręcznych działań i aktualizacji algorytmu strona będzie taka sama jak każda inna. Dlatego można używać starej domeny która miała problemy i one zostały wyeliminowane. Stara strona będzie uczestniczyć w rankingu jak każda nowa witryna.

Jakie jest podejście Google do nagłego wzrostu ilości podstron na witrynie? Na przykład, na stronie było 3 tysiące stron, a stało się nagle 300 tysięcy?

Jak już powiedziałem, indeks u nas pozwala mieć dowolną ilość stron. Chyba tylko crawler ma ograniczenia na prędkość ściągania, aby nie zawiesić wam witryny. Pytanie jest następujące: Na jakie zapytania te strony będą się wyświetlać? Jeśli strony będą wyświetlane na nie relewantne zapytania, na które nie powinny być widoczne, to ranking witryny będzie obniżony algorytmami i można w ten sposób stracić ruch który mieliście. Jeśli te podstrony zawierają unikalne i przydatne treści, które znajdą swoich odbiorców, to jest mile widziane.

Panda to okropne zwierzę!

:)))

Jaki jest limit dopuszczalnego wzrostu linków w ciągu miesiąca dla witryn, które mają, na przykład, jeden rok?

Każdy wzrost, który jest naturalnym, jest dobry. Są wydarzenia, które zdarzają się w jeden dzień i dają tysiąc linków na minutę.

Są wydarzenia, które miały miejsce wiele lat temu i do tej pory pojawia się ich aktualność. Absolutnie nie ma żadnego kryterium prędkości przyrostu linków.

Jedyne, co jest ważne, aby były one naturalne.

Jeśli to dobry news powód który zostanie wszędzie rozreklamowany, to wszystko będzie dobrze?

Tak, wszystko będzie dobrze. Nic się nie trzeba bać!

Chcę podać przykład. Istnieje wiele przykładów wirusowych filmików, które właściwie i pozycjonują się w ciągu kilku dni do miliona wyświetleń, a wszystko to tylko pomaga w rankingu.

Ile linków wychodzących z jednej strony będzie OK? I jakie jest podejście Google do tego?

Można postawić tyle linków, ile uważasz za stosowne dla Twojego użytkownika. W rozsądnych granicach dowolna liczbę będzie pasować. Nie ma żadnych wskazówek na temat tego, ile linków należy umieszczać. Strony internetowe od kraju do kraju są bardzo różne i zachowania użytkowników, i to, jak ich używają, i to, jak odbierają tę informację, jest również bardzo różne.

I jeśli weźmiemy średnie pomiary, na przykład, na jednej stronie japońskiego lub chińskiego, azjatyckiego kontentu jest znacznie więcej słów i linków, niż na średniej angielskiej czy rosyjskiej stronie. To jest po prostu różnica kulturowa. Nie ma w tym nic złego i wszystkie one są równoznaczne.

Czy dopuszczalnym jest stosowanie duplikowanych treści na stronach?

Google nigdy nie będzie penalizował witryny za duplikaty. W końcu to jest nasz problem. Ale trzeba zdawać sobie sprawę, że jeśli widzimy, że strony zawierają te same treści, z punktu widzenia oszczędzania naszych zasobów i pieniędzy, wybieramy spośród nich tylko jedną stronę, która będzie zaindeksowana.

Ta strona zostanie wybrana przez nasz algorytm, ale wybierzemy tę, która się wydaje bardziej atrakcyjna i popularna wśród użytkowników.

Ale z Waszego punktu widzenia to może być przypadkowy artykuł, albo ten, albo inny. I wydaje mi się, że to właśnie prowadzi do rozczarowania, bo jeśli wybierzemy jedną, a jacyś użytkownicy chcieli innego, to będą oni niezadowoleni.

Dlatego z wyszukiwarką znacznie łatwiej jest komunikować się w języku, który rozumie. Stwórzcie jakąś treść na jednej stronie, i jeśli chcecie tę treść zmienić aby zrozumieć która z nich jest lepsza, to zróbcie to w czasie.

W tym tygodniu w wybranej sekcji treści wstawiamy jakiś przycisk, a za tydzień porównujemy, który z nich dał lepsze wyniki. W tym celu nie trzeba mieć dwie takie same strony, można mieć po prostu grupę stron, które w przybliżeniu zachowują się w podobny sposób.

W takim razie nasuwa się kolejne pytanie: Matt Cutts mówił na temat prawniczych witryn. Na nich znajdują się umowy, treści w nich nie są unikalne i Google nie traktuje jako duplikowane [w rzeczywistości mowa była o podstronach z informacjami prawnymi – tłum.] . Czy takie podejście można zastosować, na przykład, w branży elektronicznej, gdzie wszyscy kopiują wszystkich?

Maszyna to maszyna. Jeśli podstrony są dość podobne, to ona wybierze jedną z nich. Jeśli różnią się od siebie, na witrynie jest ich dwie, to powiedzieć w jakim dokładnie momencie nastąpi ten przełom jest dość ciężko, to zależy od wielu czynników podobieństwa tych stron.

Główne zalecenie, jeśli chcesz mieć przewidywalny wynik, to trzeba robić przewidywalne dane wejściowe :) Jeśli dane są przypadkowe, to i wyniki będą stosunkowo przypadkowe.

Pytanie o linkowaniu. Gdy link do własnych stron jest sidewide. Załóżmy, że istnieje strona A i strona B, linki sidewide są na jednym i na drugim. Nie jestem zwolennikiem takiego rozwiązania, jednak często życzenia klienta musimy brać pod uwagę i takie przelotowe linki. Co będzie w tym przypadku?

Nie znam życzenia klienta. Myślę, że trzeba orientować się w końcu na użytkownika. Człowiek, jeśli przyjdzie i jeśli będzie potrzebował tego linka to znaczy że jest dobry, jeśli nie jest potrzebny, to najprawdopodobniej lepiej go nie stosować.

Czy linki nofollow na każdej stronie są szkodliwe?

Linki nofollow robot nie widzi. Podstawowe zalecenie jest takie: jeśli nie możesz moderować swój kontent, ale pozwalasz ludziom dodawać tam linki, ustawiaj automatyczne nofollow, żeby Cię nie spamowali. Linki nofollow nie szkodzą, ale i nie pomaga nikomu.

Ilu asessorów sprawdzających wyniki wyszukiwania pracuje obecnie w Google?

Nie sądzę, żebym mógł podawać te liczby. Jest ich wystarczająco.

Czy na Ukrainie, w przypadku komercyjnych branż, będzie kiedykolwiek takie coś jak w USA? Na przykład, na zapytanie „auto insurance„, kiedy pojawia się jakaś spamowa strona, to od razu jest ręcznie usuwana.

Monitorujemy spam w wynikach wyszukiwania dla wszystkich krajów. I mamy inżynierów, którzy zajmują się sankcjami podejmowanymi ręcznie w każdym języku. Jeśli jednak coś nie dopilnowali, to całkiem możliwe, że albo dopilnują tego w najbliższym czasie, albo algorytm zostanie dopracowany.

Ilu inżynierów Google uczestniczą w opracowaniu algorytmu Pingwin ?:)

Nie sądzę, że mogę nazywać te liczby. Ale są to jednostki.

Jednostki?

Tak

Fajnie. A Pandy? :)

Jednostki. Prawie nad wszystkimi algorytmami pracują małe grupy inżynierów. Bardzo małe.

W Pana prezentacji mowa jest również o tym, że w najbliższym czasie algorytm Pingwin zostanie zaktualizowany [na moment publikowania wywiadu Penguin 2.1 został właśnie wprowadzony – tłum.]. Czego się można spodziewać po nim?

Ci, którzy dostali od Pingwina w przeszłości, będą spenalizowani znacznie mocniej.

Rozumiem. Wystraszył mnie Pan! :)

Ci, którzy nie byli spenalizowani przez Pingwina – nie mają czego się obawiać.

Nowa witryna z kupą treści, z nowymi podstronami prawie codziennie lub stara strona z porządnym autorytetem bez aktualizowania treści. Która z nich ma więcej szans, aby utrzymać się w Top po zmianach?

To jest bardzo trudne pytanie. Ale świeżość treści – to jeden z czynników jakości. Świeżość nie polega na tym, że trzeba ładować nowe artykuły codziennie, ale na tym, że na stronie powinna być informacja, która jest relewantna dla użytkownika szukającego tej informacji dzisiaj.

To znaczy, że jeśli artykuł napisany 3 lata temu ma w sobie już nieaktualne informacje, to on nie będzie w Top. Zgadza się?

Świeżość jest jednym z istotnych czynników rankingu. Ciągle staramy się zrobić SERP takim, aby był on wypełniony najbardziej aktualną informacją, która jest najbardziej relewantna dla użytkownika. W zasadzie podczas wyszukiwania stary kontent zawsze ma pewną przewagę. Dlatego że zawsze ma więcej linków, więcej informacji i tak dalej.

I w tym zakresie jest to bardzo skomplikowany problem i to nie ma tutaj prostego rozwiązania. Ale zawsze staramy się dostarczyć użytkownikowi maksymalnie świeże treści, relewantne jego zapytaniu.

Jak teraz rozstrzyga się kwestia indeksacji przez Google treści z Facebook’a. Czy będą osiągnięte jakiekolwiek porozumienia na ten temat?

Google skanuje, indeksuje i dodaje do SERP otwarte strony z Facebook’a, tak jak wszystkie inne strony w Internecie. Nie spodziewamy się żadnych zmian w tym zakresie. Na wszelki wypadek: lajki z Facebook’a są niedostępne dla wyszukiwarek i w rankingu nie uczestniczą.

Czego Pana zdaniem brakuje rosyjskim stronom internetowym?

Ja nie przestanę powtarzać, że główny problem rosyjskiego Internetu polega na braku relewantnych treści. Mamy specjalną metrykę, która pokazuje o ile użytkownik jest usatysfakcjonowany jakością wyszukiwania z punktu widzenia trafności i pełności odpowiedzi na jego zapytania. Tak, na przykład, różnica między średnim rosyjskim użytkownikiem i średnim angielskim użytkownikiem wynosi około 10 punktów według specjalnej skali. Dla porównania, różnica w 0,5 punktu zostanie usunięta, jeśli wykasować z angielskiego SERP absolutnie wszystkie treści z Wikipedii. Innymi słowy, wymiar niszy, która nie jest zapełniona, można porównać do ilości treści w wysokości 20 Wikipedii. Nawet w Brazylii i Grecji sytuacja wygląda znacznie lepiej, niż w Rosji. Nie wiem, jak to wyjaśnić, ale oczywiste jest, że w wyszukiwaniu istnieje wiele zapytań, które po prostu nie mają trafnych odpowiedzi w SERP.

Podam dość oryginalny przykład zapytania: „gdzie kupić koromysło do noszenia wody” – w wynikach wyszukiwania nic nie ma na ten temat. Absolutnie nie wypełnione są niszy «hobby» i «zwierzęta domowe».

Sęk w tym, że rosyjski webmaster koncentruje się na technologiach pozycjonowania, a internauci tego kraju odczuwają głód informacyjny.

Co może Pan doradzić webmasterom, którzy właśnie uruchomili stronę internetową? Jakieś wskazówki dla rosyjskich webmasterów od przedstawiciela wyszukiwarki. Czym w ogóle SERP w Rosji różni się od zagranicznego?

Główne zalecenia – dać małym firmom możliwość obecności w Internecie i nie tworzyć strony tylko i wyłącznie w celu zarabiania na ruchu. Webmasterzy zbytnio dbają o to, aby dostać się do TOP wyników wyszukiwania na monetyzujące zapytania, zamiast pomagać użytkownikom. W ten sposób nie da się zbudować długoterminowy biznes [czyżby doorway’e, MFA i sprzedaż linków to nie długoterminowy biznes? – tłum.]. Można go zbudować wyłącznie tworząc strony pod rzeczywistą ofertę i zyskując zadowolonych klientów.

Według pewnych obliczeń, średnia liczba webmasterów w Rosji — najwyższa na świecie, w tym samym czasie średnia liczba przydatnych treści w tym kraju jest najniższa. Wszystko wskazuje na to, że webmasterzy są po prostu zajęci czymś nieodpowiednim. Znajdują się oni obecnie w pogoni za łatwym zyskiem, zamiast budować długoterminowy biznes. Jednak, moim zdaniem, jest to problem słabego rozwoju rynku i z czasem to przejdzie…

Uważam, że myśleć o wyszukiwarce trzeba w najmniejszym stopniu. Co do nowych witryn, świeżość jest dość ważnym czynnikiem, szczególnie jeśli strona ma tematykę, która jest ciekawa dla użytkownika.

W zasadzie nie ma wielkiej różnicy między nową i starą witryną. Najważniejsze, żeby na stronie była informacja, którą ktoś potrzebuje. Tworzyć 150-tą witrynę w segmencie, gdzie i tak jest wystarczająco dużo treści, chyba nie warto.

A jeśli interpretacja jest inna i znacznie lepiej coś wyjaśnia? Podam przykład. Mamy blog firmowy. Wszyscy prowadzą blogi, ale mało kto próbuje tak naprawdę wyjaśnić jak coś działa. A jednak, jeśli podejście jest inne – ma to sens? Z punktu widzenia ruchu nieorganicznego wiem, że ma. A organicznego?

Co to znaczy inna interpretacja? Nowa strona o oknach plastikowych, która jest jeszcze lepsza?

Tak. Zazwyczaj wszystkie są nudne i niezrozumiałe. A jeśli ją ożywić tak, że naprawdę będzie ciekawe i zabawne?

Jeśli to będzie ciekawe i zabawne, Top jest gwarantowany :)

Dziękujemy Panu za wywiad!

Źródła: seoprofy.ua, searchengines.ru

Dziękuję, że dzielicie się ze znajomymi:

  • Sebastian Jakubiec

    Fajny wywiad, pokazujący specyfikę rosyjskiego rynku SEO/Web.

    Ciekawi fakt, że nagły przyrost linków zostaje niejako zdewaluowany – czyli co, 100 000 w ciągu tygodnia ma od teraz klasyfikację: wirusowy i wszystko jest ok? :)

    • domksiazki.com.pl

      Przecież napisał, że to możliwe, w rzeczywistości zdarzają się takie virale…

      • Sebastian Jakubiec

        Tak, to zrozumiałem. Rzecz w tym, że w takim razie metody SEO oparte na nagłym przyroście linków mogą być spokojnie wykorzystywane? Bo jak rozróżnić, czy to działanie viralowe czy rumak?

        • Mateusz

          No jak „jak” :) Powiedział przecież, co jest naturalne, a co nie. Jak ludzie sami Cię zlinkują w takiej ilości to jest ok – kiedyś shpyo pisał na swoim blogu o cudacznych stronach 404, które można wykorzystać pod seo za pomocą viral. Chyba tędy droga ;)

  • Konstanty, dziękuje za tłumaczenie. Kilka ciekawych pytań i jak na członka Google, konkretnych odpowiedzi.

  • mkane

    Dzięki za tłumaczenie.
    Z tym powieleniem… panda może obniżyć rankingi dla całej witryny jak jest w niej wiele powielonej treści a za mało oryginalnej, więc albo coś zmienili albo potrzegają to inaczej niż my.

  • Dzięki za publikację wywiadu, daje kilka ciekawych informacji. Żartobliwie napiszę, że cały tekst jest przeoptymalizowany na słowo „naturalne” :D

  • Purek

    Czy mi się zdawało, czy czytałem jakiś tydzień temu ten artykuł i rozmówca twierdził że Facebookowe lajki nie mają przełożenia na ranking? Teraz nie widzę tego stwierdzenia. Usunięte? Czy czytałem inny artykuł?

    • Konstantin K

      Masz rację, zgubiło mi się gdzieś to pytanie. Już poprawione.

  • „Ile linków przychodzących dla jednej strony będzie OK? I jakie jest podejście Google do tego?” – z kontekstu odpowiedzi wywnioskowałem, że chodzi raczej o zalecaną liczbę linków umieszczanych na jednej podstronie ;-)

    • Konstantin K

      Zgadza się, dzięki za zwrócenie uwagi :)