1. dawidmed.com
  2. SEO blog
  3. SEO Podcast
Rynek SEO. Punkt widzenia producentów oprogramowania

#011: Rynek SEO. Punkt widzenia producentów oprogramowania - Paweł Sokołowski i Damian Kiełbasa

W jedenastym odcinku podcastu SEO Fridays skupiamy się na zmianach zachodzących na rynku SEO. Opowiemy także krótką historię powstania kilku narzędzi SEO tworzonych przez moich Gości, najważniejsze funkcje oraz plany na przyszłość. Zapraszam na (mam nadzieję) interesującą rozmowę z twórcami takich narzędzi jak Clusteric Search Auditor czy CONT.AI - Content Intelligence!

Listen to "#011: Rynek SEO. Punkt widzenia producentów oprogramowania - Paweł Sokołowski i Damian Kiełbasa" on Spreaker.

Goście odcinka

Rozdziały

Zmiany zachodzące na rynku SEO

Paweł: Patrząc na SEO, można zauważyć dwa rynki, które były od zawsze. W różnych branżach inny z nich jest dominujący. Mamy White Hat SEO i Black Hat SEO. Kiedyś działania Black Hat SEO były nie do końca zgodne z regulaminem Google, ale z całą pewnością zgodne z prawem albo częściowo zgodne z prawem. Każda agencja używała jakichś narzędzi do masowego spamowania, dlatego też powstał Clusteric Search Auditor. To, co się stało w 2013 roku, to, w jaki sposób Google zmieniło podejście do spamu, jeśli chodzi backlinki i to, jak uczy w tej chwili swoje algorytmy tego, jak oceniać backlinki - zmieniło branżę i wypchnęło dużą część rozwiązań opartych na generowaniu masowej ilości czy dużych ilości sygnałów rankingowych.

Cały czas są branże, w których Black Hat SEO się opłaca. Jest ich mnóstwo, dlatego nie chcę mówić, że pewnego rodzaju rzeczy są nieużyteczne, bo jeśli ktoś wie, co robi i wie, jak to robić, to cały czas jest wiele rzeczy w Black Hat SEO, które dają pieniądze. Natomiast z punktu widzenia typowej agencji czy typowej osoby, która prowadzi SEO dla swojej witryny, działania Black Hat w tej chwili są zbyt ryzykowne. Jeszcze niedawno (kilka lat temu) zmiany w algorytmach Google były tak istotne i szokujące, że Klienci budzili nas telefonami i mówili: "Panie Pawle, dzisiaj nie mam żadnego zamówienia, a normalnie mam zamówienia. Co się stało?". To była po prostu norma. W związku z tym, że używane były takie techniki, jakie były używane, to nadużycie pewnej z nich skutkowało tym, że Google reagowało na to i w jakiś sposób próbowało to ograniczyć. Oznaczało to, że update'y algorytmu usuwały przeciążenia w systemie, które były generowane przez Black Hat SEO.

To, co się dzieje w tej chwili (od 2014 roku), to jest płynne przejście ze strony Google do technik bardziej opartych na uczeniu maszynowym. One zawsze w pewnym sensie na nim się opierały, natomiast w tej chwili technologia jest po prostu tańsza, więc więcej tych czynników w indeksie jest czynnikami, które są dość trudne do odtworzenia przez jedną osobę czy indywidualnego użytkownika.

Gdy myślimy o rozwoju narzędzi SEO, to możemy powiedzieć, że wszyscy znamy XRumera czy inne masowe "dodawarki". Era komentarzy, która jeszcze dawno temu była na WordPressie, działała. Potem dodawało się PDF-y. Było mnóstwo technik, które pozwalały jednej osobie w jakiś sposób wpłynąć na rankingi Klientów. Potem doszliśmy do momentu, w którym zaczęły mieć znaczenie czynniki behawioralne - Google dobrze interpretował takie czynniki jak dwell time czy ogólnie zaczynał rozumieć intencje użytkownika. Wtedy też pojawiły się narzędzia, które próbowały symulować działanie użytkownika w SERP-ach. Zresztą one istnieją i działają do tej pory. Cały czas idziemy w tę stronę, gdzie narzędzia rozwijają się wraz z technologią.

Google oczywiście jest liderem tej technologii i zasób informacyjny, który posiada, jest nie do podrobienia przez żadne zewnętrzne narzędzie - możemy tylko się domyślać, co tam jest. Oni są dużo przed nami. Możemy powiedzieć sobie o samo-uczących się mechanizmach czy predefiniowanych modelach językowych. BERT pojawił się publicznie jako open source dwa lata temu, ale Google używało go nie wiadomo od jak dawna. Od tego czasu nie jest aktualizowany. Oczywiście, już są nowsze modele niż BERT, więc ten wyścig webmasterów i Google przechodzi trochę etap zimnej wojny. Wcześniej to była typowa wojna atomowa, a teraz już jest zimna wojna. Myślę, że za kilka lat będziemy w strefie działań pokojowych i nie będziemy mieli innego wyjścia, jak tylko dostosować nasze reguły gry, jeśli gramy z dużymi graczami, do wyszukiwarki Google w 100%, dlatego że ilość informacji, którą będą mieli i nasza możliwość wpływu na czynniki, których oni używają do rozpoznania wartości treści, będzie znikoma.

To znaczy - my nie będziemy już w stanie znaleźć ani narzędzia, ani struktury, która nam pomoże w łatwy sposób na dowiezienie jakiegoś ruchu. Chodzi o normalnego właściciela sklepu internetowego, nie o duże agencje, które posiadają sieci PBN-ów, bo one zawsze przez dużą sieć powiązań i dużą sieć czynników w jakiś sposób będą zdolne manipulować czynnikami Google. Natomiast dla zwykłego przedsiębiorcy, który ma sklep internetowy, szanse na to, że tak jak kiedyś wejdzie na Forum PiO, kupi jakieś narzędzie, naciśnie przycisk start i za dwa tygodnie coś mu wzrośnie, jest znikoma. W tej chwili to jest ciężka praca polegająca głównie na optymalizacji onsite i offsite, bo czynniki semantyczne będą coraz bardziej brane pod uwagę. Tak naprawdę już są brane pod uwagę przy dużej części zapytań. To czynnik, który z punktu widzenia Google jest dość trudno zaburzyć.

Więcej informacji na ten temat można przeczytać w Google Colab, na blogu Google i w ich patentach. W tych publikacjach pokazują mniej więcej, w którą stronę podążają, jeśli chodzi o zmiany w sposobie oceny czynników rankingowych i w sposobie tego, jak bardzo te czynniki wpływają na samą stronę.

Google już oficjalnie wskazuje rzeczy, które były jasne w momencie, kiedy wybierali snippety. Pokazuje, że starają się "rankować content" nie na podstawie jednego artykułu, tylko na podstawie paragrafu, czy tam, gdzie wchodzą mechanizmy machine learning, które już w tej chwili są dość dobrze opracowane dla wielu języków, czyli na przykład mechanizm pytanie-odpowiedź.

To są rzeczy, przy których narzędzia w pewien sposób nie będą chciały, czy nie będą próbowały nawet wpłynąć na wyniki Google, tylko będą starały się dostarczyć użytkownikowi informacji, w jaki sposób on ma zaktualizować swoją stronę internetową, żeby była jak najbardziej konkurencyjna.

Myślę, że SEO, Content Marketing czy optymalizacja typowo UX-owa lub optymalizacja konwersji to są już obszary, które się zaczynają wzajemnie przenikać i osoby, które mają dużo serwisów, widzą, że SEO to jest jedna część (na przykład związana z dostarczeniem ruchu), ale odpowiednio długie utrzymanie użytkownika na stronie, żeby czynniki behawioralne zagrały właściwą rolę, to już jest zupełnie co innego.

Tak samo doprowadzenie użytkownika do momentu, w którym ma być dokonana konwersja, która przesunie go do następnego kroku zakupowego albo po prostu podsunie mu rekomendację na stronie czy w sklepie internetowym. To też czynniki, które już w tej chwili są brane pod uwagę, a będą miały coraz większe znaczenie. Google zmienia system analizy danych i promuje nowe Google App+Web, czyli Google Analytics 4, dzięki któremu będą mieli dużo więcej informacji behawioralnych i to dużo lepiej mierzonych. Może w ten sposób dowiedzieć się, jak użytkownicy się zachowują na poszczególnych stronach.

Reasumując: myślę, że narzędzia SEO, które funkcjonowały w Black Hat SEO jeszcze istnieją i zapewne działają - szczególnie w niektórych niszach, które w White Hat SEO mają bardzo ciężko. To one będą cały czas przez jakąś bardzo małą grupę ekspertów używane w Black Hat SEO. Natomiast dla całej reszty, dla typowych SMB (Small and Midsize Business), nie pozostaje nic innego, jak tylko powoli się wdrażać w tak zwany marketing internetowy na poważnie. Tutaj niestety będzie trzeba wybierać, czy robimy SEO, które było najtańsze kilka lat temu, czy może ten sam ruch można doprowadzić do strony internetowej innymi kanałami dużo taniej. Bo wbrew pozorom SEO wcale nie jest tanie...

Myślę, że agencje, które sprzedają SEO jako najtańszy sposób pozyskania ruchu, może tak dobrze optymalizują SEO, że rzeczywiście jest to najtańsze rozwiązanie. Dla jednej osoby SEO może być rzeczywiście najtańsze - jak ma dobrą agencję, która dowozi i jest w takiej niszy, gdzie tak można robić. Jednak są takie nisze, w których jest bardzo ciężko zdobyć tani ruch z SEO i będzie on drożał. Już po samych statystykach i po tym, ile musimy w tej chwili wykonać czynności, żeby coś dowieźć, widzimy, jak to zaczyna być skomplikowane.

Mówimy o tym, że trzeba publikować coraz dłuższe artykuły, robić to regularnie (jeśli mówimy o content marketingu), ustalać do tego strategię dystrybucyjną i wykonywać jakieś dodatkowe elementy typu wideo (żeby zatrzymać użytkownika na stronie), organizować webinary i tak dalej. Content Marketing, który ma być promowany przez SEO, gdzie SEO jest kanałem dystrybucyjnym tego Content Marketingu, jest z roku na rok droższy. Czasami może się to nie opłacać. Dla niektórych Klientów, jeśli będzie miał dobry typ odbiorcy lub płatny ruch z Ads'ów to tańsze może być zrobienie testu A/B na landing page'u z ruchu, który będzie ruchem z Facebooka. Nie twierdzę, że to będzie tanie, natomiast czekanie kilka miesięcy na to, żeby mieć ruch organiczny, może być po prostu tego niewarte.

To jest bardzo indywidualna strategia każdego przedsiębiorstwa, w jaki sposób ma ono podejść do tego tematu. Na pewno dywersyfikacja, czyli długoterminowe budowanie treści, ruchu z SEO itd. to jest bardzo dobra strategia. W działaniu krótkoterminowym są inne kanały, typu Facebook czy ogólnie płatne media. Ogólnie to jest dobra strategia. Natomiast jeśli ktoś ma 500 zł i musi zdecydować, co ma zrobić w tym miesiącu, to czasami może być tak, że płatne reklamy albo jakiś remarketing będą bardziej wydajne, jeśli chodzi o sprzedaż, niż napisanie jednego artykułu.

Na początku października zostały zaktualizowane wytyczne dla Search Quality Raters z Google. Warto się z nimi zapoznać, ponieważ to jest dokument, który wskazuje, co można zrobić lepiej na swojej stronie internetowej. W odcinku #004 Tomasz Rudzki wspominał o patentach Google, które również warto odkrywać.

👉 Search Quality Evaluator Guidelines

👉 Google Patents

👉 #004: JavaScript SEO

Model cenowy Clusteric Search Auditor

Paweł: Na model cenowy składa się kilka czynników. Kiedy wchodziliśmy na rynek, modele SaaS (Software as a Service) raczkowały, szczególnie jeśli mówimy o analizie backlinków. Rynek stał listami linków - były one czarnym złotem. To był Black Hat, więc rynek zupełnie inaczej podchodził do narzędzi desktopowych i zupełnie inaczej podchodził do narzędzi w chmurze. Większość z nich, które były dość popularne w Polsce, były narzędziami desktopowymi, gdzie licencja była w bardzo podobnym modelu jak nasz. W tym samym czasie, czyli w 2013 roku, Adobe podjęło decyzję, że będą przechodzili z pudełek na SaaS, więc te rozwiązania nie były dość popularne.

Mamy dwa elementy. Pierwszy to kwestia prywatności danych, czyli czy w narzędziu SaaS-owym moje dane będą w 100% bezpieczne, czy ktoś ich nie sprzeda i tak dalej. Bardzo często spotykaliśmy się z tego typu pytaniami. Dzięki temu feedbackowi zdecydowaliśmy o tym, że narzędzie w formule desktopowej zostanie utrzymane. W związku z tym, że jest to formuła desktopowa, koszty utrzymania narzędzia przechodzą częściowo na użytkownika: on wykorzystuje swój komputer, swoje CPU, swoje zasoby, łącze i tak dalej. W związku z tym narzędzia desktopowe mogą być troszeczkę tańsze.

W przypadku Clusterica podstawowe analizy można wykonać bez proxy, ale jeśli pójdziemy dalej i chcemy porównać stopień zaindeksowania dla 30 000 podstron, to możemy zrobić to w Clustericu. Bardzo dużo użytkowników to robi. W takim przypadku proxy w którymś momencie będzie potrzebne. Im użytkownik jest bardziej zaawansowany, tym bardziej chce wykonać zaawansowane czynności, tym większych inwestycji dokonuje i inwestuje w dodatkowe elementy. W narzędziach SaaS-owych płaci się kilkaset czy kilkadziesiąt (w zależności od tego, jaka to jest waluta) za miesiąc i one muszą być wdrożone na poziomie podstawowym. To znaczy: każde zapytanie musi przechodzić przez ten sam proces. Koszt działania samego narzędzia powoduje, że cena może być niższa. Wtedy też tak zaczynaliśmy.

Wbrew pozorom onsite w tej chwili jest czymś, o czym się dość dużo mówi. To są takie fale w SEO: wcześniej był offsite, robimy backlinki. Gdy robiliśmy backlinki, wszyscy zaniedbywali offsite. Teraz ten trend jest trochę odwrotny, czyli wszyscy robią onsite - zajmują się tym, jak strona performuje, jak wygląda, jakie mają na niej teksty itd. Natomiast duże agencje, które dbają o obie strony tego procesu, cały czas korzystają z narzędzi do analizy linków, z narzędzi do wyszukiwania nowych linków czy z narzędzi, które sprawdzą im, czy te linki dalej są aktywne.

Clusteric Search Auditor

Dla kogo jest Clusteric?

Damian: Wchodząc na naszą stronę, można zauważyć, że mamy trzy wersje narzędzia, które różnią się limitami, czyli liczbą i objętością analiz, które można przeprowadzić. Naszymi Klientami są agencje, freelancerzy, ale też osoby, które same opiekują się własnym biznesem i robią dla niego SEO.

Wszystkie tryby analizy, które przygotowaliśmy, można uruchamiać i rozpatrywać na różnym poziomie złożoności. Warto zauważyć, że Clusteric pomimo tego, że dostarcza bardzo dużą liczbę parametrów, to wśród nich są też meta parametry. Jeśli więc przeprowadzamy analizę profilu linków, to oprócz tego, że jesteśmy w stanie zebrać tych parametrów nawet około 130, to mamy też formuły, które dostarczają automatycznej oceny linka i dają wstępną klasyfikację. Mamy też możliwość tagowania. Otrzymujemy również wskazówki dotyczące tego, co jest nie tak z linkami i ze stroną. Jest też możliwość wygenerowania raportu PDF, który ma objętość kilkudziesięciu stron. Początkujący użytkownik może sobie wygenerować raport z analizy profilu linków, w którym nie tylko dostanie suche dane, ale do każdego z zagadnień związanych z analizą profilu linków i do każdego widoku swojego profilu linków będzie miał wyjaśnienia, które pomagają w interpretacji, jak to poprawić.

Z perspektywy początkującego użytkownika jest to punkt zaczepienia, drogowskaz do dalszego zgłębiania tematu. Bardziej zaawansowani użytkownicy, naturalnie zdobywając odpowiednie doświadczenia, mają wyobraźnię, która wykracza poza zdefiniowane tryby analizy.

Tak naprawdę zabawa z Clusteric'iem zaczyna się w momencie, kiedy użytkownik zaczyna łączyć ze sobą różne tryby. Jest możliwość uruchomienia trybu analizy użytkownika, w którym wybieramy własne parametry i analizujemy dane według swoich kryteriów, więc można przeprowadzać bardzo złożone akcje.

Jeśli interesuje nas promocja naszej witryny, to mamy możliwość rozpoczęcia prac od sugestii słów kluczowych i ich analizy. Kiedy mamy słowa kluczowe, korzystając ze wbudowanego harvestera, możemy znaleźć fora czy blogi tematyczne i przejść do analizy o nazwie: link prospecting. W ramach tej analizy oceniamy poszczególne blogi, ich podstrony czy fora - analizujemy ich parametry, dzięki czemu możemy odsiać te, które są spamowe oraz określamy, które z nich mają dobrą widoczność. Ponieważ mamy indeks widoczności, jesteśmy w stanie określić, które z nich są widoczne na konkretne słowa kluczowe. Możemy znaleźć te słowa w treści czy przeprowadzić ich grupowanie, więc w tym momencie jesteśmy w stanie przygotować bardzo jasne wytyczne dla osoby, która pozyskuje linki i podesłać jej listę, według której można umieszczać linki czy pisać posty pod konkretne słowa kluczowe.

Mając taki spis, można pójść jeszcze dalej i automatycznie znaleźć dane kontaktowe właścicieli tych stron czy firm. To jest przykład tego, jak korzystając z czterech czy pięciu funkcji, można za pomocą Clusteric'a przeprowadzić dosyć złożony proces od A do Z, automatyzując wiele czynności. To będzie proces, który jakościowo nie będzie odbiegał od tego, co robi się ręcznie, a co bardzo pochłania czas. A optymalizacja czasu i posiadanych zasobów przekłada się na pieniądze i na to, co możemy zrealizować w określonym budżecie.

Ten, kto nie automatyzuje pewnych procesów, musi się liczyć z tym, że będzie miał ciężko na rynku.

O automatyzacji w SEO rozmawiałem z Maciejem Chmurkowskim w #007 odcinku – zapraszam do odsłuchania.

👉 007#: Automatyzacja SEO

Damian: W Clusteric'u podnieśliśmy limit słów kluczowych do miliona rekordów. Widać duże zainteresowanie agencji tą funkcją, bo jednak możliwość oparcia się na solidnych danych to podstawa do wyciągania odpowiednich wniosków. Trzeba jednak pamiętać o tym, że Google lubi próbkować dane, więc w momencie, kiedy się włącza wiele wymiarów (czyli np. podstrona, słowo kluczowe, kraj, urządzenia i tak dalej), trzeba być czujnym, bo nie mamy 100% pewności, że Google po swojej stronie tych danych troszeczkę nie przytnie. Można domniemywać, w jakim stopniu jest to celowe działanie i zaciemnianie obrazu, a w jakim stopniu po prostu optymalizacja wydajnościowa po ich stronie, ale trzeba sobie zdawać sprawę z tego procesu.

Możliwość wyciągnięcia kilkuset tysięcy rekordów zamiast tysiąca jest naprawdę bardzo istotne w momencie, kiedy ma się stronę z osłabioną widocznością.

Paweł: W Clusteric'u jest jeszcze możliwość crossowania danych i tego nie ma w samej Search Console, a jest to bardzo przydatne. To próbkowanie Google może zachodzić na tych obszarach, gdzie dane się w pewien sposób crossują, bo w Search Console są dane jednowymiarowe - możemy zrobić eksport dla danej podstrony i jej słowa kluczowe albo podstronę, słowa kluczowe plus jakąś datę. Natomiast w Clusteric'u możemy używać wszystkich tych wymiarów jednocześnie i wyciągnąć olbrzymie ilości danych. To nie są tylko i wyłącznie pojedyncze wiersze, tylko to jest połączenie tych danych w zupełnie inny sposób. To jest bardzo istotne, jeśli ktoś chciałby używać danych crossowanych z Google Search Console. Bo te dane (nawet obrabiając w Excelu zwykłą tabelą przestawną), dają bardzo dużo informacji. Na ich podstawie można bardzo fajnie zrobić strukturę strony, czyli tego, co Google o nas myśli, a nie tego, co myślimy, że mamy.

Duża część agencji używa tego narzędzia, aby robić backupy danych z Google Search Console. Mamy opcję, że możesz podłączyć swoje konto Google Search Console i jednym przyciskiem ściągnąć wszystkie dane z posiadanych projektów w dowolny, crossowany sposób, a my po prostu zrobimy eksport plik po pliku. To też bardzo przyśpiesza pracę. Można raz na pół roku robić taki backup danych i potem je porównywać.

Mamy jeszcze narzędzie do łączenia danych tabelarycznych (głównie w formacie Excel), gdzie możemy połączyć dane z dowolnych narzędzi. Jeśli dysponujemy danymi z Google Analytics, z Google Search Console, nasze dane sprzedażowe, dane z wewnętrznego CRM-a, to wystarczy, że mamy tylko jedną wspólną kolumnę, która zawiera unikalne dane i na podstawie odpowiedniej manipulacji tymi wspólnymi kolumnami jesteśmy w stanie stworzyć jeden duży plik zawierający wszystkie elementy, które były w poprzednich czterech plikach. To jest bardzo istotne, bo np. możemy dość łatwo wyciągnąć słowa kluczowe, które generują sprzedaż. Nasze narzędzie umożliwia w bardzo prosty sposób łączenie danych z GSC i danych z Google Analytics, gdzie mamy metryki e-Commerce. Ta opcja jest bezpłatna, więc można pobrać narzędzie tylko i wyłącznie dla tego modułu, aby posprawdzać, jak możemy połączyć dane, które są w innych narzędziach.

Plany na rozwój Clusteric'a

Paweł: Clusteric jest cały czas rozwijany i aktualizowany. To narzędzie, które tworzy społeczność. Mamy panel, w którym użytkownik może głosować na konkretne funkcje czy zmiany, które powinny się pojawić w Clusteric'u. Bierzemy pod uwagę głosy użytkowników i tak developujemy narzędzie, żeby zaspokajało te potrzeby. Mamy więcej użytkowników ze środkowego i eksperckiego poziomu, dlatego też pytania i rozwój narzędzia jest inny - idziemy nie szeroko, a głębiej, czyli bardziej w jakość niż ilość.

Wprowadzane zmiany czasami są bardziej w backendzie czy w sposobie, w jaki sposób działają własne formuły, bo to jest coś bardziej unikalnego. Ze wszystkich narzędzi, które znam, a które robią analizę linków, tylko my umożliwiamy tak zaawansowane formuły własne, w których użytkownik sam może ustalić dowolne formuły, według których chce oceniać linki. Dlatego profil linków i ich analiza są u nas bardzo zaawansowane.

Rozwój narzędzia jest warunkowany tym, czego oczekują od nas użytkownicy. Otrzymujemy feedback od użytkowników, którzy dosyć mocno korzystają z tych modułów do analizy linków, dlatego to są tego typu zmiany.

Myślę, że jeśli chodzi o nowe moduły, to prawdopodobnie ich nie będzie, bo wyczerpaliśmy zakres wniosków od użytkowników. Natomiast cały czas aktualizujemy to, co już mamy. Mierzymy się z wyzwaniami, które pojawiają się ze względu na środowisko desktopowe. Gdyby nie to, to z całą pewnością ten czas moglibyśmy poświęcić na nowe funkcje w programie czy optymalizację naszych wewnętrznych baz danych.

Czy jest jeszcze sens, aby robić audyt linków i zgłaszać spamowe linki w pliku disavow?

Paweł: To jest bardzo dobre pytanie. I tak jak już wspominałem wcześniej: oczy Saurona są zwrócone bardziej w stronę onsite niż offsite. Myślę, że to jest trochę związane z polityką Google. Spójrzmy na to, w jaki sposób przebiegał proces budowania zmian w algorytmie Google, jeśli chodzi o offsite. Była informacja, że kampanie negatywne ci nie szkodzą, co było powodem do pewnych działań pozycjonerów, którzy budowali sobie dość szerokie bazy backlinków. Potem okazuje się, że Google sobie jednak z tym nie radzi - algorytmicznie i machine learning'owo nie są w stanie sobie poradzić z nadmiarem tych linków i widzą, że to filtrowanie nie działa. Wprowadzają narzędzie "Disavow Tool" i to był krok milowy w SEO.

Nagle się okazało, że linki mogą szkodzić. W tym momencie oni zbierają bazę próbek. Natomiast jest to dość problematyczne w momencie, kiedy nie znasz jakości źródła. Google w pierwszej fazie zbierało dość dużo informacji i w pewnym momencie zorientowało się, że ilość plików disavow, które przychodzą do nich, jest tak duża, a z ich jakością bywa różnie, że po mniej więcej półtora roku okazało się, że lepiej nie robić disavow masowo.

Z mojego punktu widzenia oni sobie nie radzili z tymi danymi, natomiast potem była informacja, że mają już tyle danych, że pliki disavow nie są im już potrzebne. Lub chodziło o to, że mają tak dobre informacje, jeśli chodzi o machine learning i jakość linków, że próby działania użytkowników na profilu linków są bezcelowe, bo Google i tak wie, które linki są dobre, a które złe.

RR-ki (Reconsideration Requests) już nie są tak popularne, ale wiąże się to głównie z tym, że po prostu SEO wygląda inaczej. Nikt nie robi dzisiaj miliona linków na dzień, co było normą w 2012 czy 2013 roku. RR-ek jest mniej, bo era agresywnego spamowego backlinkowania minęła, minęła era disavow. Co się dzieje dalej?

Google twierdzi, że tak dobrze rozumie linki i doskonale wie, które są dobre, a które złe, że wprowadza dodatkowe parametry i zmienia formuły przy nofollow i dofollow. Czyli to, co wcześniej specjaliści, którzy działali na nofollow wiedzieli - to Google oficjalnie potwierdza, że to jest tylko wskazówka dla nich i wprowadza nowe atrybuty dla linków, które wyraźnie mają otagować linki dla dalszego procesu machine learning'owego. Proces tagowania linków jest dużo bardziej świadomy niż tworzenie plików disavow. Google zaczęło sobie z tym radzić. Natomiast uważam, że analizy czy RR-ki ogólnie są dalej w niektórych przypadkach potrzebne, szczególnie w branżach, w których dalej używa się Black Hat i spamuje dość dużą liczbą linków.

Natomiast zmieniło się samo SEO, więc nie ma już tylu RR-ek. Myślę, że to jest bardzo dobre posunięcie ze strony Google, że oczy świata SEO zostały mocno zwrócone na onsite. Jednak onsite i budowanie wartości to jest coś, co może być przez Google dość łatwo badane. Chodzi o wzajemne zależności np. w samych SERP-ach, które odpowiadają intencji. Bo intencje dość trudno się bada na backlinkach. Ciężko zbadać behawiorystykę na backlinkach, natomiast na onsite już dość łatwo, więc myślę, że to są bardzo dobre, strategiczne ruchy ze strony Google, które pozwalają im zapanować nad częścią spamu.

Z drugiej strony, jeśli spojrzymy na to, co jest w SERP-ach i na to, jak to jest zrobione i zejdzie to trochę do Black Hat, to cały czas SERP-y są niepełne. Oczywiście, to nie jest już tak zła jakość SERP-ów, jak była jeszcze kilka lat temu, ale to nie jest tak, że nie da się znaleźć jakiegoś cloackingu czy jakichś tekstów z "mieszarek". Powiedziałbym, że w pewnym miejscach jest tego bardzo dużo, więc Google sobie z tym nie radzi. I to nie są teksty, które są robione w większości backlinkami. Teksty z "mieszarek" (przy obecnej semantyce i przy obecnej behawiorystyce) i do tego jeszcze cloacking, w zasadzie nie powinny się pojawiać w "topach", a się pojawiają. Więc są takie branże, w których osoby, które wiedzą, jak to robić, cały czas używają linkowania jako dominującej strategii. Też mamy Klientów i widzimy, ile i jak duże analizy oni przeprowadzają. Wiemy, że cały czas mamy freelancerów, którzy wyciągają domeny z filtrów ręcznych czy automatycznych, więc to cały czas jest proces, który się dzieje. On jest stopniowo marginalizowany, natomiast cały czas jest.

Do czego służy CONT.AI?

CONT.AI - Content Intelligence

Paweł: Zmagamy się z tym, że potrzebujemy więcej danych onsite'owych czy też dane onsite'owe powinny być zbierane lub analizowane w innej formule. Przechodzimy (jako narzędzia czy jako element wytycznych Google) z twardych jednostkowych danych na elementy bardziej związane z machine learning'iem czy z semantyką. Kiedyś pracowaliśmy nad modelami językowymi i cały czas (w bardzo uproszczonej wersji) bierzemy je pod uwagę w Clustericu. Mamy engramy - można zrobić crawl serwisu, a potem porównać popularne słowa, które występują na przykład w tytule czy w H1. Czyli można crawlować cały serwis konkurencji i mniej więcej określić, jaką oni mają strukturę w H1. Dzięki temu możemy się domyślić, jak wygląda ich marketing czy Content Marketing. Natomiast te elementy są niewystarczające.

Kiedy pracowałem z korporacjami, to było widać, że są obszary, które można byłoby lepiej zagospodarować. Szczególnie że Content Marketing, jako Inbound Marketing, jest taką dziedziną, która możemy powiedzieć, że cały czas się rozwija. Content Marketing jako pozyskiwanie ruchu jest dość młodą dziedziną w porównaniu do SEO. Natomiast, jeśli popatrzymy na rynek Content Marketingu i na liczbę firm, które się tym zajmują, to zauważymy, że jest to olbrzymi rynek.

Content Marketing to nie tylko artykuły blogowe, ale to, co robimy teraz też jest Content Marketingiem: SEO podcast, potem jakieś teksty czy wycinki z tego podcastu, które można opublikować na SEO blogu, Video Marketing i tak dalej, i tak dalej. Content Marketing stanowi w tej chwili bardzo dużą część wydatków marketingowych w każdej firmie i one muszą być uzasadnione. Problemem, z którym się cały czas stykałem w korporacjach, było uzasadnienie, dlaczego mamy wydawać pieniądze na SEO czy na Content Marketing.

W zestawieniu z wydatkami na Facebooku, Google Ads czy innymi płatnymi kanałami reklamowymi te wydatki są dość trudne do raportowania i uzasadnienia. Bardzo ciężko policzyć typowy ROI (Return on Investment) czy ROAS (Return on Ad Spend) z tych wydatków. W momencie, kiedy nie wiemy, ile tak naprawdę przynosi nam Content Marketing, to pojawiają się problemy, z którymi spotykałem się na co dzień: im większy budżet, tym większe problemy i tym większy zakres tych problemów.

To, na czym się skupiliśmy, gdy pracowaliśmy z Klientami to: w jaki sposób możemy ewentualnie ocenić zakres prac, który należy wykonać, ile to będzie kosztowało oraz jakie wyniki może przynieść nasza praca. Mówiliśmy, że jeśli zainwestujemy jakąś kwotę w konkretne słowa kluczowe, to zakładamy, że jest to obszar, który mamy pokryć i oczekujemy takiego i takiego zwrotu z inwestycji. To są początki, w których próbowaliśmy określić, jak możemy dostać podobnego typu informacje, czyli zwrot z inwestycji, w Content Marketingu głównie na poziomie strategicznym, na poziomie planowania treści.

Potem myśleliśmy też o tym, w związku z tym, że to był proces cykliczny. Kiedy mówimy o dużych budżetach, to one czasami są wydawane "na wiarę". Jednak w większości, jeśli to się nie spełni, to po prostu agencja zostaje zmieniona albo osoba, która tam doradzała, za długo nie utrzyma swojej pozycji.

To są bardzo istotne elementy, ponieważ te budżety są duże, potem kwestia planowania następnej akcji związanej z tym, co się dzieje, też jest dość istotna. Cały czas widzimy potrzebę pracy na rynku ogólnie z Content Marketingiem oraz ułożenia Content Marketingu w sposób bardziej przewidywalny i bardziej logiczny, żeby tworzył pewny ciąg zdarzeń, proces, którego nie ma we wszystkich firmach albo w niektórych firmach nie jest wydajny. To typowy proces, do którego doszliśmy, działając z Klientami.

Jeśli popatrzymy na niego z poziomu SEO, to jest to proces, który polega na badaniu konkurencji i badaniu tego, co my mamy. Czyli, jakie mamy artykuły, jaką mamy widzialność, jakie słowa kluczowe zagospodarujemy czy ogólnie jaką tematykę jako ekspert chcemy zagospodarować, jaką mamy widzialność w tej tematyce i porównanie nas do konkurencji.

A później przejście płynne poprzez jakąś strukturę zadań, strukturę czegoś, co my nazywamy inventory, czyli repozytorium linków, URL-i, naszych słów kluczowych itd., czyli tego wszystkiego, czym zarządzamy. Te elementy składają się na moduły CONT.AI. Potem mamy element, w którym optymalizujemy teksty poszczególnych stron internetowych czy e-booka pod intencje użytkownika.

To narzędzie powstało tak naprawdę z potrzeb rynku, gdzie proces Content Marketingowy jest nie ustrukturyzowany, nie jest prawidłowo mierzony albo nie są mierzone koszty związane z procesem Content Marketingowym. Staramy się wyjść z pomocą do firm, które mają tego typu problemy - ustrukturyzować je i przedstawić takie narzędzie, które będzie w pewien sposób pozwalało kontrolować treści, które piszemy i szczególnie panować nad ich nadmiarem, co w tej chwili wydaje się być bardzo logiczne.

Jakie macie pomysły na przyszłość tej aplikacji?

Czy będą nowe feature'y w najbliższych miesiącach?

Paweł: Moduły, które w tej chwili mamy, są w pełni funkcjonalne. Mamy użytkowników, którzy codziennie na nich działają i robią bardzo dużo tych analiz. Myślę, że w tych obszarach, w których już mamy zaawansowane MVP lub moduły prawidłowo działają, można z nich korzystać. Natomiast to, co widzimy, to bardzo duży obszar, w którym jeszcze musimy pracować i jest on związany właśnie z tym, że na przykład dla języka polskiego w tej chwili w edytorze treści obsługujemy odmiany, natomiast to jest coś, co musimy zbudować dla wielu języków. U nas machine learning, modele językowe, modele semantyczne to jest coś, co z całą pewnością będzie jeszcze budowane. Tego typu elementy są cały czas w trakcie tworzenia czy optymalizacji, to już zależy od modułu.

Przyszłość narzędzia - myślę, że jak wyjdziemy z pełną betą, zupełnie otwartą betą, to będzie nam łatwiej powiedzieć, jak będzie wyglądała przyszłość narzędzia. Mamy zaplanowane prace rozwojowe na najbliższe 6-12 miesięcy, więc to jest okres, w którym wiemy, co będziemy robili i wiemy, jak będą wyglądały elementy, które chcemy dowieźć i one są opisane na naszej stronie internetowej. Szczerze zapraszam do testów, bo moduły, które są dostępne, działają bardzo dobrze i myślę, że jeśli ktoś płaci za narzędzia, to albo zejdzie z kosztów i dostanie tę samą jakość w niższej cenie czy też częściowo za darmo, albo jak nie korzysta z innych narzędzi, to będzie mógł nauczyć się czegoś nowego i ocenić własny content czy zaplanować strategię marketingową.

👉 CONT.AI - Content Intelligence

Przed nami na pewno bardzo dużo pracy. Chcemy pracować bardziej z Klientem częściowo czy dobrze wyedukowanym. To też zmienia perspektywę tego, jak nasza beta będzie wyglądała, jak się będzie produkt rozwijał. Podstawowym problemem każdego narzędzia, które jest zaawansowane technicznie, jest to, że jest zaawansowane technicznie i kwestia edukacji jest bardzo istotna. Jeżeli kierujesz narzędzie do użytkowników typu właściciel sklepu internetowego, to trzeba je maksymalnie uprościć i zdjąć z niego maksymalnie dużą liczbę elementów, a zostawić tylko to, co odbiorca zrozumie na swoim poziomie wiedzy.

Przedsiębiorca musi wiedzieć, że to narzędzie mu pokazuje czerwone albo zielone, ale już na pewno nie np. 72% czerwonego. Dla nas i dla Klientów, z którymi głównie współpracujemy, analizujemy bardzo duże ilości danych, to narzędzie jest już w trybie eksperckim. Myślę, że będziemy szli w dostarczenie tych informacji w trybie eksperckim. Pewnie przesadzimy z ilością opcji. W beta testach z odpowiednią grupą docelową okaże się, jak daleko powinniśmy się jeszcze posunąć i które opcje, w jaki sposób powinniśmy zagospodarować.

W tej chwili pracuję głównie w środowisku wielojęzycznym, gdzie w narzędziu mamy wielojęzyczne strony i sprawdza nam się ono bardzo dobrze. Natomiast wiemy, że jak będziemy wchodzili na poszczególne rynki, szczególnie na rynki, z którymi nie mamy jeszcze doświadczenia albo rynki poza Europą, to myślę, że na pewno pojawią się wyzwania, jeśli chodzi o semantykę. Będzie na pewno dużo trudniej niż to, co się w tej chwili standardowo dzieje u nas w aplikacji.

Dawid: Zapraszamy na otwarte beta testy. Na pewno będę obserwował rozwój Waszej aplikacji, bo myślę, że jest to ciekawa alternatywa w stosunku do narzędzi, które aktualnie już istnieją na rynku. Mam nadzieję, że uda wam się to narzędzie rozwinąć.

Prezent dla słuchaczy

Damian: Przygotowaliśmy niespodziankę dla słuchaczy. Wszystkie osoby, które do nas napiszą i powołają się na SEO Fridays Podcast, otrzymają od nas dodatkowy dostęp do danych premium i aktualizacji w naszym narzędziu na okres 3 miesięcy. Myślę, że jest to dosyć ciekawa opcja, aby jeszcze lepiej wgryźć się w Clusterica - poznać jego funkcje, a być może spróbować połączyć ze sobą tryby analizy i zobaczyć, jakie jeszcze dane można z niego wyciągnąć. To nie musi być bezpośrednio po zakupie. Każdy, kto posiada licencję, może się odezwać do nas, powołać na podcast i otrzyma dodatkowe dostępy.

Dawid: Jestem bardzo zaskoczony. Zachęcam wszystkich do skorzystania z tej niespodzianki. Dzięki wielkie za wystąpienie, za poświęcony czas i za to, że zgodziliście się wystąpić w kolejnym odcinku podcastu.

To już ostatni odcinek SEO Fridays Podcast w tym roku. Życzę wszystkim słuchaczom zdrowych i bezpiecznych Świąt Bożego Narodzenia. Tym samym chciałbym ogłosić koniec Sezonu 1. Do usłyszenia w Sezonie 2 w nadchodzącym Nowym 2021 Roku! Hej!

Komentarze

Zapraszam do kontaktu!

W celu nawiązania współpracy wypełnij formularz. W ciągu 24 godzin skontaktuję się z Tobą.