Audyt strony internetowej pod SEO – czy warto i jak go robić ?

Żeby firma miała nowych Klientów – „z internetu”, musi ten Klient jakoś wejść na jej stronę internetową.

Może tam trafić na wiele sposobów np.

  • kliknąć w baner na Facebooku (płatny)
  • kliknąć w reklamę tekstową w Google (płatną)
  • albo kliknąć w wynik naturalny, organiczny (teoretycznie bezpłatny)

Za widoczność na wynikach naturalnych odpowiadają specjaliści i agencje SEO, zajmujące się pozycjonowaniem.

Ludzie lubią wyniki naturalne,

bo wierzą, że zapewniają im lepsze „dopasowanie, odpowiedniość” niż reklamy np. Google Ads.

I tu pojawia się kluczowe pytanie, od czego zależy widoczność strony w bezpłatnych (naturalnych, organicznych) wynikach wyszukiwania google ?

Otóż, zależy od:

  • czynników wewnętrznych (30%), czyli tego co dzieje się po stronie strony 🙂 np. ilość i jakość treści, właściwe tytuły i nagłówki H1 (oraz liczne inne cechy)
  • oraz czynników zewnętrznych (70%), czyli linkowanie – linkbuilding.

Czy w każdym przypadku są takie proporcje % ?

Na mocnych, konkurencyjnych frazach – TAK.

Na słabych, te proporcje mogą się zmieniać, włącznie z dojechaniem do dominacji 80-90% czynnika wewnętrznego.

Jak sprawdzić te wewnętrzne czynniki, aby wiedzieć co poprawić ?

Najlepiej przeprowadzić audyt SEO.  

Wyróżniamy 2 grupy narzędzi SEO analizujących Twoją stronę i rynek, na którym funkcjonuje.

#1 Narzędzia, które pokazują rzeczywistość

#2 Narzędzia, które coś estymują  (prognozują, domyślają się, gdybają)

AD (1) Grupa pierwsza pokazuje internetową rzeczywistość, ale wąsko, bo punktem odniesienia jest Twoja konkretna strona internetowa.

Najważniejsze narzędzie tej grupy to GSC (Google Search Console). Na przykład powie ono, że fraza pozycjonowanie stron Katowice została wpisana przez ostatnie 30 dni, 311 razy w google. I że Twoja (Moja) strona została na tej frazie kliknięta 31 razy.

To i te narzędzia nie pokazują, na jakich frazach strona się NIE wyświetla. Innymi słowy nie ukazują pełnego potencjału witryny.

Należy do niej również Google Analytics (i inne narzędzia).

AD (2) Grupa druga to narzędzia do estymacji np. Ahrefs czy Semrush (które również mogą pokazywać rzeczywistość, jeśli je połączyć z Search Console i Analytics)

Audyt SEO zrobiony przez agencję interaktywną Studio72 z Katowic

Ich estymacje mogą być nietrafione, ale raczej na poziomie % niż zer np. zamiast 50 tysięcy zapytań, w rzeczywistości 21 tysięcy zapytań (a nie 5 tysięcy)

Co jest kluczowe w audycie strony internetowej ?

  • na czym (na jakich słowach i frazach) strona internetowa już się wyświetla np. w przedziale 1-30 pozycji SERP-ów
  • na czym mogłaby się wyświetlać (estymacja, co jest realne do łatwego wdrożenia)
  • stan SEO-techniczny witryny (błędy, braki np. h1, meta description)
  • szybkość witryny wg pageSpeed google, ponieważ szybkość jest czynnikiem rankingowym
  • wnioski do wdrożenia

Przy okazji, czy wiesz że nowoczesne przeglądarki stron np. Chrome, Firefox to bardzo skomplikowane oprogramowanie, które wykonuje tysiące operacji na sekundę ?

Jakie są inne, znaczące składniki oceny SEO dla witryny ?

  • historia domeny
  • publiczny vs prywatny WhoIs
  • lokalizacja serwera
  • certyfikat HTTPS
  • niepowtarzalność treści (duplicate content to zawsze fatalny pomysł)
  • optymalizacja obrazków (nazwa pliku, jego Alt, title i  podpis)
  • Świeżość podstrony (aktualizacja, dodawanie treści) UWAGA: nie mylić z wiekem domeny jeśli mamy podstronę o witaminie A, która została zindexowana 2 lata temu na domenie XY, która od 10 lat opowiada o zdrowiu, witaminach, oraz np. miesiąc temu dopisaliśmy do niej 5 zdań i dodaliśmy nowe zdjęcie, TO JEJ WARTOŚĆ jest znacznie większa niż podobna podstrona na domenie 1 rocznej, której autor / copywriter napisał artykuł miesiąc temu. Jest to dokładnie odwrotnie niż na Facebooku, który promuje nowość. Historyczne posty FB są prawie niewidzialne. Można powiedzieć, że google jest biblioteką (która uratowała czytelnictwo) ale jednak wymaga jakiejś aktualizacji.
  • rel = canonical
  • Linki wychodzące na zewnątrz witryny -> ZERO lub MAŁO (1-2) i TYLKO do stron o wysokiem rankingu (DA) np. wikipedia, google etc.
  • 100% sprawności strony pod urządzenia mobilne. Większość stron w internecie, większość ruchu ma z „komórek” (aczkolwiek są rodzynki zwłaszcza B2B gdzie 80-100% ruchu to desktop, znamy takie)
  • unikanie „Tabów” (zakładki w treści)
  • system linków wewnętrznych
  • „Reading level” czyli poziom łatwości czytania, można go sprawdzić wtyczkami np. Yoast SEO lub Flesch Reading Ease (formuła Rudolfa Flescha od 1 do 100 punktów =  najłatwiejszy tekst)
  • Autorytet domeny (Domain Authority = DA), czyli ile stron linkuje do Twojej domeny, 100 czy 100 tysięcy ?
  • pełna ścieżka podstrony, z czego się składa (np. kategoria, co jest w niej literalnie zapisane, co w końcówce ?)
  • zróżnicowanie tekstu np. cytaty, listy, obrazki, wyboldowania
  • TR-IDF + LSI czyli fraza i wyrazy bliskoznaczne do pozycjonowanej
  • Tabela treści (spis)
  • Nie – Duplikowanie meta informacji
  • Czy masz Youtube na stronie ? (ten sam właściciel)
  • Używanie schema.org (gwiazdki, bo to wpływa na CTR, a ten wpływa na ranking podstrony)
5 1 głos
Article Rating
tomasz kita z katowic Autor:
Tomasz Kita [bio]
Absolwent Wydziału Prawa Uniw. Śląskiego
20 lat praktyki w reklamie internetowej.
Nastawiony na mimalizm i skuteczność.
Właściciel Studio72

Studio72 / Katowice
Masz pytania, uwagi ? Napisz do mnie (mini-formularz tutaj).
Subscribe
Powiadom o

0 komentarzy
Inline Feedbacks
View all comments