7 ostrzeżeń i błędów narzędzia SEO, które możesz bezpiecznie zignorować

Roboty SEO są niezbędnymi narzędziami, ale potrzebują wiedzy i doświadczenia specjalisty SEO, aby określić, które ostrzeżenia należy wziąć pod uwagę, a które zignorować. W wielu przypadkach to, co robot indeksujący SEO określa jako błąd krytyczny, wymaga natychmiastowej uwagi – ale czasami wcale nie jest to błąd.

Może się to zdarzyć nawet w przypadku najpopularniejszych narzędzi do indeksowania SEO, takich jak Semrush Site Audit, Ahrefs Site Audit, Sitebulb i Screaming Frog. Jak możesz odróżnić, aby uniknąć nadawania priorytetu naprawie, która nie musi być wykonywana? Oto kilka rzeczywistych przykładów takich ostrzeżeń i błędów wraz z wyjaśnieniem, dlaczego mogą one stanowić problem dla Twojej witryny.

 

1. Problemy z indeksacją (strony Noindex w Witrynie)

Każdy robot SEO podświetli i ostrzeże Cię o nieindeksowanych stronach w witrynie. W zależności od typu robota strony bezindeksowe mogą być oznaczane jako ostrzeżenia, błędy lub statystyki. Google Search Console raport Pokrycie może również oznaczać nieindeksowalną stron jako błędy (jeśli witryna ma nieindeksowalną stron w sitemap wniosek) lub wyłączona, nawet jeśli nie są one rzeczywiste problemy.

Jest to ponownie tylko informacja, że ​​te adresy URL nie mogą być indeksowane. Fakt, że adres URL zawiera tag „noindex”, niekoniecznie oznacza, że ​​jest to błąd. Oznacza to jedynie, że strona nie może zostać zindeksowana przez Google i inne wyszukiwarki. Znacznik „noindex” to jedna z dwóch możliwych dyrektyw dla robotów indeksujących, a druga to indeksowanie strony.

Praktycznie każda strona internetowa zawiera adresy URL, które nie powinny być indeksowane przez Google. Mogą to być na przykład strony z tagami (a czasami również strony kategorii), strony logowania, strony resetowania hasła lub strona z podziękowaniami. Twoim zadaniem, jako profesjonalisty SEO, jest przejrzenie stron noindex w witrynie i podjęcie decyzji, czy rzeczywiście powinny one zostać zablokowane przed indeksowaniem, czy też tag „noindex” mógł zostać dodany przez przypadek.

 

2. Meta opis jest zbyt krótki lub pusty

Roboty SEO będą również sprawdzać elementy meta witryny, w tym elementy opisu meta . Jeśli witryna nie zawiera meta opisów lub są one zbyt krótkie (zwykle poniżej 110 znaków), robot oznaczy to jako problem. W zależności od rozmiaru witryny nie zawsze jest możliwe i/lub wykonalne utworzenie unikalnych opisów meta dla wszystkich jej stron internetowych. Ty też możesz ich nie potrzebować.

Dobrym przykładem witryny, w której może to nie mieć sensu, jest ogromna witryna e-commerce z milionami adresów URL. W rzeczywistości im większa strona, tym mniej ważny staje się ten element. Zawartość elementu meta description, w przeciwieństwie do zawartości tagu title , nie jest brana pod uwagę przez Google i nie wpływa na rankingi. Fragmenty wyszukiwania czasami używają metaopisu, ale często są przepisywane przez Google.

 

Oto, co Google ma na ten temat do powiedzenia w swojej dokumentacji Advanced SEO :

narzędzia SEO

reklama:

https://szymanski.biz.pl/

„Snippety są tworzone automatycznie na podstawie zawartości strony. Fragmenty mają na celu podkreślenie i podgląd zawartości strony, która najlepiej odnosi się do konkretnego wyszukiwania użytkownika: oznacza to, że strona może wyświetlać różne fragmenty dla różnych wyszukiwań”.

To, co musisz zrobić jako SEO, to pamiętać, że każda witryna jest inna. Kieruj się zdrowym rozsądkiem SEO, decydując, czy opisy meta rzeczywiście są problemem dla tej konkretnej witryny, czy też możesz bezpiecznie zignorować ostrzeżenie.

Brakujące słowa kluczowe meta

3. Brakujące słowa kluczowe meta

Meta-słowa kluczowe były używane ponad 20 lat temu jako sposób na wskazanie wyszukiwarkom takim jak Altavista, na jakie frazy kluczowe dany adres URL chce się skutecznie pozycjonować. Było to jednak mocno nadużywane. Meta-słowa kluczowe były rodzajem „magnesu spamowego”, więc większość wyszukiwarek zrezygnowała z obsługi tego elementu.

Screaming Frog domyślnie zawsze sprawdza, czy na stronie znajdują się meta słowa kluczowe. Ponieważ jest to przestarzały element SEO, 99% witryn nie używa już meta słów kluczowych. Nowi profesjonaliści SEO lub klienci mogą się zdezorientować, myśląc, że jeśli robot oznaczy coś jako brakującego, to ten element powinien zostać dodany do witryny. Ale tutaj tak nie jest! Jeśli w witrynie, którą kontrolujesz, brakuje meta słów kluczowych, zalecanie ich dodawania jest marnotrawstwem.

 

 

4. Obrazy powyżej 100 KB

Ważne jest, aby zoptymalizować i skompresować obrazy używane na stronie, aby gigantyczne logo PNG o wadze 10 MB nie musiało być ładowane na każdej stronie. Jednak nie zawsze można skompresować wszystkie obrazy do rozmiaru poniżej 100 KB. Screaming Frog zawsze podświetli i ostrzeże Cię o obrazach, które mają ponad 100 KB. Fakt, że witryna zawiera obrazy o rozmiarze powyżej 100 KB, niekoniecznie oznacza, że ​​witryna ma problemy z optymalizacją obrazu lub działa bardzo wolno.

Gdy zobaczysz ten błąd, sprawdź ogólną szybkość i wydajność witryny w Google PageSpeed ​​Insights i raporcie Google Search Console Core Web Vitals. Jeśli witryna ma się dobrze i przejdzie ocenę Core Web Vitals , zwykle nie ma potrzeby dalszej kompresji obrazów.

Wskazówka: To, co możesz zrobić z tym raportem Screaming Frog, to posortować obrazy według rozmiaru od najcięższego do najlżejszego, aby sprawdzić, czy na określonych stronach internetowych znajdują się naprawdę duże obrazy.

 

5. Strony o niskiej zawartości lub niskiej liczbie słów

W zależności od ustawień robota SEO, większość narzędzi do audytu SEO wyróżnia strony zawierające poniżej 50-100 słów jako strony o niskiej zawartości. Z drugiej strony Screaming Frog domyślnie uważa strony poniżej 200 słów za strony o niskiej zawartości (możesz zmienić to ustawienie podczas konfigurowania indeksowania).

To, że strona internetowa zawiera niewiele słów, nie oznacza, że ​​jest to problem lub błąd. Istnieje wiele rodzajów stron, które mają niską liczbę słów, w tym niektóre strony logowania, strony resetowania hasła, strony tagów lub stronę kontaktową. Robot oznaczy te strony jako o niskiej zawartości, ale nie jest to problem, który uniemożliwi dobrą pozycję witryny w Google. To, co narzędzie próbuje Ci powiedzieć, to to, że jeśli chcesz, aby dana strona internetowa miała wysoką pozycję w Google i przynosiła duży ruch organiczny, to ta strona internetowa może wymagać dość szczegółowej i dogłębnej.

Często obejmuje to m.in. dużą liczbę słów. Istnieją jednak różne rodzaje intencji wyszukiwania, a głębia treści nie zawsze jest tym, czego użytkownicy szukają, aby zaspokoić swoje potrzeby. Przeglądając strony o niskiej liczbie słów oznaczone przez robota indeksującego, zawsze zastanów się, czy rzeczywiście mają one zawierać dużo treści. W wielu przypadkach tak nie jest.

 

6. Niski stosunek HTML do tekstu

Semrush Site Audit powiadomi Cię również o stronach, które mają niski stosunek tekstu do HTML. Ten alert ma Ci pokazać:

*Strony, które mogą mieć małą liczbę słów.

*Strony, które są potencjalnie złożone i zawierają ogromny plik kodu HTML.

To ostrzeżenie często dezorientuje mniej doświadczonych lub nowych specjalistów SEO i możesz potrzebować doświadczonego specjalisty ds. SEO, aby ustalić, czy jest to coś, o co należy się martwić.

Istnieje wiele zmiennych, które mogą wpływać na stosunek HTML do tekstu i nie zawsze jest problemem, jeśli witryna ma niski/wysoki stosunek HTML do tekstu. Nie ma czegoś takiego jak optymalny stosunek HTML do tekstu. Zamiast tego, jako profesjonalista SEO, możesz się skupić na zapewnieniu optymalnej szybkości i wydajności witryny.

7. Mapa witryny XML nie jest wskazana w pliku robots.txt

Robots.txt, oprócz tego, że jest plikiem z dyrektywami robota, jest również miejscem, w którym można określić adres URL mapy witryny XML, aby Google mógł ją łatwo zindeksować i zindeksować treść.

Roboty SEO, takie jak Semrush Site Audit, powiadomią Cię, jeśli mapa witryny XML nie jest wskazana w pliku robots.txt. Na pierwszy rzut oka wygląda to na poważny problem, chociaż w większości przypadków nie jest to spowodowane tym, że:

*Google zwykle nie ma problemów z przemierzaniem i indeksowaniem mniejszych witryn (poniżej 10 000 stron).

*Google nie będzie miał problemów z przemierzaniem i indeksowaniem dużych witryn, jeśli mają dobrą wewnętrzną strukturę linków.

*Mapa witryny XML nie musi być wskazana w pliku robots.txt, jeśli została prawidłowo przesłana w Google Search Console.

*Mapa witryny XML nie musi być wskazywana w pliku robots.txt, jeśli znajduje się w standardowej lokalizacji, tj. /sitemap.xml (w większości przypadków).

Zanim oznaczysz to jako problem o wysokim priorytecie w audycie SEO, upewnij się, że żadne z powyższych nie jest prawdziwe w przypadku audytowanej witryny.

 

Bonus: narzędzie zgłasza krytyczny błąd, który odnosi się do kilku nieistotnych adresów URL

Nawet jeśli narzędzie pokazuje prawdziwy problem, na przykład strona 404 w witrynie, może nie być poważnym problemem, jeśli jedna z milionów stron w witrynie zwraca stan 404 lub jeśli nie ma linków prowadzących do tej strony 404. Dlatego przy ocenie problemów wykrytych przez robota zawsze sprawdzaj, do ilu stron one się odnoszą i do jakich.

Musisz podać kontekst błędu. Na przykład Sitebulb pokaże procent adresów URL, do których odnosi się dany błąd. Wygląda na dość poważny problem, ale dotyczy tylko jednej nieistotnej strony internetowej, więc zdecydowanie nie jest to sprawa o wysokim priorytecie.

 

Końcowe przemyślenia i wskazówki

Roboty SEO są niezbędnym narzędziem dla technicznych specjalistów SEO. Jednak to, co ujawniają, należy zawsze interpretować w kontekście witryny i celów biznesowych.

Odróżnienie pseudo-problemu od rzeczywistego wymaga czasu i doświadczenia. Na szczęście większość robotów indeksujących oferuje obszerne wyjaśnienia wyświetlanych błędów i ostrzeżeń.

Dlatego zawsze dobrym pomysłem – szczególnie dla początkujących specjalistów SEO – jest przeczytanie tych wyjaśnień i dokumentacji robota. Upewnij się, że naprawdę rozumiesz, co oznacza dany problem i czy rzeczywiście warto go rozwiązać.