Czym jest tag meta robots?

Tag meta robots to element HTML umieszczany w sekcji <head> strony internetowej. Dostarcza wyszukiwarkom – przede wszystkim Googlebotowi – bezpośrednich instrukcji dotyczących tego, jak mają traktować daną stronę: czy ją indeksować, czy podążać za jej linkami, czy cachować treść i jak wyświetlać snippet w wynikach wyszukiwania.

W odróżnieniu od pliku robots.txt – który kontroluje, czy bot może wejść na stronę – meta robots działa na poziomie pojedynczej podstrony i daje znacznie większą precyzję. Robots.txt blokuje dostęp, meta robots daje instrukcje co zrobić z treścią po wejściu.

Podstawowy zapis tagu meta robots
<meta name="robots" content="index, follow">

Najważniejsze wartości tagu meta robots

index / noindex

index – Google może zaindeksować stronę i pokazać ją w wynikach wyszukiwania. To wartość domyślna – jeśli nie masz tagu meta robots, Google zakłada "index".

noindex – Google nie powinien indeksować strony ani pokazywać jej w wynikach. Strona może być nadal crawlowana, żeby bot mógł odczytać ten tag.

follow / nofollow

follow – Google podąża za linkami na stronie i przekazuje przez nie PageRank. Wartość domyślna.

nofollow – Google nie podąża za żadnym linkiem na tej stronie. Dotyczy wszystkich linków naraz, w odróżnieniu od atrybutu rel="nofollow" na pojedynczym znaczniku <a>.

noarchive

Google nie zapisuje kopii zapasowej strony w cache. Użytkownik w wynikach wyszukiwania nie zobaczy linku "Kopia w pamięci podręcznej". Przydatne dla stron z danymi wrażliwymi lub z treścią aktualizowaną w czasie rzeczywistym.

nosnippet

Google nie wyświetla opisu tekstowego (snippeta) pod wynikiem wyszukiwania. Kliknięcia na strony bez snippeta są zazwyczaj znacznie niższe – stosuj ostrożnie i tylko tam, gdzie snippet mógłby ujawnić poufne dane.

max-snippet: N

Ogranicza długość snippeta do N znaków. max-snippet: -1 oznacza brak ograniczeń (zalecane). max-snippet: 0 wyłącza snippet całkowicie – działa jak nosnippet.

max-image-preview

Kontroluje rozmiar podglądu obrazu w wynikach. Wartość large umożliwia duże zdjęcia w Google Discover – zalecane dla serwisów contentowych. none całkowicie blokuje podgląd obrazów.

Gotowe kody do wdrożenia

Standardowa strona do zaindeksowania

<meta name="robots" content="index, follow">

Możesz go pominąć – Google zakłada index i follow domyślnie. Warto jednak dodawać go explicite dla jasności kodu i łatwiejszego audytu.

Strona wyłączona z indeksu (panel logowania, koszyk, filtr)

<meta name="robots" content="noindex, follow">

Użycie follow przy noindex pozwala Google podążać za linkami na stronie i przekazywać przez nie PageRank do innych podstron – to ważne dla zachowania przepływu linków wewnętrznych.

Strona całkowicie wykluczona (np. panel admina)

<meta name="robots" content="noindex, nofollow">

Pełne uprawnienia dla Google Discover i rich snippets

<meta name="robots" content="index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1">

Reguła tylko dla konkretnego bota

Zamiast name="robots" możesz podać nazwę konkretnego robota:

<!-- Tylko dla Googlebota -->
<meta name="googlebot" content="noindex, follow">

<!-- Tylko dla Bingbota -->
<meta name="bingbot" content="noindex">

X-Robots-Tag – meta robots w nagłówku HTTP

Dla plików bez sekcji <head> – PDF, obrazy, pliki JSON, XML – meta robots nie działa. Zamiast niego użyj nagłówka HTTP X-Robots-Tag, który działa tak samo, ale na poziomie odpowiedzi serwera:

<!-- Apache .htaccess – noindex dla wszystkich PDF -->
<FilesMatch "\.pdf$">
    Header set X-Robots-Tag "noindex, nofollow"
</FilesMatch>
<!-- Nginx – noindex dla plików graficznych -->
location ~* \.(jpg|jpeg|png|gif|webp)$ {
    add_header X-Robots-Tag "noindex";
}

Meta robots a robots.txt – kluczowe różnice

Meta robots (noindex)

Działa na poziomie strony. Bot musi wejść na stronę, żeby odczytać instrukcję. Jeśli strona jest jednocześnie zablokowana w robots.txt, Google może nigdy nie odczytać tagu noindex – i strona pozostanie w indeksie pomimo tego tagu.

robots.txt (Disallow)

Blokuje dostęp bota do strony – bot nie wchodzi i nie czyta żadnych tagów. Strona może nadal pojawiać się w wynikach, jeśli Google wie o niej z linków zewnętrznych. Same Disallow w robots.txt nie usuwa strony z indeksu.

Najczęstsze błędy przy meta robots

  • Noindex + zablokowanie w robots.txt jednocześnie – jeśli zablokujesz stronę w robots.txt i dodasz noindex, Google nie odczyta noindex, bo bot nie wejdzie na stronę. Strona może zostać w indeksie bezterminowo.
  • Środowisko staging z noindex wypuszczone na produkcję – to jeden z najczęstszych błędów przy migracjach. Zawsze sprawdzaj meta robots po deploymencie.
  • Noindex + canonical na inną stronę – sprzeczne sygnały. Jeśli strona ma być wyindeksowana, nie potrzebuje canonical wskazującego na inną.
  • Brak noindex na stronach z duplikatami parametrycznymi – adresy URL z parametrami sortowania i filtrów (np. ?sort=cena&kolor=czerwony) bez canonical ani noindex generują duplikaty i marnują crawl budget.
  • Przypadkowy noindex w globalnym szablonie – jeden błąd w pliku header.php i wszystkie podstrony mają noindex. Monitoruj raport pokrycia w Google Search Console.
Chcesz sprawdzić, czy Twoja strona nie ma problemu z meta robots? Bezpłatna wycena