Czym jest tag meta robots?
Tag meta robots to element HTML umieszczany w sekcji <head> strony internetowej. Dostarcza wyszukiwarkom – przede wszystkim Googlebotowi – bezpośrednich instrukcji dotyczących tego, jak mają traktować daną stronę: czy ją indeksować, czy podążać za jej linkami, czy cachować treść i jak wyświetlać snippet w wynikach wyszukiwania.
W odróżnieniu od pliku robots.txt – który kontroluje, czy bot może wejść na stronę – meta robots działa na poziomie pojedynczej podstrony i daje znacznie większą precyzję. Robots.txt blokuje dostęp, meta robots daje instrukcje co zrobić z treścią po wejściu.
<meta name="robots" content="index, follow">
Najważniejsze wartości tagu meta robots
index / noindex
index – Google może zaindeksować stronę i pokazać ją w wynikach wyszukiwania. To wartość domyślna – jeśli nie masz tagu meta robots, Google zakłada "index".noindex – Google nie powinien indeksować strony ani pokazywać jej w wynikach. Strona może być nadal crawlowana, żeby bot mógł odczytać ten tag.
follow / nofollow
follow – Google podąża za linkami na stronie i przekazuje przez nie PageRank. Wartość domyślna.nofollow – Google nie podąża za żadnym linkiem na tej stronie. Dotyczy wszystkich linków naraz, w odróżnieniu od atrybutu rel="nofollow" na pojedynczym znaczniku <a>.
noarchive
Google nie zapisuje kopii zapasowej strony w cache. Użytkownik w wynikach wyszukiwania nie zobaczy linku "Kopia w pamięci podręcznej". Przydatne dla stron z danymi wrażliwymi lub z treścią aktualizowaną w czasie rzeczywistym.
nosnippet
Google nie wyświetla opisu tekstowego (snippeta) pod wynikiem wyszukiwania. Kliknięcia na strony bez snippeta są zazwyczaj znacznie niższe – stosuj ostrożnie i tylko tam, gdzie snippet mógłby ujawnić poufne dane.
max-snippet: N
Ogranicza długość snippeta do N znaków. max-snippet: -1 oznacza brak ograniczeń (zalecane). max-snippet: 0 wyłącza snippet całkowicie – działa jak nosnippet.
max-image-preview
Kontroluje rozmiar podglądu obrazu w wynikach. Wartość large umożliwia duże zdjęcia w Google Discover – zalecane dla serwisów contentowych. none całkowicie blokuje podgląd obrazów.
Gotowe kody do wdrożenia
Standardowa strona do zaindeksowania
<meta name="robots" content="index, follow">
Możesz go pominąć – Google zakłada index i follow domyślnie. Warto jednak dodawać go explicite dla jasności kodu i łatwiejszego audytu.
Strona wyłączona z indeksu (panel logowania, koszyk, filtr)
<meta name="robots" content="noindex, follow">
Użycie follow przy noindex pozwala Google podążać za linkami na stronie i przekazywać przez nie PageRank do innych podstron – to ważne dla zachowania przepływu linków wewnętrznych.
Strona całkowicie wykluczona (np. panel admina)
<meta name="robots" content="noindex, nofollow">
Pełne uprawnienia dla Google Discover i rich snippets
<meta name="robots" content="index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1">
Reguła tylko dla konkretnego bota
Zamiast name="robots" możesz podać nazwę konkretnego robota:
<!-- Tylko dla Googlebota -->
<meta name="googlebot" content="noindex, follow">
<!-- Tylko dla Bingbota -->
<meta name="bingbot" content="noindex">
X-Robots-Tag – meta robots w nagłówku HTTP
Dla plików bez sekcji <head> – PDF, obrazy, pliki JSON, XML – meta robots nie działa. Zamiast niego użyj nagłówka HTTP X-Robots-Tag, który działa tak samo, ale na poziomie odpowiedzi serwera:
<!-- Apache .htaccess – noindex dla wszystkich PDF -->
<FilesMatch "\.pdf$">
Header set X-Robots-Tag "noindex, nofollow"
</FilesMatch>
<!-- Nginx – noindex dla plików graficznych -->
location ~* \.(jpg|jpeg|png|gif|webp)$ {
add_header X-Robots-Tag "noindex";
}
Meta robots a robots.txt – kluczowe różnice
Meta robots (noindex)
Działa na poziomie strony. Bot musi wejść na stronę, żeby odczytać instrukcję. Jeśli strona jest jednocześnie zablokowana w robots.txt, Google może nigdy nie odczytać tagu noindex – i strona pozostanie w indeksie pomimo tego tagu.
robots.txt (Disallow)
Blokuje dostęp bota do strony – bot nie wchodzi i nie czyta żadnych tagów. Strona może nadal pojawiać się w wynikach, jeśli Google wie o niej z linków zewnętrznych. Same Disallow w robots.txt nie usuwa strony z indeksu.
Najczęstsze błędy przy meta robots
- Noindex + zablokowanie w robots.txt jednocześnie – jeśli zablokujesz stronę w robots.txt i dodasz noindex, Google nie odczyta noindex, bo bot nie wejdzie na stronę. Strona może zostać w indeksie bezterminowo.
- Środowisko staging z noindex wypuszczone na produkcję – to jeden z najczęstszych błędów przy migracjach. Zawsze sprawdzaj meta robots po deploymencie.
- Noindex + canonical na inną stronę – sprzeczne sygnały. Jeśli strona ma być wyindeksowana, nie potrzebuje canonical wskazującego na inną.
- Brak noindex na stronach z duplikatami parametrycznymi – adresy URL z parametrami sortowania i filtrów (np.
?sort=cena&kolor=czerwony) bez canonical ani noindex generują duplikaty i marnują crawl budget. - Przypadkowy noindex w globalnym szablonie – jeden błąd w pliku header.php i wszystkie podstrony mają noindex. Monitoruj raport pokrycia w Google Search Console.