Crawler blockieren oder freigeben – Best Practices

Nicht jede Seite sollte von Google gecrawlt werden. Manchmal ist es besser, bestimmte Inhalte gezielt auszuschliessen – um Crawling-Budget zu sparen, Duplicate Content zu vermeiden oder sensible Bereiche zu schützen.

In diesem Guide zeigen wir dir, wie du – mit robots.txt, Meta Robots und Canonicals – für maximale SEO-Kontrolle deiner Schweizer Website.


Inhaltsverzeichnis


Was sind Crawler & wie funktionieren sie?

Crawler (z. B. Googlebot) sind automatisierte Programme, die Websites durchsuchen, analysieren & indexieren.

Wenn du willst, dass Google deine Inhalte richtig versteht und bewertet, musst du .

robots.txt gezielt einsetzen

Die robots.txt liegt im Root deiner Website (z. B. /robots.txt) und steuert, welche Bereiche für Suchmaschinen zugänglich sind:

User-agent: *
Disallow: /admin/
Disallow: /wp-login.php
Allow: /

💡 Blockiere keine wichtigen Inhalte – sonst ranken sie nicht.

Meta Robots – Seiten gezielt ausblenden

Im <head>-Bereich deiner HTML-Seite kannst du Crawler ebenfalls steuern:

<meta name="robots" content="noindex,follow" />

Bedeutung:

  • index, follow: Seite darf gerankt & verlinkt werden
  • noindex, follow: Seite wird nicht gerankt, aber ihre Links werden verfolgt
  • noindex, nofollow: Seite und ihre Links ignorieren

Was solltest du blockieren (und was nicht)?

✅ Diese Bereiche solltest du ausschliessen:

  • /wp-admin/, /login, /checkout (technische Seiten)
  • Duplicate-Content-Seiten (Filter, Sortierungen)
  • Internes Test- oder Archivmaterial

🚫 Diese Seiten solltest du nicht blockieren:

  • Blog-Beiträge, Produktseiten, Landingpages
  • Seiten mit Ranking-Potenzial
  • Inhalte mit Backlinks oder Social-Traffic

Alles, was ranken soll → offen lassen. Alles andere gezielt kontrollieren.


FAQ – Crawler Steuerung SEO

Wie finde ich heraus, was Google blockiert?
Über die Google Search Console → Crawling-Statistiken & Abdeckung.

Was ist besser: noindex oder Disallow?
noindex entfernt Seiten aus dem Index, aber sie können gecrawlt werden. Disallow blockiert den Zugriff komplett – keine Bewertung möglich.

Wie kann ich testweise blockieren?
Verwende den robots.txt-Test in der Search Console oder setze vorübergehend Meta Robots auf „noindex“.


🚀 Du willst Google gezielt zeigen, was wichtig ist?

➤ Jetzt Crawling & Indexierung mit SEOBoost optimieren


Weitere Themen: