Seite nicht gesperrt

Nur freigegebene Seiten können indexiert werden.

Das Thema dieser Seite: Die URL darf nicht durch robots.txt, Meta-Robots oder X-Robots-Tag blockiert sein.

Inhalt

Inhaltsverzeichnis

Klicke auf einen Abschnitt, um direkt dorthin zu springen.

  1. Check
  2. Kontext & Problemraum
  3. Entscheidungslogik
  4. Erklärende Details
  5. Risiken, Grenzen & Einschränkungen

Check

Der Check prüft robots.txt, Meta-Robots und X-Robots-Header für Sperren wie noindex oder disallow.

Prüfpunkt Bedeutung Bewertung
Kein Blocker gefunden URL ist indexierbar OK
nofollow oder nosnippet Eingeschränkte Signale Warnung
disallow oder noindex Indexierung verhindert Kritisch

Kontext & Problemraum

Blockierte Seiten entstehen häufig durch Standard-Templates, Staging-Defaults oder alte SEO-Einstellungen.

Situation Symptom Risiko
Template übernommen noindex bleibt aktiv Seite erscheint nicht in Suchergebnissen
Robots-Regel zu breit Disallow blockiert Pfade Wichtige URLs verschwinden
Header-Sperre X-Robots-Tag auf CDN Indexierung trotz sauberer HTML blockiert

Entscheidungslogik

Wenn Dann Empfehlung
Seite soll ranken Keine Sperren zulässig noindex/disallow entfernen
Seite ist intern Indexierung unerwünscht noindex bewusst setzen
Unsichere Regeln Unklarer Status Regeln dokumentieren

Erklärende Details

Sperren können aus unterschiedlichen Quellen stammen. Wichtig ist die Reihenfolge: robots.txt blockiert den Crawl, Meta-Robots blockiert die Indexierung.

<meta name="robots" content="noindex,follow">
X-Robots-Tag: noindex
Quelle Wirkung Hinweis
robots.txt Crawl wird verhindert Google kann Inhalt nicht prüfen
Meta-Robots Indexierung wird verhindert Seite bleibt erreichbar
X-Robots-Tag Header-Sperre Gilt auch für PDFs

Risiken, Grenzen & Einschränkungen

Grenze Woran erkennbar Was tun
Mehrfach-Sperren Robots + Meta blockieren Alle Quellen prüfen
Temporäre Sperre noindex bleibt nach Launch Release-Checkliste nutzen
Tool-Cache Altwerte angezeigt Neu crawlen lassen

Interne Links

Weiterführende Checks

Mehr Kontrolle über Indexierung.

Zurück zur Übersicht

Meta-Robots korrekt

Prüft die konkrete Robot-Directive.

robots.txt vorhanden

Stellt sicher, dass die robots.txt erreichbar ist.

Widersprüchliche Signale

Vermeidet Konflikte zwischen Regeln.