Seite nicht gesperrt
Nur freigegebene Seiten können indexiert werden.
Das Thema dieser Seite: Die URL darf nicht durch robots.txt, Meta-Robots oder X-Robots-Tag blockiert sein.
Inhalt
Inhaltsverzeichnis
Klicke auf einen Abschnitt, um direkt dorthin zu springen.
Check
Der Check prüft robots.txt, Meta-Robots und X-Robots-Header für
Sperren wie noindex oder disallow.
| Prüfpunkt | Bedeutung | Bewertung |
|---|---|---|
| Kein Blocker gefunden | URL ist indexierbar | OK |
| nofollow oder nosnippet | Eingeschränkte Signale | Warnung |
| disallow oder noindex | Indexierung verhindert | Kritisch |
Kontext & Problemraum
Blockierte Seiten entstehen häufig durch Standard-Templates, Staging-Defaults oder alte SEO-Einstellungen.
| Situation | Symptom | Risiko |
|---|---|---|
| Template übernommen | noindex bleibt aktiv | Seite erscheint nicht in Suchergebnissen |
| Robots-Regel zu breit | Disallow blockiert Pfade | Wichtige URLs verschwinden |
| Header-Sperre | X-Robots-Tag auf CDN | Indexierung trotz sauberer HTML blockiert |
Entscheidungslogik
| Wenn | Dann | Empfehlung |
|---|---|---|
| Seite soll ranken | Keine Sperren zulässig | noindex/disallow entfernen |
| Seite ist intern | Indexierung unerwünscht | noindex bewusst setzen |
| Unsichere Regeln | Unklarer Status | Regeln dokumentieren |
Erklärende Details
Sperren können aus unterschiedlichen Quellen stammen. Wichtig ist die Reihenfolge: robots.txt blockiert den Crawl, Meta-Robots blockiert die Indexierung.
<meta name="robots" content="noindex,follow">
X-Robots-Tag: noindex
| Quelle | Wirkung | Hinweis |
|---|---|---|
| robots.txt | Crawl wird verhindert | Google kann Inhalt nicht prüfen |
| Meta-Robots | Indexierung wird verhindert | Seite bleibt erreichbar |
| X-Robots-Tag | Header-Sperre | Gilt auch für PDFs |
Risiken, Grenzen & Einschränkungen
| Grenze | Woran erkennbar | Was tun |
|---|---|---|
| Mehrfach-Sperren | Robots + Meta blockieren | Alle Quellen prüfen |
| Temporäre Sperre | noindex bleibt nach Launch | Release-Checkliste nutzen |
| Tool-Cache | Altwerte angezeigt | Neu crawlen lassen |
Meta-Robots korrekt
Prüft die konkrete Robot-Directive.
robots.txt vorhanden
Stellt sicher, dass die robots.txt erreichbar ist.
Widersprüchliche Signale
Vermeidet Konflikte zwischen Regeln.