robots.txt vorhanden

Ohne robots.txt fehlt eine zentrale Steuerung für Bots.

Das Thema dieser Seite: Die robots.txt ist das erste Steuerungsinstrument für Crawler und muss erreichbar sowie technisch sauber sein.

Inhalt

Inhaltsverzeichnis

Klicke auf einen Abschnitt, um direkt dorthin zu springen.

  1. Check
  2. Kontext & Problemraum
  3. Entscheidungslogik
  4. Erklärende Details
  5. Risiken, Grenzen & Einschränkungen

Check

Der Check ruft /robots.txt ab, bewertet den Statuscode und prüft, ob eine verwertbare robots.txt ausgeliefert wird.

Prüfpunkt Bedeutung Bewertung
Status 200, Inhalt lesbar robots.txt erreichbar und nutzbar OK
Status 403/401 Robots blockiert oder geschützt Warnung
Status 404/5xx Datei fehlt oder Serverfehler Kritisch

Kontext & Problemraum

Fehlende robots.txt tritt häufig nach Relaunches, bei neuen Domains oder bei Staging-Umgebungen auf.

Situation Symptom Risiko
Neuer Launch robots.txt fehlt Kein zentraler Crawler-Hinweis
Staging kopiert robots blockiert produktiv Indexierung bleibt aus
CDN/Firewall 403 auf /robots.txt Robots nicht erreichbar

Entscheidungslogik

Wenn Dann Empfehlung
robots.txt vorhanden Grundsteuerung möglich Regeln regelmäßig prüfen
robots.txt fehlt Keine Steuerung Minimaldatei anlegen
robots.txt blockiert Kein Zugriff Firewall/ACL anpassen

Erklärende Details

Die Datei muss im Root liegen und als Text ausgeliefert werden. Auch leere Dateien werden von Crawlern gelesen, liefern aber keine Hinweise.

User-agent: *
Disallow:
Sitemap: https://example.com/sitemap.xml
Detail Warum relevant Hinweis
Pfad /robots.txt Nur Root wird gelesen Keine Unterordner-Variante
Content-Type Parser erwartet Text text/plain ausliefern
Sitemap-Zeile Schneller Sitemap-Fund Absolute URL verwenden

Risiken, Grenzen & Einschränkungen

Grenze Woran erkennbar Was tun
robots.txt erlaubt alles Keine Regeln enthalten Gezielte Regeln ergänzen
Legacy-Regeln Disallow für alte Pfade Regeln aktualisieren
Subdomains robots.txt gilt nicht dort Eigene Datei je Subdomain

Interne Links

Weiterführende Checks

Nächste Schritte für Crawling & Indexierung.

Zurück zur Übersicht

Sitemap erreichbar

Stellt sicher, dass die Sitemap gefunden werden kann.

Sitemap in robots.txt

Verknüpft die Sitemap direkt im robots.txt.

Seite nicht gesperrt

Prüft, ob wichtige URLs zugelassen sind.