robots.txt - Beispiele

Der korrekte Syntax für die robots.txt Datei. Beispiele und Erklärungen.

Lesen Sie auch unsere kurze Erklärung der robots.txt Datei.

Eine Website komplett freischalten

User-agent: *
Disallow:

User-agent: \* bezeichnet alle Robots.

Disallow: ohne weitere Parameter gibt die gesamte Website frei.

Eine Website für alle Robots sperren

User-agent: *
Disallow: /

Mit dem / wird die gesamte Website gesperrt.

Eine Homepage und Bereiche nur für einige Robots sperren

User-agent: webzip
User-agent: webcopy
Disallow: /html/
User-agent: googlebot
Disallow: /images/
User-agent: *
Disallow: /
  • Wird der Name eines Robots explizit genannt (z.B. googlebot), dann ignoriert dieser Robot alle anderen Anweisungen.
  • webzip und webcopy könnten lediglich keine Dateien aus dem /html Verzeichnis herunterladen. Alles andere wäre offen.
  • Für googlebot wäre nur das /images Verzeichnis gesperrt.
  • Alle anderen (*) hätten keinen Zugriff auf diese Homepage.

Der / macht den Unterschied

Wichtig: Bitte beachten Sie, dass der / in den Anweisungen nicht nur zwischen alles verboten und alles erlaubt unterscheidet.

Lassen Sie den / nach einem Verzeichnisnamen weg, wird das wie folgt interpretiert:

User-agent: *
Disallow: /login

Hier ist der Zugriff auf alle Dateien und Verzeichnisse verboten, die mit ‘login’ beginnen. Also auf alle der folgenden Dateien:

http://www.meinedomain.de/login
http://www.meinedomain.de/login_intranet.php
http://www.meinedomain.de/login/willkommen.html

Sitemaps

Geben Sie die URL zu den Sitemaps auf Ihre Website auch in der robots.txt an:

Sitemap: http://www.meinedomain.de/sitemap.xml 
Teilen