Sitemaps.xml und robots.txt

Seit einigen Jahren gibt es das Sitemaps Protokoll. Sitemaps sind einfache XML Dateien, die alle wichtigen Seiten einer Website auflisten und mit Änderungsdatum und Priorität versehen.

Warum sind Sitemaps so wichtig?

Nehmen wir an, eine Suchmaschine bzw. deren Spider (so nennt man das Programm, welches die einzelnen Seiten einliest),besucht eine Website, die aus einer Homepage mit 100 Unterseiten besteht. Sie verfolgt von der Homepage aus alle Links und nimmt so alle 101 Seiten in den Index auf.
Was passiert aber nun, wenn sich eine einzelne Unterseite ändert? Die Suchmaschine müsste regelmässig alle Seiten besuchen, um festzustellen, dass sich zu 99% nichts geändert hat nur um eine geänderte Seite zu finden. Bei populären Seiten geschieht dies auch. Kleinere Seiten werden natürlich wesentlich seltener besucht und erst recht deren Unterseiten.

Mit Sitemaps lösen Sie genau dieses Problem für die Suchmaschinen.

Sie teilen einer Suchmaschine in der Sitemap die 101 Seiten und deren letztes Änderungsdatum mit. So kann gezielt die eine geänderte Seite neu eingelesen werden.

Erstellen der Sitemaps

Wenn Sie ein Content Management System verwenden, dann wird dieses die Sitemaps in der Regel automatisch erstellen. Fragen Sie eventuell Ihren Hersteller danach. Wenn Sie Ihre Website selbst erstellt haben, dann können Sie einen Sitemap Generator verwenden um die Sitemaps erstellen zu lassen. Weitere Infos finden zum Aufbau der sitemap.xml Datei finden Sie unter www.sitemaps.org

Sitemaps und die robots.txt Datei

Nachdem die Sitemap erstellt wurde, sollten Sie allen Suchmaschinen dies in der robots.txt Datei mitteilen. Das Format dafür ist einfach. Fügen Sie einfach eine Zeile an Ihre Robots.txt an:

Sitemap: http://www.ihre-domain.xy/sitemap.xml

Teilen