Was bedeutet Indexierung?

Themen:

Wir erklären Euch, was eine Indexierung in Suchmaschinen ist und worauf Ihr dabei achten solltet  

Bei der Indexierung handelt es sich um das Aufnehmen von Webseiten in ein geordnetes Register bzw. Verzeichnis, dem Index. D.h. nur die Webseiten, die von Google indexiert wurden, können über die Suchmaschine durch Nutzer:innen auch gefunden werden. Das Thema der Indexierung ist für Suchmaschinen demnach ein elementarer Bestandteil für Euch.

Der Index von Suchmaschinen ist deutlich komplexer als herkömmliche Verzeichnisse. Wir haben es mit keiner einfachen alphabetischen oder chronologischen Übersicht zu tun, sondern mit einer Vielzahl von unterschiedlichen Kriterien. Google versucht grundsätzlich alles zu indexieren, was sich auffinden lässt. Dies geschieht mit Hilfe sogenannter Crawler. Hierbei gibt es nur zwei Einschränkungen:

  • Websiten-Betreiber:innen möchten nicht, dass die eigene Website indexiert wird
  • Die Website entspricht nicht den Google Richtlinien

Unser Gastautor Alex Wolf zeigt, warum eine Indexierung so wichtig für Euch ist und in welchen Schritten ihr herausfindet, ob Eure Website indexiert ist.

Warum eine Indexierung wichtig ist

Eine Suchmaschine lebt von zwei Eigenschaften:

  • einem umfangreichen Index an Websites
  • einem klugen Algorithmus, um die besten Ergebnisse aus dem Index zu einer Suchanfrage zu liefern

Zweites klappt nur erfolgreich, wenn auch passende und aktuelle Seiten im Index zu finden sind. Gerade bei Nachrichten spielt die Aktualität eine besonders große Rolle. Nur wenn Suchmaschinen genug Futter haben, anhand dessen der Algorithmus lernen kann, können gute Suchergebnisse ausgegeben werden.

Wie Ihr herausfindet, ob Eure Website indexiert ist

Google bietet Euch zwei schnelle und simple Wege an, um herauszufinden, ob Websites indexiert sind oder nicht. Eine site:-Abfrage und die Überprüfung über die Google Search Console.

Im nächsten Schritt erklären wir Euch genauer, wie Ihr mit diesen beiden Wegen arbeitet.

1. Weg: Überprüfung mit einer site:-Abfrage

Die site:-Abfrage funktioniert wie eine normale Suche über die Google Suchmaschine. Die Suche wird lediglich um einen Parameter ergänzt und dadurch stark eingeschränkt, um genau das Ergebnis zu bekommen, nach dem man sucht.

Um zu überprüfen, ob die Website meineurl.de/produkte/super-geheimes-geheimprodukt indexiert ist, könnt Ihr natürlich nach „meineurl super geheimes geheimprodukt“ suchen. Der Nachteil dieser Suchanfrage ist, dass keine Eingrenzung vorgenommen wurde. Es werden Euch alle Ergebnisse ausgegeben, die zu dieser Suchanfragen passen. Mit dem vorangestellten Parameter „site:“ wird tatsächlich nur nach der darauffolgenden Webseite gesucht.

Indexierung-1

Mit der Abfrage nach „site:“ gefolgt von der URL sucht Ihr ausschließlich nach der URL im Index.

Die site:-Abfrage lässt sich noch um weitere Suchkriterien ergänzen.

  • site:meineurl.de Schuhe: Liefert alle Unterseiten, die den Begriff „Schuhe“ beinhalten.
  • site:meineurl.de intitle: Schuhe: Lieferte alle Unterseiten, die „Schuhe“ im Titel stehen haben.
  • site:meineurl.de filetype:docx: Liefert alle .docx Dateien einer Website aus dem Index. Das funktioniert natürlich auch mit anderen Dateitypen.
  • site:meineurl.de inurl:hose: Liefert alle Ergebnisse unserer Webseite mit „hose“ in der URL.

Die Google Search Console liefert einen kompletten Status über den Stand der Indexierung. Die Überprüfung mit der Google Search Console setzt jedoch voraus, dass Eure eigene Website dort hinterlegt und verifiziert ist.

Indexierung-2

Durch die Eingabe der URL in das Suchfeld innerhalb der Google Search Console könnt Ihr den aktuellen Stand der Indexierung abfragen.

Um den Indexierungsstand der gesamten Website zu prüfen, gibt es den Bereich „Abdeckung“.

Im Bereich „Abdeckung“ der Google Search Console sehen wir die indexierten Seiten sowie die Seiten, die wir von der Indexierung ausschließen. Die indexierten Seiten teilen sich in zwei Status in der Google Search Console:

  • Gültige Seite(n) mit Warnungen: Die erscheinen zwar im Index der Suchmaschinen, es gibt jedoch Unstimmigkeiten für die Suchmaschine. Unstimmigkeiten können beispielweise dadurch entstehen, dass die indexierte Seite nicht in der Sitemap auftaucht oder wenn ein Crawlen der Seite mittels robots.txt unterbunden wurde.
  • Gültig: Unter Gültige Seiten fallen alle regulären Seiten, die ohne Fehler oder Unstimmigkeiten indexiert werden konnten.

Indexierung-3

Wie können Websites von Suchmaschinen indexiert werden?

Seiten können auf zwei Arten indexiert werden – über einen passiven oder einen aktiven Weg. Beide Ansätze werden offiziell von Google unterstützt, jedoch gibt es natürlich keine Garantie für die Indexierung.

Der passive Ansatz

Für den passiven Ansatz müsst Ihr als als Website-Betreiber:in keine eigenen Maßnahmen ergreifen. Google versucht die Website zu finden und zu indexieren. Voraussetzung hierfür ist, dass die Website nicht für Crawler blockiert wird und im besten Fall eingehende Verlinkungen von intern oder extern hat. Ob die Website lesbar für Crawler ist sowie den Status der Indexierung, könnt Ihr auch mit dem SEO-Tool Ryte auslesen.

Bei Ryte erhaltet Ihr eine komplette Übersicht über die Crawlability sowie den Indexierungsstand der gesamten Website.

Indexierung-4

Der passive Ansatz kann zu Problemen führen, wenn nur wenig oder keine eingehenden Verlinkungen zur Website vorhanden sind. Zudem kann es sein, dass Inhalte deutlich zeitverzögert indexiert werden.

Der aktive Ansatz

Beim aktiven Ansatz wird der Suchmaschine eine Liste mit URLs, eine sogenannte Sitemap, zur Verfügung gestellt. In der Regel wird die Sitemap an einem Ort auf der Domain gehostet, auf den Suchmaschinen zugreifen können. Zusätzlich lässt sich der Speicherort der Sitemap in der robots.txt Datei angeben.

Indexierung-5

Mit Hilfe der Sitemap können Suchmaschinen Änderungen an der Website schneller erkennen, da die Sitemap zusätzlich einen Zeitstempel mit dem Datum und der Uhrzeit der letzten Änderung hat.

Zusätzlich kann die Sitemap auch über die Google Search Console eingereicht werden. Hierzu wird im linken Menü der Punkt „Sitemaps“ ausgewählt und dort der Pfad zur Sitemap angegeben. Selbstverständlich könnt Ihr auch mehrere Sitemaps, für bspw. unterschiedliche Sprachen, einreichen.

Indexierung-6

Ebenfalls könnt Ihr neue, einzelne Websites über die Google Search Console einreichen.

Indexierung-7

Die einzureichende URL könnt Ihr in das obere Suchfeld eingegeben. Google prüft zunächst den Indexierungsstatus und bietet anschließend die Möglichkeit, die Indexierung zu beantragen.

Indexierung-8

Die Chancen einer zeitnahen Indexierung ist beim aktiven Ansatz höher als bei einem passiven.

Wie lange dauert eine Indexierung?

Um es mit den Worten von John Müller (Webmaster Trends Analyst bei Google) zu sagen: „It depends.“. Die Zeit, bis eine Website indexiert wird, hängt davon ab, wie häufig die Website gecrawlt wird, wie häufig es auf der Website Änderungen gibt und wie die Lesbarkeit für Suchmaschinen ist.

Im ersten Schritt wird die Website lediglich gecrawlt. Das kann binnen weniger Tage passieren. Anschließend werden die gecrawlten Inhalte indexiert. Bei diesem Vorgang können tatsächlich sogar einige Wochen ins Land gehen.

Lässt sich die Indexierung beschleunigen?

Long story short: Die Indexierung lässt sich nicht beschleunigen. Zwar gibt es die Möglichkeit, in der Sitemap den einzelnen URLs eine Priorität zu geben, diese wird jedoch seitens Google nicht mehr verarbeitet. Auch das mehrfache Einreichen über die Google Search Console beschleunigt den Prozess der Indexierung nicht. Es hilft tatsächlich nur Geduld.

Wie kann ich Webseiten deindexieren?

Es gibt mehrere Methoden, bereits indexierte Websites deindexieren zu lassen. Zum einen lässt sich dies über die robots Meta Angaben auf der Website realisieren. Durch die Angabe <meta name=“robots“ content=“noindex“> wird die Website entweder erst gar nicht in den Index aufgenommen oder beim erneuten Crawlen deindexiert.

Sollte eine Webseite nicht mehr verfügbar sein und diese dadurch entweder eine 404 Meldung ausgeben oder via 301 / 302 weiterleiten, wird die entsprechende Website nach einer Weile automatisch deindexiert.

Wichtig: Die Aufnahme einer Website in die robot.txt führt nicht dazu, dass die Webseite aus dem Index verschwindet oder gar nicht erst indexiert wird. Das hat lediglich zur Folge, dass die Website nicht gecrawlt wird. Durch eingehende Verlinkungen kann die Webseite dennoch indexiert werden. Ein Ausschluss des Crawlers bedeutet nicht, dass eine Website nicht indexiert wird.

Troubleshooting: Meine Webseite erscheint nicht im Index

Wenn Ihr Eure eigene Website nicht über die Suchmaschine finden könnt, kann das unterschiedliche Gründe haben. Um schnell auszuschließen, dass das Problem an der Website selbst liegt, haben wir eine Checkliste für euch parat:

Ist die Website über die URL von außen erreichbar?

Prüfe mit verschiedenen Endgeräten, ob die Webseite auch außerhalb deines eigenen Netzwerks erreichbar ist. Gibt die Website vielleicht einen 404 Statuscode zurück?

Ist eine Weiterleitung aktiv?

Prüfe, ob es eine aktive 301 oder 302 Weiterleitung gibt und entferne diese.

Prüfe die Meta-Robots-Angaben deiner Website

Sollte die Anweisung „noindex“ oder „none“ in den Meta-Robots-Tags auftauchen, wird die Indexierung unterbunden.

Zeigt ein kanonisches Tag auf eine andere Webseite?

Ein kanonisches Tag, auch Canonical Tag, zeigt in der Regel auf den ursprünglichen Inhalt einer Website. Die Anweisung hilft Suchmaschinen mit Duplicate Content umzugehen.

Wird das Crawlen durch die robots.txt unterbunden?

Wenn die Webseite oder das Verzeichnis nicht gecrawlt werden darf, wird die Indexierung deutlich erschwert und kann sich dadurch verzögern oder auch gar nicht stattfinden.

Tools, wie bspw. Screaming Frog SEO Spider, liefern Euch u. a. einen schnellen Überblick über die hinterlegten Weiterleitungen und Meta-Angaben sowie die Erreichbarkeit der Website.

Jetzt diese Artikel lesen