Indexierung bei Google: Was das ist und wie lange es dauert

von Timo Schnalzger

 | 

14.10.2022

 | 

SEO Wiki

Teaserbild Indexierung

Früher war es schlecht, wenn Du ein Werk veröffentlicht hast und es auf dem Index gelandet ist (frag mal Galileo Galilei!). Aber heute ist vieles anders. Nicht mehr die Kirche prägt unser Weltbild, sondern Google – und dort ist es schlecht, wenn Deine Website keine Indexierung hat. Warum das so ist und was Du dann tun solltest, schauen wir uns gemeinsam an.

[et_social_follow icon_style="slide" icon_shape="circle" icons_location="top" col_number="auto" outer_color="dark"]

Was ist der Google Index?

Der Index bei Google ist im Prinzip dasselbe wie der Index einer Bibliothek. Er listet alle verfügbaren Inhalte auf, in Googles Fall also die Seiten. Das Besondere am Google Index ist die Art der Sortierung, denn die Suchmaschine ist stets bestrebt, die relevantesten Inhalte möglichst weit vorn zu indexieren (also zu ranken), sodass Nutzer bei einer Suchanfrage die bestmöglichen Ergebnisse angezeigt bekommen.

Ein weiterer Unterschied zu klassischen Indizes ist die hohe Dynamik, soll heißen: Ständig kommen neue Inhalte hinzu, alte fliegen raus oder verändern ihr Ranking.

Grafik zur Indexierung und Crawling

Wie funktioniert die Indexierung bei Google?

Die Erfassung neuer Seiten geschieht bei Suchmaschinen natürlich vollautomatisch mithilfe eines Crawlers. Dabei handelt es sich um einen Bot, der von Seite zu Seite „wandert“ und die Inhalte erfasst, indem er den Quellcode ausliest und an den Google-Index überträgt. Erst dann erfolgt die Bewertung des Textes anhand der Rankingfaktoren (von denen Google mehr als 200 kennt).

Verarbeitung von indexierten suchanfragen

Stellt sich die Frage: Woher weiß Google, wenn es eine neue Seite gibt? Das funktioniert auch im Zeitalter der KI noch relativ einfach. Grundsätzlich kannst Du Dir den Google-Bot wie einen Flaneur vorstellen, der Straßen entlangwandert und mal guckt, wo ihn die nächste Abzweigung hinbringt und sich das ansieht, an dem er zufällig vorbeikommt. Die Straßen des Bots sind die Links auf einer Seite.

Der Google-Bot crawlt also eine Seite und folgt ihren Verlinkungen. Dabei kommt er immer wieder auch auf schon indexierten Seiten vorbei und erkennt neue Inhalte und Verlinkungen. Bei einem so unsystematischen Vorgehen dauert es natürlich ganz schön lange, bis eine neue Seite indexiert wird, weshalb man das Crawlen besser aktiv beantragen sollte. Oder?

// Du willst Dein Wissen vertiefen?

SEO Blog der SEo Agentur

Blog

Alles rund ums Online Marketing.

> zum Blog

SEO WIKI der SEO Agentur H&W

SEO WIKI

Unser Online Marketing Glossar.

> zur WIKI

H&W//SEO-Agentur Podcast

Podcast

Online Marketing Podcast

> zum Podcast

Warum Du eine Indexierung heute nicht mehr anfordern musst

Früher konnte es tatsächlich Wochen dauern, bis eine Seite gecrawlt wurde, wenn man einfach darauf gewartet hat, bis der Bot auf seinem Weg „zufällig“ vorbeikam. Heute ist das aber nicht mehr der Fall. Zwar funktioniert das Crawling prinzipiell immer noch wie früher auf die beschriebene Art, doch aufgrund erheblich gesteigerter Performance ist der Google-Bot heute in der Lage, relevante Seiten viel schneller zu crawlen, weshalb neue Seiten fast unverzüglich erfasst werden.

Wie lange dauert die Indexierung einer neuen Site?

Der Google Bot ist heute also ziemlich schnell. Dennoch kann es eine Weile dauern, bis eine neue Seite in den Suchergebnissen für die Nutzer sichtbar ist. Das liegt aber in der Regel nicht am Crawling, sondern an der eigentlichen Indexierung. Bis die Suchmaschine Deine Inhalte erfasst und ihnen ein Ranking in den SERPs zugeteilt hat, können auch heute noch mehrere Wochen vergehen.
Tricks, um diesen Vorgang zu beschleunigen, gibt es nicht. Und was ist, wenn ich die Prüfung einer einzelnen Seite mehrfach über die Search Console beantrage? Zur Arbeit mit der Search Console kommen wir noch, darum jetzt nur so viel: Dieser Trick, der tatsächlich von einigen Webmastern noch immer propagiert wird, ist genauso sinnvoll wie seine Steuererklärung mehrmals einzureichen, damit das Finanzamt schneller arbeitet.

Kurz gesagt: Der Google-Crawler ist heute kein Spaziergänger mehr, sondern ein Sprinter. Sein unsystematisches Vorgehen ist darum kein Grund mehr für Verzögerungen, wenn es Verzögerungen gibt, liegt es an der Indexierung. Dennoch kannst Du ihm bei seiner Arbeit helfen – was letztlich wiederum Dir zugutekommt.

Status der Indexierung in der Search Console
Indexierung in der Search Console

So beeinflusst Du die Indexierung einer Seite

Auch wenn eine manuelle Anforderung zur Indexierung einer neuen Seite heute nicht mehr notwendig ist, ist es doch sinnvoll, wenn Du einige Kniffe kennst, mit denen Du die Arbeit des Google-Crawlers beeinflussen kannst. Wir zeigen Dir, welche das sind.

Grundvoraussetzung: Eine gute Sitemap

Sagten wir vorher, der Crawler spaziert nur durchs Web? Das stimmt so nicht ganz. Er zieht durchaus eine Karte zurate – Deine Sitemap. Damit Deine Domain umfassend und strukturiert gecrawlt werden kann, ist es wichtig, dass Du Google ihre Struktur in einer logisch aufgebauten Sitemap vermittelst.

Sollte das Impressum indexiert sein?

Das Impressum Deiner Website wird fast nie jemand suchen. In den wenigen Fällen, in denen das doch der Fall ist, ist es auch über einen Link im Footer leicht zu finden. Dennoch solltest Du das Impressum unbedingt in Deine Sitemap aufnehmen und es auch indexieren lassen. Das gehört zu einem seriösen Webauftritt einfach dazu. Bedenke, dass der Google Algorithmus solche Inhalte verstehen kann und auch über sie die Vertrauenswürdigkeit einer Website bewertet.

Indexierung Wiki Beitrag

Orphan Pages vermeiden: keine Seiten ohne interne Links

Eine Orphan Page ist eine verwaiste Seite. Das bedeutet, dass es auf Deiner Domain keine internen Links gibt, die auf die betreffende Seite verweisen. Somit kann der Google Crawler sie auch nicht finden. Natürlich ist es bei großen Websites unmöglich, einen Überblick über die interne Linkstruktur zu behalten. Zum Glück gibt es entsprechende Tools, um Orphan Pages aufzuspüren.

Sag dem Crawler, worum es auf der Seite geht

Mit einem aussagekräftigen Metatitle und einer ebenso klaren Meta-Description erleichterst Du es dem Crawler zu verstehen, was der Inhalt Deiner Website ist. Generell gilt: Das Keyword, auf das die Seite optimiert ist, sollte immer am Beginn des Titels stehen und an gleicher Stelle in der Description noch mal wiederholt werden.  Weiter Hinweise zur optimalen Gestaltung von beidem findest Du in unseren zugehörigen Wikiartikeln.

Meta Tags helfen bei der Indexierung

Mit Metatags lässt sich die Arbeit des Crawlers beeinflussen. Wir eine Seite mit „noindex“ getaggt, versteht der Bot, dass diese Seite nicht zu indexieren ist. Das kann unter anderem sinnvoll sein, wenn eine Site umgebaut wird, urheberrechtliche Gründe vorliegen oder die Seite nicht für die Öffentlichkeit bestimmt ist, etwa weil sie der Admin-Login für Deine Domain ist.

Mit dem Meta Tag „robots.txt“ verhinderst Du nicht nur, dass Deine Seite indexiert wird, sondern sogar das Crawling als solches. Das Hauptproblem mit „robots.txt“ und „noindex“ ist unserer Erfahrung nach, dass sie häufig in den Quellcode implementiert und dann vergessen werden. Das wird zum Problem, wenn eine Seite nur zeitweise nicht ranken soll, weil sie zum Beispiel umgebaut wird und man nach Abschluss der Arbeiten vergisst, dass der Tag wieder entfernt werden muss.

Hau Dir was auf die Ohren!

Lerne wie Du digitale Stratgien für Dich und Dein Unternehmen erfolgreich einsetzt. Hole Dir jede Menge Input für Deine Projekte im Online Marketing.

SEO Freelancer geht ab wie eine Bombe

So findest Du heraus, ob eine Seite nicht indexiert wird

Um mit den genannten Maßnahmen Abhilfe bei einer Nicht-Indexierung schaffen zu können, musst Du erst einmal herausfinden, ob die betreffende Seite überhaupt indexiert wird. Dazu hast Du zwei Möglichkeiten, die wir uns noch kurz genauer anschauen wollen.

Suche unter „site:“

Wenn Du Dir nicht sicher bist, ob eine Seite indexiert ist, kannst Du das mittels einer einfachen Suchanfrage herausfinden. Um nur nach einer einzelnen Seite (und nicht nach den in der URL enthaltenen Schlagwörtern) zu suchen, stellst Du einfach den Parameter „site:“ ohne Leerzeichen vor die entsprechende URL, die als Such Begriff dient. Wie das konkret aussieht, siehst Du auf dem folgenden Bild. In unserem Beispiel passt alles und die Seite zur Absprungrate ist online.

Überprüfung über die Google Search Console

Es ist nur allzu offensichtlich, dass der Weg über die Suchergebnisse nur für das Prüfen von Einzelfällen taugt. Der einfachste Weg zu einer Liste aller nicht in den Index aufgenommenen Seiten führt über die Google Search Console (früher Google Webmaster Tools). Dort findest Du im Bereich „Abdeckung“ eine Auflistung aller gültigen (also indexierten) sowie aller ausgeschlossenen Seiten. Unter „Fehler“ und „Gültige Seite(n) mit Warnungen“ zeigt Dir die Suchmaschine außerdem alle URL, die Deiner Aufmerksamkeit bedürfen, weil es Probleme gibt.

Indexierung in den SERPs prüfen

Gretchenfrage: Ist das auch für andere Suchmaschinen relevant?

Ja, alles, was wir gerade besprochen haben, gilt auch für andere Suchmaschinen. Diese bieten Webmastern eigene Benutzeroberflächen, mit denen sich die genannten Informationen ebenfalls abrufen lassen. Ungefähr 20 % aller Suchanfragen stellen Nutzer zurzeit über Bing. Das ist ein nicht zu vernachlässigender Marktanteil, auch wenn er, je nachdem in welcher Brache Du aktiv bist, natürlich etwas schwankt. Ob auch noch weitere Suchmaschinen die Mühe wert sind, kannst Du nur beurteilen, wenn Du das Suchverhalten Deiner Zielgruppen kennst.

Zusammenfassung: Indexierung

Als Indexierung bezeichnet man die Aufnahme einer Seite in das Verzeichnis aller von Google oder einer anderen Suchmaschine erfassten (gecrawlten) Seiten. Seiten, die nicht indexiert sind, können von Nutzern über die Suche nicht gefunden werden. Daher ist es für Webmaster essentiell, einen Überblick über den jeweiligen Status aller Unterseiten einer Domain zu haben. Diesen liefert die Google Search Console.

[et_social_follow icon_style="slide" icon_shape="circle" icons_location="top" col_number="auto" outer_color="dark"]

Timo Schnalzger

SEO//Content Marketing

Timo war schon in der Schule begeistert von der Literatur. Auf der Suche nach einem Studiengang geriet er an die Germanistik. Dort entdeckte er seine Liebe zum detaillierten Arbeiten an und mit Texten. Erste Gehversuche mit kreativem Schreiben unternahm er in seiner Zeit als Mitglied der studentischen Fachschaft. Jetzt kombiniert er alle diese Interessen und Fähigkeiten bei H&W.