Noindex: Schließe geschickt aus, was irrelevant ist

von Timo Schnalzger

 | 

30.09.2022

 | 

SEO Wiki

SEO Wiki Beitrag zu noindex

Es gibt Dinge und Stellen, die sind zwar in gewissen Situationen notwendig, dennoch möchte man sie anderen einfach nicht zeigen. Besonders nicht im Internet. Bei Websites kann das ganz genau so sein. Blöd nur, dass Google alles sieht und es auch noch als Suchergebnis allen zugänglich macht. Genau für solche Situationen gibt es den Tag noindex. Schauen wir uns mal an, wie er funktioniert und warum er kein Allheilmittel ist.

[et_social_follow icon_style="slide" icon_shape="circle" icons_location="top" col_number="auto" outer_color="dark"]

Warum soll eine Seite nicht indexiert werden?

Seiten sollen vor allem dann nicht indexiert werden, wenn sie für die Nutzer keinen Mehrwert haben. Das ist zum Beispiel bei HTML-Sitemaps der Fall oder bei passwortgeschützten Bereichen, auf die ein Außenstehender überhaupt keinen Zugriff haben kann, der Fall. In solchen Fällen verhindert der noindex-Tag als maschinenlesbare Anweisung an den Google-Bot, dass diese Seiten in den Suchergebnissen gelistet werden. Gleichzeitig werden die Inhalte der betroffenen URL dennoch gecrawlt.

noindex: Wunderwaffe gegen Duplicate Content?

Manchmal lässt es sich nicht vermeiden, dass Inhalte auf einer Seite mehrfach vorhanden sind. Das sollte jedoch nicht einfach so geschehen, denn unmarkierter Duplicate Content kann von Google als Rankingmanipulation gewertet werden und zu einer Abstrafung führen. Um dies zu verhindern, greifen manche Webmaster auf den noindex-Tag zurück. Bis auf eine werden alle Seiten mit gleichen oder sehr ähnlichen Inhalten werden entsprechend getaggt, wodurch sie für die Suchmaschine nicht mehr als relevant gelten und der Duplicate Content keine Rolle mehr spielt.

Der Relevanzverlust ist aber gleichzeitig ein Problem. Alle Unterseiten Deiner Domain tragen erst mal zum Ranking bei. Wenn sie jedoch mit noindex ausgeschlossen werden, geht auch ihre gesamte Power verloren. Das ist vor allem dann schlecht, wenn hochwertige Backlinks auf eine der Seiten verweisen.

Der Canonical Tag als bessere Alternative zu noindex

Darum ist es bei Duplicate Content fast immer die bessere Wahl, einen Canonical Tag zu verwenden. Dieser zeigt Google, dass es sich bei den Inhalten um Duplicate Content handelt, außerdem weist er den Robot darauf hin, welche der betreffenden Seiten indexiert werden soll. Der Vorteil liegt auf der Hand: Die Linkpower aller Seiten bleibt erhalten und wird gezielt auf die kanonische Seite geleitet. Dennoch ist der noindex-Tag in vielen Situationen nützlich. Du musst ihn nur richtig einsetzen.

// Du willst Dein Wissen vertiefen?

SEO Blog der SEo Agentur

Blog

Alles rund ums Online Marketing.

> zum Blog

SEO WIKI der SEO Agentur H&W

SEO WIKI

Unser Online Marketing Glossar.

> zur WIKI

H&W//SEO-Agentur Podcast

Podcast

Online Marketing Podcast

> zum Podcast

Mit welchen Tags kann noindex kombiniert werden?

Der noindex-Tag kann grundsätzlich zusammen mit anderen Tags verwendet werden, insbesondere wenn diese sich im Header des Quellcodes und nicht in der robots.txt-Datei befinden. Von gewissen Tag-Kombinationen solltest Du jedoch die Finger lassen. Wir zeigen Dir, was geht und was nicht.

noindex und nofollow

Die gemeinsame Verwendung der Meta-Tags noindex und nofollow verhindert sowohl die Indexierung als auch, dass der Robot den Links der jeweiligen Seite folgt. Was erst einmal sinnvoll klingen mag, führt in der Praxis leider öfter zu Problemen mit dem Crawling. Also tu dem Bot den Gefallen und verzichte auch auf die gemeinsame Verwendung dieser beiden Tags.

noindex und follow

Der letzte Sonderfall, den wir betrachten wollen, ist die Kombination aus den Attributen noindex und follow. Der Bot erhält dadurch den Befehl, eine Seite nicht zu indexieren, wohl aber ihren Links zu anderen Unterseiten zu folgen. Der Sinn dieser Anweisung ist jedoch umstritten, da Crawlern Links eigentlich immer folgen, solang das Crawl-Budget noch nicht aufgebraucht ist.

Der Tag noindex ist für Google eine Art Befehl. Die Suchmaschine wird sich als in jedem Fall an Deine Anweisungen halten und die betreffende Seite nicht indexieren. Das wirft die Frage auf, ob es umgekehrt möglich ist, die Indexierung einer einzelnen Seite zu erzwingen, indem Du den gegenteiligen Meta-Tag indexverwendest.

Jetzt mit Online Marketing durchstarten

Nutze Online Marketing um Deine Zielgruppen zu erreichen und mit Deinem Unternehmen zu wachsen.

SEO Rakete

Kann man die Indexierung einer Seite mit dem follow-Attribut erzwingen?

Die Antwort: Nein, es ist nicht möglich, eine die Aufnahme einer Seite in den Index mit dem index-Attribut zu erzwingen. Im Gegensatz zu noindex ist das Attribut index nur eine Empfehlung für die Suchmaschinen, kein absoluter Befehl. Wobei es sowieso fraglich wäre, was ein User von einer Seite hätte, deren Inhalte so schlecht sind, dass sogar ihre Indexierung erzwungen werden muss.

Was ist der Unterschied zwischen noindex und disallow?

Die Tags noindex und disallow scheinen auf den ersten Blick ähnlich, jedoch ist ihre Funktionsweise grundverschieden. Während der noindex-Tag die Aufnahme einer Seite in die Suchergebnisse verhindert, unterbindet er nicht das Crawlen der Seite durch Google selbst. Der Tag disallow verbietet hingegen das Crawling komplett. Das kann vor allem in zwei Situationen problematisch sein.

Einige Seiten sind nicht für Googles Augen bestimmt. Das sind unter anderem Seiten, die sensible Daten enthalten oder wo solche eingegeben werden. Login-Pages sind darum oft mit disallow getaggt. Ein anderer Grund hat mit dem Crawl-Budget zu tun. Der Google-Crawler hat schließlich viel zu tun und kann Deiner Website darum nur eine gewisse Menge an Unterseiten Deiner URL crawlen. Um dieses Budget nicht zu verschwenden, ist es sinnvoll, wenn Du sehr datenintensive Seiten (z. B. Bild-Datenbanken) vom Crawling ausschließt.

Niemals noindex und disallow kombinieren

Leider sieht man bei vielen Websites immer noch die Kombination aus noindex und disallow. Offenbar sind in solchen Fällen Webmaster am Werk, die zu glauben scheinen, mit der Verwendung beider Tags könnten sie sich doppelt absichern. Das ist aber nicht so! Der disallow– Befehl befindet sich in der robots.txt-Datei. Diese wird vom Crawler stets zuerst ausgelesen.

Findet er dort nun das disallow, so wird er den Rest der Seite nicht mehr untersuchen – auch nicht die Header des Quellcodes, in dem sich da noindex Attribut befindet. Mit anderen Worten: Die Suchmaschine weiß jetzt, dass es Deine Seite gibt und sie diese nicht crawlen darf – vom Indexierungsverbot hat sie aber nichts mehr erfahren. Darum kann die Seite dennoch in den SERPs auftauchen.

Lange Rede, kurzer Sinn: Verwende disallow und noindex niemals zusammen.

Hau Dir was auf die Ohren!

Lerne wie Du digitale Stratgien für Dich und Dein Unternehmen erfolgreich einsetzt. Hole Dir jede Menge Input für Deine Projekte im Online Marketing.

SEO Freelancer geht ab wie eine Bombe

So implementierst Du den noindex-Tag

Den noindex-Tag auf einer Deiner Seiten zu implementieren ist recht einfach. Jeder, der ein wenig von der Arbeit im Quellcode versteht, kriegt das hin. Du kannst den Tag entweder manuell im Header einfügen oder Du benutzt ein Plugin, mit dem das ebenfalls erledigt werden kann. Solche Plugins sind für fast alle CMS kostenlos verfügbar.

Denke bei der Implementierung an die Dinge, über die wir gesprochen haben: kein disallow in der robots.txt und keine Kombinationen aus noindex und nofollow. Dann kann eigentlich nichts mehr schiefgehen.

Zusammenfassung: noindex

Der Meta-Tag noindex verhindert, dass eine Unterseite Deiner Domain in den Suchmaschinenindex aufgenommen wird. Sie taucht dann nicht in den Ergebnissen auf, wenn ein Nutzer eine Suche durchführt. Gleichzeitig erlaubt der Tag aber, dass die Seite gecrawlt wird. Darum ist noindex besonders für Seiten sinnvoll, die zwar dem User wenig Mehrwert nieten, dem Bot aber bei der Orientierung helfen, also zum Beispiel bei Sitemaps. Zur Vermeidung von Duplicate Content ist hingegen der Canonical Tag besser geeignet.

[et_social_follow icon_style="slide" icon_shape="circle" icons_location="top" col_number="auto" outer_color="dark"]

Timo Schnalzger

SEO//Content Marketing

Timo war schon in der Schule begeistert von der Literatur. Auf der Suche nach einem Studiengang geriet er an die Germanistik. Dort entdeckte er seine Liebe zum detaillierten Arbeiten an und mit Texten. Erste Gehversuche mit kreativem Schreiben unternahm er in seiner Zeit als Mitglied der studentischen Fachschaft. Jetzt kombiniert er alle diese Interessen und Fähigkeiten bei H&W.