Definition
Der Noindex-Tag ist eine Anweisung an Suchmaschinen, eine bestimmte Seite nicht in ihren Suchindex aufzunehmen. Damit wird verhindert, dass die Seite in den Suchergebnissen von Google, Bing und Co. erscheint.
Diese Maßnahme wird häufig für irrelevante, doppelte oder sensible Inhalte eingesetzt und ist ein wichtiger Bestandteil der technischen SEO.
1. Was macht Noindex?
Der Noindex-Befehl teilt dem Crawler einer Suchmaschine mit:
„Bitte indexiere diese Seite nicht.“
Das bedeutet:
-
Die Seite kann weiterhin aufgerufen werden
-
Sie wird nicht in den Suchergebnissen angezeigt
-
Interne Verlinkungen und Crawling können (abhängig von der Konfiguration) trotzdem stattfinden
Wichtig: Noindex löscht eine Seite nicht aus dem Index sofort – die Änderung wird erst wirksam, wenn der Crawler die Seite erneut besucht.
2. Implementierung von Noindex
Es gibt verschiedene Möglichkeiten, Noindex zu setzen:
a) HTML-Meta-Tag
Im <head>
-Bereich der Seite:
<meta name=“robots“ content=“noindex“>
b) HTTP-Header
Gerade bei PDFs oder nicht-HTML-Dokumenten nützlich:
X-Robots-Tag: noindex
c) CMS-Plugins
Viele Content-Management-Systeme (z. B. WordPress mit Yoast SEO oder Rank Math) bieten einfache Checkboxen zur Aktivierung von Noindex.
3. Noindex vs. Nofollow vs. Robots.txt
Oft wird Noindex mit anderen Methoden verwechselt:
Methode | Wirkung auf Indexierung | Wirkung auf Crawling |
---|---|---|
Noindex | Verhindert Indexierung | Crawling möglich |
Nofollow | Verhindert, dass Links weitergegeben werden | Seite kann indexiert werden |
Robots.txt | Blockiert Crawling | Seite kann indexiert werden, wenn anderweitig bekannt |
Merke:
-
noindex
ist explizit zum Ausschließen aus dem Index da. -
robots.txt
blockiert nur den Zugriff, nicht unbedingt die Indexierung (wenn z. B. externe Links vorhanden sind).
4. Wann sollte man Noindex einsetzen?
✅ Sinnvolle Anwendungsfälle:
-
Interne Suchergebnisseiten (Vermeidung von Thin Content)
-
Filter- und Sortier-URLs (Duplicate Content)
-
Staging- und Testumgebungen
-
Datenschutzseiten, AGB, Impressum (nicht für SEO relevant)
-
Login- oder Nutzerbereiche
-
Temporäre Landingpages, die nicht für die Öffentlichkeit bestimmt sind
❌ Nicht einsetzen bei:
-
Seiten, die organischen Traffic bringen sollen
-
Wichtigem Content, der intern stark verlinkt ist
-
URLs, die als Canonical-Ziel dienen
5. Auswirkungen auf SEO
-
Linkjuice:
Google hat bestätigt, dass Links von einer Noindex-Seite weiterhin Linkkraft weitergeben können, solange keinnofollow
gesetzt ist. -
Duplicate Content:
Noindex kann helfen, doppelte Inhalte zu entschärfen, indem problematische URLs aus dem Index genommen werden. -
Sichtbarkeit:
Seiten mit Noindex erscheinen nicht mehr in den SERPs – dies kann gewollt oder ein SEO-Fehler sein.
6. Kontrolle & Überprüfung
Überprüfungsmöglichkeiten:
-
Google Search Console → URL-Prüfung: Zeigt an, ob die Seite indexiert ist und ob Noindex vorliegt
-
Direkte Suchanfrage bei Google: site:deinedomain.de/unterseite (→ Falls die Seite nicht erscheint, ist sie entweder nicht indexiert oder noch nicht gecrawlt)
- Crawler-Tools wie Screaming Frog oder Ryte → Meta Robots-Spalte prüfen
7. Häufige Fehler bei Noindex
🚫 Wichtige Seiten versehentlich auf Noindex gesetzt
→ Führt zu plötzlichen Rankingverlusten
🚫 Noindex + Canonical widersprüchlich
→ Google folgt manchmal dem Canonical-Hinweis und ignoriert Noindex
🚫 Erwartung sofortiger Entfernung aus den SERPs
→ Crawler müssen die Seite erst erneut besuchen, bevor sie verschwindet
8. Best Practices
-
Vor Einsatz von Noindex immer prüfen, ob die Seite für SEO relevant ist
-
Bei E-Commerce-Websites Noindex gezielt für Filterseiten und Varianten nutzen
-
Monitoring einführen, um versehentliche Noindex-Anweisungen zu erkennen
-
Für dauerhaft unnötige Seiten ggf. zusätzlich in der Sitemap ausschließen
9. Beispiel: Kombination von Noindex und Follow
Häufig eingesetzt, um SEO-Kraft nicht zu verschwenden:
<meta name=“robots“ content=“noindex, follow“>
→ Seite wird nicht indexiert, Links werden aber weiterverfolgt und gewertet.
Fazit
Der Noindex-Tag ist ein präzises Werkzeug, um die Sichtbarkeit einzelner Seiten zu steuern. Richtig eingesetzt, schützt er vor Indexierungsproblemen, Duplicate Content und unnötiger SERP-Konkurrenz. Falsch angewendet, kann er jedoch wertvollen Traffic kosten – daher ist eine klare Strategie und regelmäßige Kontrolle Pflicht. Wichtig zu Wissen an dieser Stelle: Nicht alle Crawler halten sich an die Regeln des Meta-Tags und ziehen die Daten dennoch ab oder werten die Daten aus. Somit hilft manchmal auch einfach eine Sperre für manche Header von Bots in die Website oder über die WAF zu integrieren.

Noindex – Kontrolle über die Indexierung in Suchmaschinen