Information!

Indexierung richtig steuern: Wichtige SEO-Entscheidungen für Ihre Webseite

25. Februar 2025

Veröffentlicht in:

Online Marketing

Nicht jede Seite gehört in den Google-Index – und nicht jede, die es sollte, landet dort automatisch. Die richtige Steuerung der Indexierung entscheidet darüber, welche Inhalte in der Suche sichtbar sind und welche nicht.

Falsche Einstellungen können dazu führen, dass wichtige Seiten nicht gefunden werden oder Google unnötige Ressourcen auf irrelevante Inhalte verschwendet. Deshalb ist es essenziell, genau zu wissen, wann index, noindex, follow oder nofollow sinnvoll sind.

Indexierung als Teil der Suchmaschinenverarbeitung

Google verarbeitet Inhalte in drei Schritten:

  1. Crawling: Googlebot durchsucht das Web und ruft Seiten auf.
  2. Indexierung: Google entscheidet, ob eine Seite in den Suchindex aufgenommen wird.
  3. Ranking: Google bewertet indexierte Seiten und ordnet sie in den Suchergebnissen ein.

Eine Seite kann gecrawlt, aber nicht indexiert werden – und eine indexierte Seite kann unsichtbar bleiben, wenn sie nicht gut genug rankt. Deshalb kommt es auf eine gezielte Indexierungssteuerung an.

Wie steuert man die Indexierung gezielt?

SEO-Experten setzen verschiedene Techniken ein, um Google klare Signale zu geben:

  • Meta-Robots-Tags (index, noindex, follow, nofollow)
  • X-Robots-Tag im HTTP-Header (für nicht-HTML-Dateien wie PDFs)
  • robots.txt (reguliert das Crawling, aber nicht direkt die Indexierung)
  • Canonical-Tags (Vermeidung von Duplicate Content)
  • Google Search Console (manuelle Steuerung der Indexierung)

Die richtige Konfiguration ist entscheidend, um sinnlose Indexierungen zu vermeiden und sicherzustellen, dass relevante Inhalte in den Suchergebnissen erscheinen.

Fehlkonfigurationen und ihre Folgen

  • noindex auf wichtigen Seiten → Traffic-Einbruch
  • index auf irrelevanten Seiten → Duplicate-Content-Probleme, Crawl-Budget-Verschwendung
  • nofollow auf internen Links → Linkjuice-Verlust, schlechtere Rankings

In den nächsten Abschnitten sehen wir uns an, wann welche Einstellung sinnvoll ist und wie typische Fehler vermieden werden können.

Index, Noindex, Follow, Nofollow – Wann nutzt man welche Einstellung?

Die richtige Indexierungsstrategie entscheidet darüber, ob eine Seite von Google gefunden, bewertet und gerankt wird. Doch nicht jede Seite sollte indexiert und nicht jeder Link sollte von Google verfolgt werden.

1. Index vs. Noindex – Wann sollte eine Seite im Index sein?

  • index: Die Seite wird von Google indexiert und kann in den Suchergebnissen erscheinen.
  • noindex: Google nimmt die Seite nicht in den Index auf – sie kann nicht über die Suche gefunden werden.

Wann sollte eine Seite indexiert werden?

  • Wichtige Inhalte mit Suchpotenzial:

    • Produktseiten, Blogartikel, Kategorieseiten mit Mehrwert
    • Hochwertige Landingpages, die Traffic generieren sollen
  • Seiten mit einzigartigem Content und SEO-Relevanz:

    • Inhalte, die auf Suchanfragen optimiert sind
    • Themen, die keine starke interne oder externe Konkurrenz auf der eigenen Website haben

Wann sollte eine Seite auf noindex gesetzt werden?

  • Doppelte oder automatisch generierte Inhalte:

    • Paginierte Seiten (wenn keine kanonische Lösung vorhanden ist)
    • Druckversionen, PDF-Duplikate
  • Irrelevante oder technische Seiten:

    • Interne Suchergebnisseiten, Filter-URLs
    • AGB, Datenschutzerklärungen, Admin-Panels

Beispiel für ein Noindex-Tag:

<meta name="robots" content="noindex">

Erweiterte SEO-Strategien: Wann kombiniert man Noindex, Nofollow, Index und Follow?

Nicht jede Seite benötigt eine einfache index, follow-Einstellung. In bestimmten Fällen ist eine gezielte Kombination von noindex, nofollow, index und follow erforderlich, um die Indexierung zu steuern, Duplicate Content zu vermeiden und das interne Linkbuilding effizient zu gestalten.

Kombinationen und ihre Auswirkungen

Einstellung Was passiert? Wann nutzen? Mögliche Risiken
noindex, follow Die Seite wird nicht indexiert, aber Google folgt den Links auf ihr. Tag-Seiten, interne Suchergebnisseiten, Archivseiten, die Linkjuice weitergeben sollen. Kann dazu führen, dass Google diesen Links weniger Beachtung schenkt, da die Seite selbst nicht indexiert wird.
noindex, nofollow Die Seite wird nicht indexiert, und Google folgt den Links nicht. Login-Seiten, private Dashboards, Testumgebungen oder andere nicht öffentliche Inhalte. Google kann die Seite irgendwann komplett aus dem Crawling entfernen, wenn keine internen Links darauf verweisen.
index, nofollow Die Seite wird indexiert, aber alle ausgehenden Links werden ignoriert. Seiten mit nutzergenerierten Inhalten, um unkontrollierte externe Links zu blockieren. Schwächt die interne Verlinkung und kann die Verteilung von Linkjuice behindern.
robots.txt vs. Meta-Tags Robots.txt blockiert das Crawling, während noindex die Indexierung verhindert. Vermeidung der Indexierung technischer Seiten oder von Ressourcen wie Bilder oder PDFs. robots.txt verhindert, dass Google die Seite crawlt – wenn die URL bereits bekannt ist, kann sie trotzdem indexiert werden.

Best Practices für die richtige Kombination

  • noindex, follow ist sinnvoll für Seiten, die Linkjuice weitergeben, aber nicht in den Suchergebnissen erscheinen sollen.
  • noindex, nofollow sollte nur bei sicherheitskritischen oder irrelevanten Seiten verwendet werden, die weder gecrawlt noch indexiert werden sollen.
  • index, nofollow ist selten sinnvoll und sollte nur in speziellen Fällen eingesetzt werden.
  • Wichtige Seiten sollten nicht über robots.txt blockiert werden, sondern über noindex, damit Google die Deindexierung versteht.

Im nächsten Abschnitt sehen wir uns Praxisbeispiele für verschiedene Website-Typen an und welche Indexierungsstrategie dort am besten funktioniert.

Praxisbeispiele: Optimale Indexierung für verschiedene Website-Typen

Je nach Website-Typ gibt es unterschiedliche Anforderungen an die Indexierung. Während bei E-Commerce-Seiten oft Kategorieseiten und Produktseiten optimiert werden müssen, geht es bei Blogs um den Umgang mit Tag-Seiten und Archiven. Hier sind bewährte Strategien für verschiedene Szenarien.

1. E-Commerce-Websites (Online-Shops)

Seitentyp Empfohlene Einstellung Begründung
Produktseiten index, follow Generieren organischen Traffic und sollten in den Suchergebnissen erscheinen.
Kategorieseiten index, follow Wichtige SEO-Seiten, die oft über generische Suchbegriffe gefunden werden.
Filter- und Suchseiten noindex, follow Vermeidung von Duplicate Content, aber Linkjuice-Weitergabe an relevante Seiten.
Checkout- und Warenkorbseiten noindex, nofollow Nicht für Suchmaschinen bestimmt, keine SEO-Relevanz.
Druckversionen von Seiten noindex, follow Sollten nicht in den Index gelangen, aber weiterhin interne Verlinkungen unterstützen.

2. Content-Websites & Blogs

Seitentyp Empfohlene Einstellung Begründung
Blogartikel index, follow Hauptquelle für organischen Traffic, sollte vollständig indexiert werden.
Kategorieseiten index, follow oder noindex, follow Je nach Strategie – wenn optimiert, kann eine Kategorieseite indexiert werden. Andernfalls besser noindex, um Duplicate Content zu vermeiden.
Tag-Seiten noindex, follow Meist automatisch generierte Seiten mit wenig eigenem Mehrwert, aber wichtig für interne Verlinkung.
Autorenarchive noindex, follow Verhindert doppelte Inhalte durch mehrfach indexierte Artikel auf Autoren- und Kategorieseiten.
Paginierte Seiten (Seite 2, 3, …) noindex, follow oder index, follow mit Canonical auf Seite 1 Je nach SEO-Strategie, um Duplicate Content zu vermeiden und Crawl-Budget effizient zu nutzen.

3. Unternehmenswebsites & SaaS-Plattformen

Seitentyp Empfohlene Einstellung Begründung
Landingpages für SEO index, follow Wichtige Seiten für organischen Traffic und Conversions.
AGB & Datenschutz noindex, follow Muss aus rechtlichen Gründen vorhanden sein, ist aber nicht für SEO relevant.
Login- und Dashboard-Seiten noindex, nofollow Dürfen nicht im Index erscheinen und sollen keine Linkjuice-Weitergabe ermöglichen.
FAQ-Seiten index, follow Hilfreich für SEO, insbesondere mit strukturierten Daten für Rich Snippets.

4. Nachrichtenportale & Verlagsseiten

Seitentyp Empfohlene Einstellung Begründung
News-Artikel index, follow Wichtige Quelle für Traffic, sollte indexiert werden.
Archivseiten noindex, follow Ältere Inhalte, die nicht mehr relevant sind, sollten nicht indexiert werden, aber weiterhin Linkjuice verteilen.
Spezialseiten für Kampagnen index, follow oder noindex, follow Je nach Relevanz für Suchmaschinen – zeitlich begrenzte Kampagnenseiten oft mit noindex.
RSS-Feeds noindex, follow Werden nicht für SEO benötigt, aber geben Linkjuice an relevante Seiten weiter.

Tools zur Kontrolle und Optimierung der Indexierung

Selbst mit einer gut durchdachten Indexierungsstrategie können Fehler auftreten, die dazu führen, dass wichtige Seiten nicht in den Google-Index aufgenommen werden oder irrelevante Inhalte indexiert bleiben. Um solche Probleme frühzeitig zu erkennen und zu beheben, sollten regelmäßig spezialisierte SEO-Tools eingesetzt werden.

Google Search Console: Das wichtigste Tool für die Indexierungskontrolle

Die Google Search Console (GSC) bietet detaillierte Einblicke in die Indexierung einer Website. Besonders relevante Berichte sind:

  • Indexierungsstatus prüfen: Unter "Indexierung – Seiten" wird angezeigt, welche URLs indexiert sind und welche nicht.
  • Gecrawlte, aber nicht indexierte Seiten: Seiten, die Google zwar besucht hat, aber nicht in den Index aufgenommen hat – oft ein Hinweis auf Qualitätsprobleme oder falsche Meta-Tags.
  • Manuelle Überprüfung einzelner URLs: Über das "URL-Prüfung"-Tool kann getestet werden, ob eine Seite indexiert ist oder blockiert wird.
  • Anträge zur Entfernung aus dem Index: Falls Seiten versehentlich indexiert wurden, können sie über die Funktion "Entfernung beantragen" temporär aus den Suchergebnissen entfernt werden.

Regelmäßige Kontrollen in der Search Console helfen dabei, Indexierungsfehler zu vermeiden und die Sichtbarkeit wichtiger Seiten sicherzustellen.

Screaming Frog SEO Spider: Technische SEO-Analyse

Mit Screaming Frog lassen sich technische SEO-Probleme identifizieren, die die Indexierung beeinflussen. Das Tool kann eine Website crawlen und zeigt unter anderem:

  • Seiten mit noindex, die eigentlich indexiert werden sollten.
  • Seiten mit nofollow, die interne Linkjuice-Weitergabe verhindern.
  • Weiterleitungsketten oder fehlerhafte Canonical-Tags, die die Indexierung beeinträchtigen.
  • Fehlerhafte Statuscodes wie 404- oder 5xx-Seiten, die Google von der Indexierung ausschließen könnte.

Screaming Frog ist besonders hilfreich, um technische Fehler schnell zu erkennen und gezielt zu beheben.

robots.txt-Tester: Crawling-Probleme frühzeitig identifizieren

Die robots.txt-Datei steuert, welche Seiten Google crawlen darf und welche nicht. Ein fehlerhafter Eintrag kann dazu führen, dass ganze Verzeichnisse oder sogar die gesamte Website für Google unzugänglich sind.

Mit dem Google robots.txt-Tester kann überprüft werden:

  • Welche Bereiche der Website durch Disallow-Regeln für Google blockiert sind.
  • Ob wichtige Seiten fälschlicherweise ausgeschlossen wurden.
  • Ob die Datei korrekt formatiert ist und Google die Anweisungen versteht.

Weitere nützliche Tools für die Indexierungsanalyse

  • Ahrefs & SEMrush: Prüfen, welche Seiten tatsächlich in Google indexiert sind und welche nicht ranken.
  • Site-Abfrage in Google: Mit site:deinewebsite.de kann man sehen, welche Seiten von Google indexiert wurden.
  • Logfile-Analyse: Für größere Websites kann eine Analyse der Server-Logfiles aufdecken, welche Seiten Google tatsächlich crawlt und wie oft.

Best Practices für eine optimale Indexierungsstrategie

Die richtige Steuerung der Indexierung ist entscheidend für eine erfolgreiche SEO-Strategie. Wer Google gezielt mitteilt, welche Seiten indexiert werden sollen und welche nicht, sorgt dafür, dass wertvolle Inhalte sichtbar bleiben, während irrelevante oder doppelte Seiten nicht unnötig Ressourcen verbrauchen.

Wichtige Erkenntnisse aus diesem Beitrag

  • Indexierung ist nicht gleich Crawling: Google kann Seiten crawlen, ohne sie zu indexieren – und umgekehrt kann eine bereits bekannte URL trotz robots.txt-Blockade im Index bleiben.
  • Gezielte Nutzung von Meta-Tags: index, noindex, follow und nofollow sollten bewusst eingesetzt werden, um Suchmaschinen die richtigen Signale zu senden.
  • Technische Fehler vermeiden: Seiten, die für SEO wichtig sind, sollten nicht durch noindex oder robots.txt versehentlich blockiert werden.
  • Regelmäßige Kontrolle ist essenziell: Mit der Google Search Console, Screaming Frog und anderen SEO-Tools lassen sich Indexierungsprobleme frühzeitig erkennen und beheben.
  • Nicht alles muss indexiert werden: Filterseiten, Suchergebnisseiten oder archivierte Inhalte sollten mit noindex versehen werden, um Duplicate Content und unnötige Crawling-Prozesse zu vermeiden.
  • Interne Verlinkung beachten: nofollow sollte sparsam auf internen Links eingesetzt werden, um keinen wertvollen Linkjuice zu verlieren.

Empfohlene Vorgehensweise für eine saubere Indexierung

  1. Alle wichtigen Seitentypen definieren – Welche Seiten sollen indexiert werden, welche nicht?
  2. Meta-Tags konsequent umsetzen – Jede Seite sollte eine klare Indexierungsstrategie haben.
  3. robots.txt und Meta-Robots sinnvoll kombinieren – Wichtige Seiten nicht unnötig blockieren.
  4. Canonical-Tags zur Vermeidung von Duplicate Content nutzen – Besonders bei Shops und Blogs wichtig.
  5. Google Search Console regelmäßig prüfen – Fehler in der Indexierung schnell identifizieren und beheben.

Zusammenfassung

Wer seine Indexierung gezielt steuert, vermeidet Probleme mit Duplicate Content, ineffizientem Crawling und verschwendetem Crawl-Budget. Die Kombination aus den richtigen Meta-Tags, einer klaren Struktur und regelmäßigen Analysen stellt sicher, dass Google die wirklich relevanten Seiten indexiert und optimal in den Suchergebnissen platziert.

Damit ist die Grundlage für eine nachhaltige und effektive SEO-Strategie gelegt.

Können wir weiterhelfen?

Sie haben ein spannendes Projekt und möchten mit uns zusammenarbeiten? Kontaktieren Sie uns jetzt!

Kostenloses Erstgespräch