searchmetrics email facebook github gplus instagram linkedin phone rss twitter whatsapp youtube arrow-right chevron-up chevron-down chevron-left chevron-right clock close menu search
21452145

Seitenzahl im Index: Mehr ist nicht gleich mehr!

seitenzahl-indexDas Farmer-Update hat mich an mein Versprechen von Anfang des Jahres erinnert, dass ich auf einige Themen der Agenda 2011 zurück kommen wollte. Und gerade das Farmer-Update drängt einem ja geradezu die Frage nach der Zahl von sinnvollen Unterseiten im Index auf. Mein Tipp vor zwei Monaten: „Tipp #5: Welche Beitrags- und Navigations-Seiten sind wirklich “unique” mit eigenem Content und nutzen dem User? Alle anderen sollten mit geeigneten Mitteln aus der Indexierung genommen werden.“

Zur Veranschaulichung hier die Kurven einer Kundenseite, die natürlich nicht genannt werden darf. Im oberen Bereich sehen wir die Entwicklung der Seitenzahl im Index seit Sommer vergangenen Jahres. Im unteren Bereich sehen wir die Entwicklung der Seite im organischen Index. Obacht: Die Zeitkurven sind unterschiedlich! Ich habe versucht, das mit dem roten Rahmen deutlich zu machen.

Mehr Seiten, weniger Sichtbarkeit, weniger Seiten bessere Sichtbarkeit?
Mehr Seiten, weniger Sichtbarkeit, weniger Seiten bessere Sichtbarkeit?

Und was sehen wir? Eigentlich das Gegenteil von dem, was viele erwarten: Je mehr Seiten im Index umso schlechter die Sichtbarkeit im organischen Index. Ooooops? Wie kommt denn das zustande?
Ganz einfach: Wer den Google Robot von seiner Arbeit (sinnvolle, keywordoptimierte Seiten zu verarbeiten) abhält, indem er ihm sinnlose Seiten ohne uniquen Inhalt vorwirft, muss mit den Konsequenzen leben. Denn das verbraucht seine Zeit und ärgert ihn möglicherweise auch. Nehmen wir doch der Einfachheit halber einfach mal an, dass Google einen durchschnittlichen Qualitäts-Wert aller Unterseiten errechnet und die Domain dementsprechend als Content-Farm, Artikelverzeichnis oder Qualitätsseite einstuft. Unwahrscheinlich? Nun, wir werden in den nächsten Wochen sehen.

Nicht jede dieser Kombinationen gehört in den Index!
Nicht jede dieser Kombinationen gehört in den Index!

Auf jeden Fall ist klar, dass wir dem Robot nur die Seiten zum Verarbeiten vorlegen, die wir auch im Index haben möchten. Dazu gehören nicht:

  • Seiten mit einem überflüssigen Parameter in der URL (Session-ID, Referrer-ID u.s.w.)
  • Massenhafte Produktlisten aus verschiedenen Filterkriterien
  • Paginierte Seiten in Rubriken
  • Produktseiten mit Variationen (wenn es ein T-Shirt in 15 Farben gibt, alles andere gleich bleibt)
  • Durch Permutation denkbare, aber inhaltleere Seiten (Wenn z.B. der Longtail durch Kombination von Attributen bedient werden soll, aber manche Kombinationen einfach nicht sinnvoll sind.)

Folgende Mittel können wir zur Behandlung dieser Seiten zum Einsatz bringen:

  • Diese Seiten erst gar nicht entstehen lassen (Permutationen vorher filtern, Session-IDs gehören eh nicht mehr in die URLs!)
  • „noindex“ im Robots-Metatag: Damit teilt man dem Robot mit, dass die Seite nicht indiziert werden soll. Dies sollte zur Sicherheit bei massenhaften Produktlisten erfolgen. Aber nicht vergessen: Einige dieser Listen sind sinnvoll – diese also nicht noindexieren!
  • „noindex,follow“ im Robots-Metatag: Hiermit verbieten wir zwar dem Robot, diese Seiten in den Index aufzunehmen – aber den Links darauf soll er trotzdem folgen. Das machen etwa bei paginierten Seiten und immer da, wenn diese Seiten für die Verteilung des Linkjuice verantwortlich gemacht werden.
  • Einsatz des Canonical-Tag in den Meta-Tags: Das machen wir immer dann, wenn eigentlich eine andere Seite gemeint ist. Etwa die vielen verschiedenen T-Shirts, die sich nur durch ein Detail unterscheiden. Oder wenn das System irgendwelche Parameter an die Seite klebt. Dann mache ich einen Canonical-Tag auf die „eigentliche“ URL.
  • robots.txt: Wenn wir ganze Verzeichnisse („/suche/“) nicht im Index haben möchten, dann können wir das auch in der robots.txt angeben. Allerdings funktioniert das dann nicht bei Seiten, die z.B. von außen einen Link bekommen. Diese bleiben im Index. Aber das könnte ja bei dem Beispiel „Suche“ durchaus gewünscht sein…
  • „Parameterbehandlung“ in den Google Webmaster Tools: Hier kann man die o.g. Parameter auch auf „ignorieren“ oder eben „nicht ignorieren“ stellen. Das funktioniert ganz gut – allerdings empfehle ich nicht, dies zu hoffen, dass damit alles o.k. ist. Das könnte ein Fehler sein.

So, und wer jetzt glaubt, das hat ihn alles nicht zu interessieren, der soll doch bitte selber nachprüfen, ob er doppelte und sinnlose Seiten im Index hat. Man schnappe sich von verdächtigen Seiten ein Stückchen Text und suche danach in Kombination mit dem Site-Befehl (also: „site:domain.de textschnipsel“) Erscheint auf einer der SERPs-Seiten der Hinweis auf einen Filter (siehe Bild), dann wird es Zeit für eine Seiten-Konsolidierung.

Wenn dieser Hinweis auf der Suche nach Unterseiten auftaucht, ist es soweit...
Wenn dieser Hinweis auf der Suche nach Unterseiten auftaucht, ist es soweit…

P.S.: Wer schreibt denn hier? Mein Name ist Eric Kubitz und ich bin Mit-Gründer der CONTENTmanufaktur GmbH. Wer mich erreichen will, kann dies per Mail (ek@contentmanufaktur.net) oder per Twitter tun. Bis bald!

Eric Kubitz

Eric Kubitz

Wer schreibt denn hier? Eric Kubitz ist Gründer und Geschäftsführer der CONTENTmanufaktur GmbH, die für hohe SEO-Kompetenz und High-Quality-Content steht. Der gelernte Journalist und (Fast-)Wirtschaftswissenschaftler berät große und kleine Portale, gibt sein Wissen als Dozent an Hochschulen und inhouse weiter und spricht regelmäßig auf SEO-Konferenzen. Zu erreichen ist er per mail (ek@contentmanufaktur.net) oder per Google+ oder Xing.

2 thoughts on “Seitenzahl im Index: Mehr ist nicht gleich mehr!


  • Sehr guter und ausführlicher Artikel – danke! Leuchtet alles ein.

    Hab dazu noch ein paar Fragen:

    Es gibt ja zahlreiche Qualitätssites, die neben umfangreichen Unique-Content auch einen geringen Anteil an Double Content enthalten, als Beispiel nenn ich hier mal sogenannte Weisheitsgeschichten, Zitatesammlungen, Märchen etc.

    Das heißt, dieser geringe Teil an DC könnte sich negativ auf die gesamte Sichtbarkeit der Site auswirken?

    Also sollte man diesen Teil mit einer deiner genannten Möglichkeit aus dem Index wieder „rausziehen“? Wenn ja, was ist dann mit den bereits vorhandenen Backlinks, die auf diesen DC verlinken. Verliert man damit auch die von diesen Links weitergegebenen Linkkraft? Was sich ja wiederum auf das Ranking der Site auswirken kann.

    Fragen über Fragen :-)

  • Volker | Kreditratgeber 28. Juli 2011 um 23:45

    Vielen Dank für den aufschlussreichen Artikel. Hat das nun zur Folge, dass jemand der für seinen Content einfache statische html-Dokumente erstellt und diese hochläd, Vorteil gegenüber den ganzen Webmastern hat, die Blogsoftware a la Wortpresse & Co einsetzen und damit unnötige „/tag/“ bzw. „/archive/“ – Seiten vermeidet? Back to the Roots also?
    Gruß Volker


Kommentar schreiben

Hinweis: Wenn ihr hier keinen Namen eintragt (sondern ein Keyword) oder uns euer Eintrag zu werblich erscheint, behalten wir uns das Recht vor, euren Kommentar zu löschen oder zu editieren. Spart euch sowas hier also bitte!

Des Weiteren erteilt ihr mit der Abgabe eures Kommentars eure Erlaubnis, dass eure Daten von blog.searchmetrics.com/de/ gespeichert werden. Zur Übersicht über die Kommentare und zur Vermeidung von Missbrauch, speichert diese Website Name, E-Mail-Adresse, Kommentar sowie die IP-Adresse und den Zeitstempel eures Kommentars. Die Kommentare können jederzeit wieder gelöscht werden. Detaillierte Informationen findet ihr in unserer Datenschutz-Erklärung.