searchmetrics email facebook github gplus instagram linkedin phone rss twitter whatsapp youtube arrow-right chevron-up chevron-down chevron-left chevron-right clock close menu search
1715617156

SEO-Wirbel um Google-Aussage: Sollen wirklich alle paginierten Inhalte indexiert werden?

In der globalen SEO-Szene sorgt eine Aussage von John Mueller von Google für Wirbel: Webmaster sollten alle paginierten Inhalte indexieren lassen, so lautet die vermeintliche Schlussfolgerung aus einer Antwort von Mueller in einer Google Webmaster Hangout-Session. Doch ich halte das für falsch: Nachdem Google seit 2019 dem rel=prev/next-Markup keine Bedeutung mehr schenkt, bedeutet die Aussage von Mueller keine Kehrtwende. Wie ihr auch ohne die Indexierung von Tausenden paginierten Kategorie-Unterseiten trotzdem alle wichtigen Produkt-Seiten in den Google-Index bekommt, zeige ich euch in diesem Blogpost.

Google schenkt rel=prev/next keine Beachtung mehr

Seit einiger Zeit ist bekannt, dass Google dem rel=next/prev-Attribut keine Beachtung mehr schenkt. Google selbst hatte erklärt, dass Seiten-Paginierungen, etwa für Kategorie-Unterseiten auf Blogs oder Online Shops häufig zu wenig werthaltigen Content hätten, um indexiert zu werden. Und die nicht-indexierten Seiten könnten dann als Soft 404 behandelt werden, was bedeutet, dass Links, die auf diesen Seiten platziert sind, keine Bedeutung mehr vom Crawler beigemessen wird. Das rel=prev/next-Markup hatte Google 2011 eingeführt; Websites konnten damit einzelne URLs als Teil eines größeren Sets von Seiten flaggen. Auf Anfrage erklärte dann John Mueller von Google im Jahr 2019 in einem Tweet recht nebenbei, dass der Konzern rel=next/prev seit einiger Zeit gar nicht mehr benutzen würde:

Wirbel in der SEO-Szene um Google-Aussage zur Indexierung von paginierten Inhalten

Doch seit Kurzem sorgt eine Aussage von John Mueller in der SEO-Szene für einen Hype, der meiner Meinung nach nicht korrekt ist. Grundlage ist ein Statement von ihm in einer Google Webmaster Hangout Session, die in einer verkürzten Aussage zu fragwürdigem Ruhm gelangte: Google will alle paginierten Seiten indexieren, so lautet die mutmaßliche Konklusion, die für globalen SEO-Wirbel sorgt. So formulierte etwa SEO Südwest zur vermeintlich geänderten Index-Empfehlung: “John Müller riet dazu, alle paginierten Inhalte indexieren zu lassen. So könne sichergestellt werden, dass alle Produkte und längere Inhalte von Google erfasst werden können”,

Allerdings ist diese Schlussfolgerung meiner Ansicht nach falsch. Schaut euch den Ausschnitt der Webmaster Hangout-Session am besten selbst an:

 

Auf die Frage (im Video bei 18:12 Minuten), ob alle paginierten Seiten indexiert werden sollten, antwortet John Mueller zwar mit einem “Ja” – und viele SEOs folgerten nun daraus, dass die paginierten Seiten nicht mehr mit einem “noindex,follow”-Attribut ausgestattet werden sollten, sondern mit einem “index,follow”. Allerdings ist das “Ja” von John Mueller nicht alles, was der Webmaster Trends Analyst von Google zu diesem Thema zu sagen hat. Er spricht im betreffenden Abschnitt nämlich über paginierte Seiten im Allgemeinen. Und bevor er zur Frage kommt, die er mit “Ja” beantwortet, holt er etwas weiter aus:

“So essentially when we talk about pagination, we mean you have one thing that is really large, and it doesn’t fit on one page, so you split it across multiple pages. And that could be maybe one long article where you say, well, it’s worthwhile splitting this. It could be a list of individual products, maybe in a category, where you say, well, I have 5,000 products, I can’t put them all on one page. We will put them on five pages, or 1,000 pages, or whatever. So that’s kind of where pagination comes in. And from our point of view, it’s important that we can recognize this kind of pagination and essentially index those individual pages, so that we can pick up all the content or all the links to individual items that you have on the paginated pages. Usually with pagination, one of the questions that comes up is, well this creates a lot of new URLs, because you have to go through all of these pages to get all of the content. And yes, it does generate a lot of URLs, and we have to index a lot of different pages. But if we ant that content in our index, if we want to understand those internal links to your other pieces of content, we kind of have to do that.” John Mueller, Google Webmaster Trends Analyst

 

Wenn es um paginierte Seiten geht, spricht John Mueller also sowohl von Content, der zum Beispiel so lang ist, dass er auf mehrere Seiten aufgeteilt wird, als auch von den Kategorie-Seiten einer E-Commerce-Website. Und dann, wenn er “Ja” zur Frage sagt, ob wirklich alle paginierten Seiten indexiert werden sollen, bezieht er sich – meiner Meinung nach – auf die Aufsplittung von langen Content-Stücken – und nicht auf paginierte Kategorie-Seiten, aber dazu gleich noch mehr.

Nur relevante (paginierte) Seiten sollten indexiert werden können

Denn nach seinem “Ja” führt Mueller weiter aus:

“Kind of like I mentioned before, if there is something on there that you want to have known by Google – which could be a link to a different product, which could be a part of a longer piece of content – then it has to be indexed.” John Mueller, Google Webmaster Trends Analyst

 

Diese Erklärung stellt für mich den Kern von John Muellers Aussage dar: Wenn ihr der Meinung seid, dass der Content oder die Links auf den paginierten Seiten derart relevant für Nutzer und Suchmaschinen sein, dann müssen diese Unterseiten auch indexierbar sein für Google.

Google benötigt die Link-Hierarchie, also die Klicktiefe einer Seite, um zu verstehen, wir wichtig ein bestimmtes Content-Element ist. Aber mal ehrlich: Wenn Content nur von einer paginierten Kategorie-Unterseite erreichbar ist und kein sonstiger Link auf diese Unterseite zeigt, kann diese nicht allzu wichtig sein.

Damit ist für mich klar: Unterseiten, die nur über den Paginierungslink selbst erreichbar sein, spielen für den Crawling-Prozess keine allzu große Rolle. Stattdessen sollte jedes wichtige Produkt einen Link von der indexierbaren Seite 1 erhalten. Ähnliche oder verwandte Produkte, die auf dieser Seite gelistet sind, sollten entsprechende Links von wichtigen Produktseiten erhalten. Aber ein Link von einer paginierten Kategorie-Unterseite 2, 3, 4 oder 5000 sagt nur aus, dass sie nicht allzu wichtig sind.

Wie Google trotzdem alle Produktseiten crawlen kann

Es ist also wenig sinnvoll, Google dazu zwingen zu wollen, alle unwichtigen paginierten Unterseiten einer Kategorie zu indexieren, wenn diese überdies gar nicht in den Index aufgenommen werden sollen. Schließlich soll im Regelfall nur die Seite 1 ranken. Trotzdem bleiben nun zwei Fragen offen, für die ich gern Vorschläge machen würde:

Frage 1: Wie können alle Produkt-Seiten, die auf den Kategorie-Paginierungen verlinkt sind, dennoch von Google gecrawlt werden?

  1. Sie können durch eine XML-Sitemap übermittelt werden.
  2. Sie können Links von anderen, Nicht-Kategorie-Unterseiten erhalten – etwa von anderen Produktseiten, mit dem Hinweis auf ähnliche Produkte oder Produkte, die Nutzer gern zusammen kaufen.

Frage 2: Wie kann Google verstehen, dass eine Produktseite zu einer bestimmten Kategorie gehört, wenn diese Produktseite für den Crawler nicht über die paginierte Kategorie-Unterseite erreichbar ist?

Hierfür kommt eine saubere Website-Struktur mit einer einer guten, hierarchischen URL-Struktur ins Spiel:

  1. Hierarchische, sprechende URLs, die die Kategorie-Struktur und das Produkt gut widerspiegeln helfen Google dabei, ein Produkt auch einer bestimmten Kategorie zuzuordnen. Beispiel: https://onlineshop.com/herren/jeans/levis511.html
  2. Nutzung der schema.org-Breadcrumbs, um Google damit auch über diesen Weg die Zughörigkeit eines Produktes zu einer bestimmten Kategorie mitzuteilen.

Zudem sollte die Produkt-Hierarchie kontrolliert werden. Wenn ein Produkt wichtiger wird – entweder weil es stark nachgefragt wird oder das Angebot groß ist – sollte es im Kategorie-Listing ebenfalls klettern und im Idealfall auf der indexierbaren Seite 1 der Kategorie-Übersicht stehen.

Zusammenfassung: Alle paginierte Seiten in den Index? Nein!

Meinte John Mueller, dass Google alle paginierten Seiten indexieren möchte? Nein! John sagte, dass Webmaster und SEOs all jene Seiten mit einem index-Atribut versehen sollen, die wirklich wichtig für Google sind. Meine Frage: Gilt dies aus eurer Sicht für die paginierten Kategorie-Unterseiten 2 bis 5000? Soll die Kategorie-Unterseite 4532 wirklich indexiert werden? Ist diese Seite wirklich wichtig für eure Website und euer Online Business?

Auch wenn paginierte Seiten nicht indexiert werden: Es gibt gute Wege, um alle Produktseiten von Google crawlen, indexieren und bewerten zu lassen, vor allem durch eine saubere, aussagekräftige Website-Architektur und die Nutzung von Bradcrumbs.

Marcus Pentzek

Marcus Pentzek

Hallo, mein Name ist Marcus Pentzek und ich bin Chief SEO Consultant bei Searchmetrics. Unseren Suite-Kunden stehe ich gerne mit Rat und Tat bei der Suchmaschinenoptimierung ihrer Webseiten zur Seite. Insbesondere International SEO (China, aber nicht nur China!) ist dabei mein Steckenpferd. Über rege Diskussionen in den Kommentaren freue ich mich sehr, ansonsten findet ihr mich auch bei LinkedIn.

6 thoughts on “SEO-Wirbel um Google-Aussage: Sollen wirklich alle paginierten Inhalte indexiert werden?


  • Sehe ich auch so. Zumal eine Differenzierung in die Verwendung von paginierten Seiten auch definitiv Sinn macht. Wenn ich langen Content oder viele Produkte auf Grund der Menge auf unterschiedliche Seiten verteile, ist eine Indexierung sinnvoll. Wenn ich hingegen den Kategorie-Content eines Blogs auf verschiedene Seite verteile, sollten diese Seiten nicht indexiert werden. Außerdem will man in letzterem Fall durch den Anriss der ersten Zeilen eines Blogartikels innerhalb der Kategorieseiten ja auch das Auftreten von Duplicate Content vermeiden.

  • Hallo Marcus, ich glaube in deinem Beitrag wird Crawling und Indexierung ein bisschen miteinander vermischt, was meiner Meinung nach falsch ist.

    Nur weil eine Paginierungsseite, z.B. Seite 11 einer Kategorie, auf “noindex” steht, heißt das nicht dass der Crawler den URLs nicht folgt und z.B. Produkte auf Seite 11 nicht mehr crawlt. Solange die Produkte selbst nicht auf “noindex” stehen, können diese ganz normal weiter gecrawlt werden und dann auch im Index landen. Ich kenne Projekte wo in den Logfiles “noindex” Paginierungsseiten jenseits der 100 auftauchen.

    Einfacher gesagt: noindex verhindert nicht das Crawling.

    Es gab zwar mal vor einigen Monaten wage Aussagen von Google, dass “irgendwann” Seiten die auf “noindex” stehen wie “nofollow” behandelt werden KÖNNTEN, aber bestätigt hat diese Aussage soweit mir bekannt ist nie jemand, und in der Praxis habe ich auch noch nichts dergleichen beobachten können. Auch aus John’s obiger Aussage und deiner Schlussfolgerung daraus erkenne ich nicht, warum Links auf “noindex” nicht mehr gecrawlt werden sollten.

    Dein Hinweis mit der Sitemap ist natürlich richtig und es stimmt auch, dass URLs die sich auf einer Paginierungsseite verstecken nicht mehr sonderlich relevant sind. Mit dem reinen Crawling hat das aber mMn nichts zu tun und ich glaube, wir sollten hier vorsichtig sein und die beiden Themen klarer voneinander trennen.

    Ich freue mich natürlich auch über gegensätzliche Meinungen / Erfahrungen.

  • Hallo Cornelius, ich sehe das ein wenig anders mit den vielen Produkten, die über paginierte Kategorie-Seiten verteilt werden. Ich halte es da wie Du mit den Blog-Kategorien – warum sollte da die Xte Listing-Page indexiert werden? Indexieren lassen muss ich nur, was ich auch potentiell für irgendetwas ranken sehen möchte ;-). Aber schön, dass wir uns im Großen und Ganzen einig sind ;-). Freut mich!

  • Hallo Maik,
    ahhh ich sehe schon, ich hätte hier mehr ins Detail gehen sollen. Natürlich hat “noindex” grundlegend nur etwas mit der Indexierungssteuerung und nicht mit dem Crawling zu tun. Verwechselt habe ich Indexierung und Crawling dennoch nicht.

    Wie du selbst schon erwähnst, gab es diese Aussage von Google (mittlerweile glaube ich sogar schon älter als ein Jahr), dass Seiten, die via “noindex” von der Indexierung ausgeschlossen werden, mittel- bis langfristig wie “Soft 404”-Seiten behandelt werden könnten. Ein “Soft-404” hat ja nicht umsonst das “404” enthalten, denn 404-URLs werden von Google inhaltlich nicht weiter ausgewertet. Bedeutet auch, dass Links, die von diesen Seiten auf andere Seiten verweisen nicht “gesehen” werden würden, was theoretisch das Crawlen von URLs, die nur von (Soft-)404-URLs (und damit potentiell von auf “noindex” gesetzten paginierten Kategorie-URLs) verlinkt würden nicht “gesehen” und somit auch nicht gecrawlt werden würden.

    Wie du aber auch schon sagst – es ist eine reine von Google getätigte Aussage, die es potentiell zu berücksichtigen gilt (daher in meinem Artikel aufgenommen und Alternativen zur Crawler-Steuerung genannt), aber auch in meinen bisherigen Auswertungen (Logfiles von Kunden sowie eigene “Labor-“Tests) nicht bestätigen konnten. Nach meinen Erfahrungen werden auch längere Zeit auf “noindex” stehende paginierte Seiten, die durchaus auch sehr tief liegen können, immer noch gecrawlt, ausgewertet und von dort aus verlinkte URLs in den Crawlingprozess aufgenommen.

    Aus genannten Gründen, kann man die Themen “Craweling” und “indexierung” in diesem Blog daher nicht ganz voneinander trennen. Dennoch gebe ich dir recht, dass ich dir Gründe dafür besser hätte erläutern können ;-)

  • Hii Markus,
    wir haben seit ca. einem Jahr alle paginierten Seiten auf index/follow gestellt. Anfänglich hatte Google ein paar Probleme und die Zahl der indexierten Seiten schoss in die Höhe, hat sich aber relativ schnell wieder normalisiert. Wir haben geschaut ab welcher Paginierung die Produkte alle erfasst wurden, und dann die weiter Paginierung per robots.txt für den Crawler gesperrt. Klappt bisher sehr gut.

  • Hallo Stefan,

    danke für’s Teilen Eurer Erfahrungen. Das ist ein sehr smartes Vorgehen, das Crawling der Pagnierung ab der Seite erst zu sperren, ab der Google von sich aus schon die Produkte nicht mehr besuchen mag.

    Der von mir vorgeschlagene Weg ist auf jeden Fall nicht der einzig gangbare Weg. Ich finde einfach es macht keinen Sinn Google Seiten zur Indexierung anzubieten, die man selbst nicht ranken sehen möchte. Damit mache ich Google die Arbeit ein wenig leichter, wenn ich ihnen die Entscheidung abnehme, ob eine Seite indexiert werden muss oder nicht. Und dass Produkte, die von “noindexierten” Seiten aus verlinkt sind auch weiterhin von Google gefunden werden, weil Google eben vielfach Seiten mit “noindex” auch weiterhin crawlt und auswertet, ist halt (derzeit) so. Und sollte es mal nicht (mehr) so sein, gibt es eben andere Wege die Produkte crawlen zu lassen – und wieder andere Wege, Google beizubringen, wo diese Produkte in der Informationsarchitektur zu verorten sind.


Kommentar schreiben

Hinweis: Wenn ihr hier keinen Namen eintragt (sondern ein Keyword) oder uns euer Eintrag zu werblich erscheint, behalten wir uns das Recht vor, euren Kommentar zu löschen oder zu editieren. Spart euch sowas hier also bitte!

Des Weiteren erteilt ihr mit der Abgabe eures Kommentars eure Erlaubnis, dass eure Daten von blog.searchmetrics.com/de/ gespeichert werden. Zur Übersicht über die Kommentare und zur Vermeidung von Missbrauch, speichert diese Website Name, E-Mail-Adresse, Kommentar sowie die IP-Adresse und den Zeitstempel eures Kommentars. Die Kommentare können jederzeit wieder gelöscht werden. Detaillierte Informationen findet ihr in unserer Datenschutz-Erklärung.