searchmetrics email facebook github gplus instagram linkedin phone rss twitter whatsapp youtube arrow-right chevron-up chevron-down chevron-left chevron-right clock close menu search
96279627

Google Core Update 2016: Analyse der Gewinner und Verlierer

Das Jahr 2016 hat gleich mit einem von Google bestätigten Update begonnen. Dabei handelt es sich entgegen ersten Vermutungen aber nicht um Panda oder Penguin, sondern eine Änderung im Kern des Ranking-Algorithmus. Wir haben uns die frischen Daten in der Research Cloud genauer angeschaut.

Google_core_update_Blog_550px

Google Update: Hintergrund

Eigentlich war zum Jahresbeginn 2016 ein Penguin-Update erwartet worden. Deshalb gingen die ersten Analysen am Wochenende des 9./10. Januar 2016 von einem entsprechenden Update aus. Die Schwankungen in den Google-Rankings waren global hoch, hierbei kamen verschiedene Dienste, die Veränderungen in den Google Suchergebnissen messen, zum gleichen Ergebnis.

Inzwischen haben sich mehrere Google-Mitarbeiter via Twitter zu Wort gemeldet: John Mueller und Gary Illyes bestätigten, dass es sich bei den beobachteten Schwankungen um ein Google-Update handelte. Allerdings nicht das erwartete Penguin-Update, sondern eine Änderung im Kern des Ranking-Algorithmus.

Gary Illyes

Content-Qualität und User Intent entscheidend

Wir haben die Research-Daten in der Searchmetrics Suite noch einmal frisch gezogen, um Veränderungen in den Google-Suchergebnissen analysieren zu können. Auch uns sind dabei massive Veränderungen in den Top100-Websites nach SEO Visibility aufgefallen. Nach dem Update finden sich jetzt 50 Prozent andere Webseiten bei den Gewinnern bzw. Verlierern. Dies gilt sowohl für google.de als auch google.com. Ebenfalls sind diese Veränderungen sowohl in Desktop- als auch mobilen Suchergebnissen zu beobachten. Wir haben versucht, einige Muster zu erkennen, die für ein Qualitäts-Update sprechen. Einige Aspekte möchte ich euch jetzt vorstellen.

Jetzt SEO Visibility checken!

Content-Qualität und QDF

Bereits für das letzte Update 2015 – das Phantom 3 / Quality Update – haben wir die Volatilität der Suchergebnisse angemerkt. Dies ist auch anhand der aktuellen Daten ablesbar: Insbesondere in den USA haben Publisher-Websites mit Beiträgen zu Marken-Keywords bzw. Entitäten stark verloren. Dies ist in Deutschland so nicht zu beobachten; der Grund dafür könnte sein, dass das globale Update noch nicht komplett ausgerollt worden ist.

Schauen wir uns den US-Hauptverlierer in den aktuellen Daten an – theatlantic.com. Der Publisher hat vor allem zu Brand-Keywords und Entitäten verloren:

Keywords theatlantic.com

Auffällig ist, dass viele Verlierer-Domains klassische Print-Publisher sind – und deren Rankings vor allem bei älteren Beiträgen verloren gingen. Die Verluste auf Publisher-Seite wurden primär durch die entsprechenden Brands ausgeglichen, die ihre Rankings teilweise zurückgewonnen haben. Beispiele für Gewinner-Brands sind audi.de (schwankt seit September), villeroy-boch.com (schwankt ebenfalls schon länger auf und ab), telekom.de (zum Thema E-Mail), alaskaair.com und yamaha-motor.eu.

tom-brady
Anklicken zum Vergrößeern

Gleichzeitig haben vor allem bei google.com auch einige Publisher gewonnen – vor allem mit aktuelleren oder holistischen Inhalten. In den USA ist gq.com der größte Gewinner nach dem Update – deren größte Gewinner-URL ist ein umfangreicher Artikel über Football-Spieler Tom Brady (siehe Screenshot).

Der Beitrag entählt neben einem Video und zahlreichen Fotos extrem viel textuellen Content – mehr als 3.000 Wörter über den Football-Star, darunter auch ein Interview. Ein Test mit der Content Optimization in der Searchmetrics Suite zeigt zudem, dass der Artikel alle wichtigen Sub-Topics zur Entität Tom Brady abdeckt:

Tom Brady Content Analyse
Tom Brady Content Analyse

Ob für ein bestimmtes Keyword eher Brands oder Publisher gewinnen, hängt stark vom individuellen QDF-Score (Query Deserves Freshness) ab, den Google anhand der Nachrichtenlage und des Nutzerverhaltens, insbesondere des Suchvolumens, ermittelt. Für Themen, die aktuell in den News sind, gewinnen natürlich eher die Publisher mit aktuellen Inhalten. Dies könnte auch im Fall Tom Brady zutreffen, da der Jahresbeginn traditionell von der Superbowl-Saison geprägt ist.

Google Trends zu Tom Brady und dem Super Bowl
Google Trends zu Tom Brady und dem Super Bowl

User Intent statt Content

Aus SEO-Sicht ist eine Gruppe von Gewinner-Seiten etwas überraschend: Educational Games. Domains wie brainpop.com oder mathplayground.com haben zugelegt und konnten ihre Positionen, die sie in der Vorwoche verloren hatten, zurückgewinnen. Das Ganze übrigens mit Seiten wie dieser:

Eine typische Flash-Spiele-Seite
Eine typische Flash-Spiele-Seite

Der Screenshot ist nicht abgeschnitten, das ist tatsächlich die gesamte Seite. Für alle, die jetzt Cloaking vermuten – auch der Google Cache ist erstaunlich leer:

Google Cache einer typischen Flash-Spiele-Seite
Google Cache einer typischen Flash-Spiele-Seite

Aus klassischer SEO-Sicht lassen sich diese Rankings kaum nachvollziehen. Hier kann es nur eine Erklärung geben: Nutzer-Signale! Wenn jemand nach “how to write a sentence” sucht und auf einem solchen Lernspiel landet, kann das durchaus die Suchintention erfüllen. Und durch die Art des Inhalts (interaktives Spiel) ist mit einer überdurchschnittlich langen Verweildauer auf der Seite zu rechnen. Laut SimilarWeb dauert ein Besuch bei BrainPOP im Schnitt mehr als 8 Minuten; bei unter 20% Bounce Rate!

Dennoch sieht man anhand von BrainPOP den großen Nachteil solcher fast content-losen Seiten. Sie ranken, anders als holistische Dokumente, die für mehrere Tausend Suchbegriffe ranken können, nur für sehr wenige Keywords. Hier wird Traffic (auch) über die Masse an Inhalten generiert.

Thin Content kann ranken. Aber nicht für viele Keywords.
Thin Content kann ranken. Aber nicht für viele Keywords.

Fazit zum Update: Qualitativ hochwertige Inhalte, die Themen ganzheitlich behandeln, sind bei viele Themen die Gewinner. Doch nicht die bloße Menge des Contents ist entscheidend für das Ranking, sondern die Frage, ob die Inhalte relevant sind für die Erfüllung der Nutzerintention.

Wir wollen noch kurz einige Schwankungen in den Suchergebnissen betrachten, die nicht direkt diesem Core Update zugeordnet werden können.

Deindexierte Gitarrenseiten

Webseiten, die Tabs (Noten) für Gitarren anbieten, haben nicht nur Visibility verloren, sondern sind deindexiert worden. Schauen wir uns beispielhaft die Visibility von ultimate-guitar.com in Deutschland an:

Visibility ultimate-guitar.com

Diese Veränderung, bzw. Deindexierung, ist global zu beobachten. Sie gilt beispielsweise auch für guitaretab.com in den Vereinigten Staaten:

Visibility guitartab.comDie Deindexierung zig-tausender URLs scheint auf die Nische der Gitarren-Tab-Seiten beschränkt zu sein. Außerdem wurden die Positionen in den Suchergebnissen von Domains übernommen, die mehr oder weniger den gleichen Inhalt (Tabs für Gitarren) anbieten. Und  der (ehemalige?) Marktführer Ultimate-Guitar rankt für einige Keywords weiterhin; jedoch mit unpassenderen Unterseiten und dementsprechend auf schlechteren Position. Denn nicht die komplette Domain wurde deindexiert! Während die Subdomain tabs.ultimate-guitar.com komplett deindexiert wurde, sind die redaktionellen Inhalte weiterhin im Google Index zu finden. All dies spricht dafür, dass es sich bei den Gitarren-Domains um eine manuelle Maßnahme von Google handelt, die nicht mit dem Core Update zusammenhängen muss.

Weitere Veränderungen

Nicht jede gravierende Veränderung in den Suchergebnissen von Google ist auf die Auswirkungen von Updates im Algorithmus zurückzuführen. Dies verdeutlicht etwa die Analyse der Website von Marc O’Polo, die mit einem Visibility-Minus von 30 Prozent zu den Hauptverlierern in Deutschland gehört. Jedoch zeigt die genauere Auswertung der Visibility-Kurve der Website für den deutschen Google-Index, dass die Schwankungen in der Sichtbarkeit einzig von der österreichischen Subdomain at.marc-o-polo.com stammen. Dagegen ist die Visibility der de-Subdomain recht stabil. Hier haben also URLs der österreichischen Subdomain in den Suchergebnissen für google.de gerankt.

Visibility marc-o-polo

Eine weitere massive Veränderung, die nichts mit dem Update zu tun hat, zeigen die Daten aus der Suite für bundeswehr-karriere.de. Die Seite hat gegenüber der Vorwoche 83 Prozent Visibility verloren:

Visibility bundeswehr-karriere.de

Grund dafür ist ein Relaunch der Website mit einer neuen Seitenstruktur – bei dem die alten URLs allesamt per Redirect auf die Startseite führen.

Jetzt SEO Visibility checken!

Wir beobachten die aktuellen Daten und werden euch zu den Auswirkungen des aktuellen Updates auf dem Laufenden halten. Habt ihr Beobachtungen oder Hinweise zum aktuellen Google-Update? Ich freue mich über eure Beiträge in den Kommentaren!

Marcus Tober

Marcus Tober

Wer schreibt denn hier? Mein Name ist Marcus Tober und ich bin Gründer und Chief Innovation Officer der Searchmetrics GmbH. Ich liebe Daten, weshalb meine Beiträge in der Regel davon mehr als genug haben. Lasst euch davon nicht stören. Über rege Diskussionen in den Kommentaren freue ich mich sehr.

18 thoughts on “Google Core Update 2016: Analyse der Gewinner und Verlierer


  • Sind bei so einem Update alle Google-Seiten (bzw. Index) gleichermassen betroffen? also .com, .de ebenso wie .ch, etc.

  • Hallo Roman, auf Google.com ist das Update sehr klar. Dünne Inhalte und ältere News-Artikel haben verloren. Umfangreiche Inhalte von Publishern, sowie Inhalte von Brands haben gewonnen. In Deutschland und anderen Ländern sieht es ähnlich aus, allerdings deutlich schwächer ausgeprägt. Das deutet darauf hin, dass der globale Rollout noch läuft.

    Die Beobachtungen zu Educational Games und Gitarren Tabs sind global.

  • Meine Theorie zu Ultimate Guitar:

    Ich hatte in den letzten Wochen und Monaten bemerkt, dass die (sehr gut rankenden) Tab-Seiten von Ultimate Guitar zumindest auf dem Tablet wegen bildschirmfüllender App Interstitials im Browser so gut wie unbenutzbar waren. Ohne erkennbare Möglichkeit, das Interstitial zu schließen, war man quasi gezwungen entweder die App zu installieren oder zurück zu den SERPs und einer anderen Seite zu wechseln.

    Ich kann mir vorstellen dass wir bei Ultimate Guitar die Folgen der Google Penalty für gerade diese App Interstitials sehen, die allerdings schon seit November live ist: http://searchengineland.com/googles-app-interstitial-giant-ad-penalty-is-now-live-235000

  • > Aus klassischer SEO-Sicht lassen sich diese Rankings kaum nachvollziehen. Hier kann es nur eine Erklärung geben: Nutzer-Signale!

    Oder Links.

  • Spannend finde ich die Auswertung Spiele-Seite (brainpop.com), da sie wirklich sehr wenig Content bietet. Da sieht man mal wieder, dass die Nutzersignale durchaus eine nicht zu verachtende Größe sind. Habt ihr zu diesem Thema einen Artikel, der eventuell Tipps gibt? Zum Beispiel zur Steigerung der Interaktion der Besucher, wodruch wiederum die Verweildauer steigen würde. Ich bin auf jeden Fall gespannt, wohin dies in Zukunft führt. Da ist Kreativität gefragt, um sich von der Konkurrenz zu unterscheiden.

  • Wann kommt denn das Searchmetrics Update für diese Woche?
    Warte schon den ganzen Morgen geduldig darauf :)

  • Hallo Christian, die akuellen Daten beinhalten das Google-Update und sind vom Wochenanfang. Neue Daten findest du am Wochenende in der Suite.

  • Ist das regionale ranking dadurch auch betroffen ?

  • Meine Seite war in dem Core Update vom Mai 2015 auch betroffen. Es handelt sich um eine contentlastige Webpräsenz (mit einem internen Forum). Der Content ist gut recherchiert, Artikel um die 1000 Wörter.

    Nichtsdestotrotz habe ich von da an noch mehr auf den Content und die Nutzererfahrung geachtet. Die neuen Seiten waren auch gut gelistet, die Absprungrate gering ( 5:00 Minuten); Seitendurchschnitt ist 2:20 Minuten. Die neuen Seiten befanden sich bei Google auf Positionen 1-3.

    Bei diesem neuen “Update” sind die neuen Seiten auf die Plätze > 18 verbannt worden. Alte Seiten haben ihre Plätze behalten.

    Ich bin aber nicht der Meinung, dass das an dem Content- oder Userident liegt. Denn dann müssten meine anderen Seiten, die schlechtere Usersignale senden, doch nach hinten verlagert werden. Oder sehe ich das falsch? Werbung wird im Übrigen nur dezent eingesetzt. Das schließe ich also auch aus.

    Das ist mir alles ein Rätsel.

  • Hallo Lukas, eine besondere Betroffenheit der lokalen Rankings haben wir in unserer Analyse nicht feststellen können.

  • Könnte das Gitarren Beispiel evtl auch Ergebnis eines DMCA complaint sein?

  • Hallo Pip,

    das ist durchaus möglich. Auf jeden Fall scheint die Gitarrentab-Deindexierung das Ergebnis einer manuellen Maßnahme durch Google zu sein.

  • Hallo Malte,
    zum Thema User Signals. Google kann ja recht gut solche Metriken wie Search Return Rate als ein Kriterium für Nutzerzufriedenheit zu messen. Hättet ihr ein Gefühl, wieviel Suchen Google benötigt, um statische signifikant eine Aussage zu Nutzersignale treffen zu können: ich könnte mir vorstellen das Google ein Mindestanzahl an Nutzern auf den Seiten braucht, um Metriken wie Search Return Rate als Kriterium festmachen zu können. Wenn ja würde das heissen das für Länder wie Österreich diese Updates weniger relevant sin, weil einfach deutlich weniger Nutzer?
    BG Alexander

  • Hey Pip es gab Ende 2015 bei Chilling Effects/Lumendatabase ein paar Einträge im Bereich Gitarren Tabs. Allerdings hatte ich nichts gefunden, was für eine komplette Deindexierung spricht; nur Meldunge einzelner URLs.

    Alexander, das könnte sein. Du musst ja nur auf die Nordics schauen. Dort ist der Suchmarkt auf Grund der niedrigen Einwohnerzahl relativ klein und viele erfolgreiche SEOs setzen noch auf manuelles Linkbuilding. Eine Technik, die in den USA bereits ausgestorben ist und auch in Deutschland stark rückläufig ist. Grundsätzlich kann man also sagen, dass viele Suchende und gutes Verständnis der Sprache wichtige Faktoren sind damit Google sich in einem Markt von Old-School-SEO-Faktoren verabschieben kann.

    Eine feste Zahl, wie viel Traffic für eine saubere Bewertung notwendig ist, haben wir nicht. In der Vergangenheit habe ich eine ganze Reihe von Experimente beobachtet, in denen schon wenige 100 Suchen / SERP Klicks (in Nischen sogar unter 100) ausgereicht haben um SERPs zu ändern. Allerdings hat Gooogle hier in de letzten Jahren sehr stark nachgesteuert um Betrug zu verhindern.

  • Hallo zusammen, ich betreibe mehrere Seiten und habe leider das Gefühl, dass besonders Seiten mit einer großen Anzahl von Unterseiten zu einem bestimmten Thema (ferienwohnung, umstandsmode etc) gewonnen haben. Große Portale mit vielen Ferienwohnungen haben also gewonnen… Verloren hat der kleine Mann, der vielleicht nur 3 eigene Wohnungen auf seiner Internetseite hat. Kann das sein? Danke und Gruß, Michael

  • Hallo Michael,

    Quantität & Qualität des Contents zu einem Themenkomplex sind einer der Faktoren, um sich bei Google einen Autoritätsstatus für das spezifische Topic zu erarbeiten. Entsprechend kann es dann leichter werden, zu diesem Thema gute Rankings zu erzielen. Voraussetzung ist aber die Erfüllung der Nutzerintention, die hinter einer Suchanfrage steckt – daran hat Google beim Core Update geschraubt.

  • So langsam bin ich ziemlich unglücklich über die letzten Updates. Meines Erachtens kann man vieles davon nur noch mit “Wir haben Recht, weil wir Google sind”-Logik rechtfertigen.

    1. Clicks zählen ist wohl die schlechteste Methode, um Rankings zu ordnen. Die Farms in Indien und China laufen heiß. Das ist keine Verschwörungstheorie sondern z.B. aus dem Bereich der Google Play-Store Apps schon lange bekannt. Immerhin sind die Farms energieeffizient, jeder chinesische Farmer bedient gleichzeitig bis zu 200 Smartphones mit individuellem Proxy. Hat hier jemand Botnetz gerufen???

    2. EMDs und Spam-Backlinks werden bei weitem noch nicht genug abgestraft. Ich habe dutzende Fälle, in denen Content-lose EMDs den Platzhirsch machen und sich nicht rühren, daneben der lokale Bäcker, der über Nacht plötzlich 10.000 Backlinks hat. Eine wirklich interessante Bäckerei.

    3. Auch die dramatische Penalty bei Neugestaltung einer Webseite durfte ich inzwischen bei zwei Fällen aus erster Hand erleben, also nicht bei mir aber bei einem Kunden, dem das passiert ist. Ok, es wurden Fehler gemacht, aber anders als bei dem Bundeswehr-Fall nicht so extreme, als dass man alle alten Inhalte per 302 auf die neue Startseite geleitet hätte. Über 90% der Inhalte war weiterhin unter den alten URLs erreichbar, nur eben neu gestaltet, bessere Texte, bessere Bilder. Was passiert? Die Seite rutscht von Platz 2 auf Platz 48 und verharrt dort. Die Konkurrenz auf Platz 3 hats gefreut, deren 15 Jahre alte statische HTML-Seite mit weniger als 50 Worten Inhalt hat einen Platz zugelegt.
    Man könnte meinen, Google will keine Innovation mehr

    4. Meine persönliche Erfahrung als “Google-Nutzer” hat sich in den letzten 18 Monaten dramatisch verschlechtert. Ich bin zwar Poweruser, ok, aber Google hat sich zum Besserwisser entwickelt und serviert mir in einer Tour (für mich) nutzlose Ergebnisse, die scheinbar bei vielen Anderen beliebt sind. Blöd ist nur, wenn die “Anderen” eher aus dem Amateursegment stammen, und die Ergebnisse dementsprechend nur Grundlageninformation enthalten, und nicht das Spezialwissen, dass ich suche. Dabei fällt mir auf, das ist noch ein Grund, warum Clicks zählen mehr als suboptimal ist.

    Google scheint inzwischen endgültig den “Don’t be evil” – Gedanken verloren zu haben, wichtig ist, dass man der Masse an Leuten 08/15 Prominews präsentieren kann, den geistlosen, die sowieso am liebsten der Herde nachlaufen. Dabei nimmt man meiner Meinung nach bewußt in kauf, dass die Inhaltsqualität entsprechend nachlässt. Ich hoffe, auf Konkurrenz.

  • Würde dies bedeuten, dass man einen Online Shop – also den ganzen Shop – besser mit einer eigenen aussagekräftigen Domain abkoppelt von der Themen Website dazu?


Kommentar schreiben

Hinweis: Wenn ihr hier keinen Namen eintragt (sondern ein Keyword) oder uns euer Eintrag zu werblich erscheint, behalten wir uns das Recht vor, euren Kommentar zu löschen oder zu editieren. Spart euch sowas hier also bitte!

Des Weiteren erteilt ihr mit der Abgabe eures Kommentars eure Erlaubnis, dass eure Daten von blog.searchmetrics.com/de/ gespeichert werden. Zur Übersicht über die Kommentare und zur Vermeidung von Missbrauch, speichert diese Website Name, E-Mail-Adresse, Kommentar sowie die IP-Adresse und den Zeitstempel eures Kommentars. Die Kommentare können jederzeit wieder gelöscht werden. Detaillierte Informationen findet ihr in unserer Datenschutz-Erklärung.