searchmetrics email facebook github gplus instagram linkedin phone rss twitter whatsapp youtube arrow-right chevron-up chevron-down chevron-left chevron-right clock close menu search
1021810218

Penguin-Update 4.0 – Analyse der Gewinner

Google lockert die Fesseln: Dank Penguin 4.0 konnten zahlreiche Websites, die in der Vergangenheit in den u.a. auf Webspam und Backlinkstruktur fokussierten Filter gerutscht waren, gewaltig an SEO Visibility zulegen. Backlink-Audit, Negative SEO und Link-Bewertungen – in diesen Bereichen werden langfristige Auswirkungen des jetzt im Kernalgorithmus integrierten Penguins zu erwarten sein.

google-penguin-update-4

Bei vielen Webmastern sorgten die verschiedenen Iterationen der Penguin-Updates seit dem Jahr 2012 immer wieder für Aufsehen. Wurden Websites wegen Linkspam durch den Penguin abgestraft, dann konnte es mitunter dauern, bis eine Erholung der Seite einsetzte. Zwar gab es Domains, die durch eine Änderung der Linkstruktur recht schnell wieder Luft atmen konnten. Doch gab es ebenso zahlreiche Beispiele, bei denen eine Erholung bis zum diesem aktuellen Penguin-Update andauerte – das bedeutete mehr als 3 Jahre in der Penalty…

 

Was ist Penguin 4.0?

Die neue Version beendet nun das Warten. Penguin 4.0 ist nun laut Google Teil des Kernalgorithmus der Suchmaschine. Damit werden die Penguin-Daten, die der Google-Bot beim Crawlen der Website in Bezug auf Links feststellt, in Echtzeit aktualisiert. Google spricht dabei von „Spamsignalen“, die beim Crawlen auffallen – dies kann also neben Links auch Keyword-Stuffing oder Cloaking betreffen. Dies bedeutet, dass Google Signale aus anderen Update-Paradigmen – wie etwa dem Panda – zusammenfasst.

Flexiblere Bewertung und Auswirkungen in Echtzeit

Mit Penguin 4.0 verabschiedet sich Google von groß angekündigten Updates. Denn inzwischen sind die wichtigsten Elemente, mit denen Google Websites evaluiert, in den Kernalgorithmus integriert und werden in Echtzeit bewertet. Nachdem mit Hummingbird und RankBrain ein Echtzeit-Verständnis von Suchintention und entsprechend passenden Ergebnissen in den Algorithmus eingeflossen ist, sind nun auch Panda und Penguin ein Teil des Kern-Algorithmus von Google, der auf datengetriebenem Machine Learning basiert. Hintergrund ist, dass einer von Googles wichtigsten Forschungsschwerpunkten auf dem Weg zum relevantesten Suchergebnis die (Weiter-)Entwicklung im Bereich der Künstlichen Intelligenz (KI) ist.

Nun URL-basierte statt domainweite Effekte

Ebenfalls gravierend ist die Neuerung, dass Penguin 4.0 nun URL-basiert arbeitet – und nicht mehr domainweit wie bei vorigen Iterationen. Wer aufgeräumt hat, ist aus dem Filter entkommen und hat einen Boost erfahren. Doch auch Websites, die ihre Backlink-Struktur nicht bereinigt haben, konnten zulegen. Veränderungen betreffen dann nur die einzelne URL und nicht mehr die komplette Website. Entsprechend gibt es auch weniger eindeutige Verlierer, weil diese Websites nicht mehr domainweit mit einem Filter belegt wurden.

 

Analyse der Auswirkungen von Penguin 4.0

Searchmetrics-Kunden berichten von entsprechenden Auswirkungen des Updates, etwa Andor Palau, Head of SEO bei der Berliner Agentur Peak Ace, die Searchmetrics einsetzt. Er berichtet als Beispiel von einem Kunden, der mit Penguin-Problemen zu Peak Ace kam. Nachdem Link-Cleanups monatelang ohne Erfolg geblieben seien, stieg die SEO Visibility pünktlich zum Rollout von Penguin 4.0 massiv an:

 

zitat-andor-palau

 

Auch in unseren Daten vom 16. Oktober 2016 können wir die Auswirkungen des Rollouts von Penguin 4.0 in Deutschland beobachten. Entgegen der sonst üblichen Update-Tradition veröffentlichen wird heute keine Liste mit den Gewinnern bzw. Verlierern. Schließlich können wir – trotz immensen Crawling-Aufwands – nicht wissen, welche Links von einer Website disavowed wurden. Diese Information teilen die SEOs bzw. Webmaster dieser Webmaster exklusiv mit Google. Allerdings kann festgehalten werden: Bei den Top-Gewinnern der SEO Visibility finden sich zahlreiche Domains, bei denen der Visibility-Boost möglicherweise mit dem Penguin-Update zusammenhängen könnte.

Frühere Penguin-Verlierer haben sich erholt

Schauen wir uns nachfolgend jedoch zwei Beispiel-Domains an, die beim ersten Penguin-Update 2012 zu den Verlieren gehörten – und in den vergangenen beiden Wochen, da die Auswirkungen des Penguin-Updates sichtbar wurden, in ihrer Visibility deutlich zulegen konnten:

 

visibility-schicksal

 

Die Horoskop-Website schicksal.com verzeichnete bei Penguin 1 einen gewaltigen Visibility-Abfall von rund 65 Prozent. Nach April 2012 konnte sich die Seite nur langsam erholen. Jetzt, so scheint es, gehört schicksal.com zu den großen Gewinnern des Rollouts von Penguin 4 – der Visibility-Zuwachs betrug mehr als 40 Prozent. Es könnte also sein, dass die Website in ihrer Backlinkstruktur aufgeräumt hat bzw. sich die Abschaffung des domainweiten Penguin-Filters jetzt positiv auf die Visibility der Horoskop-Seite auswirkt.

Ein weitere Domain, die wir als einen der Hauptverlierer bei Penguin 1 ausgemacht hatten, ist pkwteile.de. Die Domain hatte beim Update im Jahr 2012 rund ein Drittel an SEO Visibility eingebüßt. Vom Rollout des Penguin 4.0 scheint auch diese Website profitiert zu haben – die SEO Visibility legte innrhalb von zwei Wochen um gut 40 Prozent zu.

visibility-pkwteile

 

Einschränkend muss hinzugefügt werden, dass der Zuwachs von rund 40 Prozent bei den beiden Domains in absoluten Visibility-Punkten nicht so heftig ausfällt, weil es zwei kleinere Domains mit entsprechend niedriger Ursprungs-Visibility sind. Es wird sich also zeigen, ob die Visibility kontinuierlich zulegt, weil die “Fesseln” gelöst sind.

 

Update kündigte sich durch Crawling-Peaks des Google-Bots an

Bevor das Echtzeit-Update aktiv geworden ist, scheint Google aber zunächst eine Bestandsaufnahme von bestehenden Link- und Seiten-Strukturen im Netz durchgeführt zu haben. Darauf deutet eine bemerkenswerte Korrelation hin: Die Crawling-Aktivität von Google-Bots hatte kurz vor der offiziellen Kommunikation des Updates enorm zugelegt.

 

Crawling-Peaks durch Google-Bot, Beispiele

Es scheint, dass Google eine Art Status Quo der Link- und Seitenstrukturen im Netz erstellen wollte oder das kommende Update validieren wollte, um daraufhin den Echtzeit-Penguin von der Leine zu lassen.

 

Google-Bot crawlt beanstandete Signale aus früheren Penguin-Updates

Was zunächst überrascht, ist die hohe Anzahl von gecrawlten Seiten, der eine niedrige Download-Dauer gegenübersteht; dies ist im oberen Bild vor allem im rechten Beispiel zu erkennen. Dies könnte sich durch das vermehrte Crawlen von “alten” URLs erklären. Der Google-Bot crawlte entsprechend vor dem Ausrollen des Updates die beanstandeten Signale bzw. URLs, die zu früheren Penguin-Penaltys geführt hatten.

 

crawling-url-fehler

Zu sehen ist im Screenshot, wie die verstärkte Crawling-Aktivität mit einem Anstieg an 404-Fehlern einhergeht. Und eine nicht existente Seite braucht auch entsprechend wenig Crawling-Zeit.

 

Ausblick: Backlink-Audit schwieriger, aber wichtig!

Mit Penguin 4.0 werden künftig unsaubere Links nach ihrer Entdeckung durch den Google-Bot sofort als Signal für die spezifische URL gewertet bzw. disawowed – zumindest in der Theorie. Veränderungen betreffen künftig aber nur die einzelne URL und nicht die komplette Domain, wie dies bei früheren Penguin-Updates der Fall war.

Allerdings wird es damit auch schwieriger, Backlinks als Ursache für einen Abfalls der Visibility zu identifizieren. Werden etwa Ranking-Verluste für eine URL festgestellt, liegt es zunächst nahe, die Landingpage im Hinblick auf Content, Nutzerintention und Struktur zu optimieren. Wenn trotzdem keine Verbesserungen verzeichnet werden, könnte es am Backlinkprofil liegen, welches die konkrete URL nach unten zieht – ohne dass dies auf den ersten oder zweiten Blick auffällt. Etwa, weil es ein Mitarbeiter zu gut gemeint hat, ein Konkurrent schlechte Links streut oder beim Testing zufällig die Seite als Target ausgewählt wird. Künftig wird es also schwieriger, die Beurteilung von Links durch Google präzise zu bestimmen. Klar aber ist, dass es in Zukunft weniger “Negative-SEO” geben wird, denn man kann keine Domains mehr “abschießen”, indem viele schlechte Links auf diese “Gegner”-Websites gesetzt werden.

Mit Penguin 4.0 gehört der frühere taktische SEO-Blick auf Backlink-Aufbau oder einzelne Keywords der Vergangenheit an; langfristige Maßnahmen werden immer wichtiger. Ein kontinuierlicher Backlink-Audit muss ein fester Bestandteil im SEO-Jahresplan sein, um sich vor diesen negativen Signalen zu schützen. Ebenfalls sollte der Fokus auf der Etablierung einer Content-Strategie und der Produktion von relevantem, einzigartigem Content liegen, der die Nutzerintention perfekt bedient. Nur so wird die Website von Nutzern auch konsumiert, aktiv verlinkt, geliked und geteilt – und auch durch Google langfristig mit guten Platzierungen belohnt werden.

Marcus Tober

Marcus Tober

Wer schreibt denn hier? Mein Name ist Marcus Tober und ich bin Gründer und Chief Innovation Officer der Searchmetrics GmbH. Ich liebe Daten, weshalb meine Beiträge in der Regel davon mehr als genug haben. Lasst euch davon nicht stören. Über rege Diskussionen in den Kommentaren freue ich mich sehr.

7 thoughts on “Penguin-Update 4.0 – Analyse der Gewinner


  • Hallo Marcus,

    vielen Dank für die Erwähnung unserer Seite schicksal.com. Ich hoffe, ich komme in den nächsten Tagen / Wochen dazu, einen ausführlichen Bericht über die 4 Jahre Google Gefängnis zu schreiben.

    Wir haben sehr viel unternommen, damit wir wieder gute Rankings bekommen. Der “schlechte Links entwerten” Part war aber nur ein kleiner Teil. Vielmehr haben wir unsere gesamte Content-Strategie umgestellt, unsere Redaktion ausgebaut u.v.m.

    Sämtliche SEO Agenturen, die wir seit Pinguin 1 gefragt hatten (übrigens inkl. Experten von Searchmetrics…), waren der Meinung: Die Domain ist verbrannt, da hilft nichts mehr. Lieber was Neues aufbauen. Ist günstiger.

    Ich bin heute sehr froh darüber, dass wir nicht auf diese Ratschläge gehört haben.

    Ebenso bin ich froh, dass ich nicht auf Google Mitarbeiter gehört habe. John Müller hat bei mehreren Gelegenheiten gesagt (soweit ich mich erinnern kann): Es ist unwahrscheinlich, dass sich eine Domain, die abgestraft wurde, wieder vollständig erholt.

    Alles in allem: Der Visibility Anstieg kommt sicher vom Pinguin Update. Aber er wäre bei weitem nicht so stark gewesen, wenn wir nur schlechte Links abgebaut hätten.

    Liebe Grüße,
    Georg Franz.

  • Hiho. Wieso haltet ihr urlbasierte Rankingverluste durch Penguin 4 für möglich? Die Links werden doch nur entwertet, soweit ich das verstehe (http://searchengineland.com/google-penguin-doesnt-penalize-bad-links-259981).

  • Hallo Daniel,
    wir stützen uns auf die offiziellen Aussagen im Google Webmaster Blog: Ranking-Veränderungen sollen künftig detailliert auf Spamsignale angepasst werden, statt das Ranking der gesamten Website zu betreffen. Deshalb gehen wir davon aus, dass etwa “künstlich” wirkende Backlinks auch künftig negative Ranking-Veränderungen für einzelne URLs nach sich ziehen werden.

  • Ich kann mir nicht so richtig vorstellen, dass es zwischen den Crawling-Peaks des Google-Bots und Google Pingiun Roll-out einen Zusammenhang geben soll. Zumindest in Bezug auf Links.

    Auf unseren Domains gab es vergleichbare Ausschläge. Ebenso waren die meisten URLs (> 90%) nicht mehr vorhanden (404/410 Status Code). Die Dokumente exisitierten teilweise seit über 6 Jahren nicht mehr, sie waren aktuell auch nicht im Index. Die meisten Dokumente enthielten keine Ausgehenden und auch keine eingehenden Links.

    Ich hatte eher den Eindruck, dass es ein allgemeinstes Ausmisten des Index war.

  • Wir haben auch ein paar Domains, bei denen weder Links entwertet noch abgebaut haben, die auf einmal wieder besser ranken. Ein sehr guter Artikel!

  • Vielen Dank für deine Zusammenfassung und Erkenntnisse zum Penguin Updates!
    Herzlichen Glückwunsch an Georg Franz, da habt ihr ja gute Arbeit geleistet und Durchhaltevermögen gezeigt, ich weiß nicht ob ich so lange gewartet hätte.

  • Also ich muss sagen, ich bin von diesem Update ziemlich enttäuscht. Ich kenne einige Seiten, deren Linkprofil zu 90% aus totalem Spam besteht und vom Update unberührt geblieben sind. Im Gegenteil, ich sehe abgestrafte Seiten wieder nach oben rutschen, die neben Spamlinks auch miese Inhalte haben, halb fertige Sätze, fragwürdiges Deutsch, Keyword stuffing etc.


Kommentar schreiben

Hinweis: Wenn ihr hier keinen Namen eintragt (sondern ein Keyword) oder uns euer Eintrag zu werblich erscheint, behalten wir uns das Recht vor, euren Kommentar zu löschen oder zu editieren. Spart euch sowas hier also bitte!

Des Weiteren erteilt ihr mit der Abgabe eures Kommentars eure Erlaubnis, dass eure Daten von blog.searchmetrics.com/de/ gespeichert werden. Zur Übersicht über die Kommentare und zur Vermeidung von Missbrauch, speichert diese Website Name, E-Mail-Adresse, Kommentar sowie die IP-Adresse und den Zeitstempel eures Kommentars. Die Kommentare können jederzeit wieder gelöscht werden. Detaillierte Informationen findet ihr in unserer Datenschutz-Erklärung.