Die Rückkehr des Phantoms: Googles Phantom II Update

12. Juni 2015 | Analysen 16 Kommentare

Seit Anfang Mai 2015 bemerken viele Webmaster rund um den Globus Traffic-Veränderungen – einige Seiten berichten von bis zu 50 Prozent Traffic-Verlusten! Weil der Grund dafür anfangs nicht ganz klar war – und es zunächst auch keine Bestätigung durch Google für ein Update gab – wurde es zunächst “Phantom Update II” getauft. In diesem Blogpost werde ich mit Searchmetrics-Daten versuchen, die Rückkehr des Phantoms zu beleuchten.

Google Phantom II Update

Es dauerte nicht lange, bis die ersten Analysen und Interpretationsversuche entstanden, als Webmaster und Online- bzw. Content Marketer Veränderungen in Rankings und Traffic bemerkt hatten. Als einer der ersten veröffentlichte Digital-Marketing-Veteran Glenn Gabe eine Analyse und gab den mysteriösen Ranking-Veränderungen den Namen “Phantom Update II” – weil er ähnlich undurchsichtige Ranking-Veränderungen im Google-Index auch schon vor ziemlich genau zwei Jahren beobachtet hatte.

Schließlich erhielt Barry Schwartz von Search Engine Land nach eigenen Angaben eine Bestätigung durch Google für dieses Update. Google habe mitgeteilt, dass es “Änderungen im Kern des Ranking-Algorithmus” gegeben habe im Hinblick darauf, wie “Qualitäts-Signale” einfließen, schreibt Schwartz in seinem Beitrag Mitte Mai.

Klar ist deshalb: Wir sehen keine Geister! Um Phantom II zu verstehen, haben wir unsere Database gescannt, um für euch die Gewinner und Verlierer dieses Google-Updates nach SEO Visibility zu ermitteln.

Jetzt Visibility mit Searchmetrics Suite checken

Du willst deine eigene SEO Visibility checken? Du brauchst nicht einmal einen Login um deine aktuelle Performance, die wöchentlichen Gewinner & Loser oder die Desktop vs. Mobile Top Ten zu analysieren:

Jetzt SEO Visiblity mit Searchmetrics Suite checken

.

Phantom vs. Quality Update vs. Reverse Panda

Viel Konfusion, wenig Klarheit: Das Update hatte viele Namen. Zu Beginn wurde das Update noch “Phantom II” genannt, anschließend “Quality Update” und schließlich auch noch “Reverse Panda”. Um jetzt Konfusionen zu vermeiden, werde ich das Update “Phantom II” nennen (und die Anführungszeichen künftig weglassen), weil es einige Auffälligkeiten hat, die es zu mehr als einem “Reverse Panda” machen. Gleichfalls war “Panda” ebenfalls ein “Quality Update”.

Bevor ich näher in die Analyse der Gewinner und Verlierer einsteige, will ich euch einen Überblick zum aktuellen Wissenstand bezüglich Phantom II geben.

  1. Dieses Update ist ein Qualitätsfilter, der in den Kern des Ranking-Algorithmus einfließt; Google hat die Bedeutung von Qualitäts-Signalen für das Ranking angepasst. Deshalb ist es kein manuelles Update, sondern bewertet ad hoc die Qualität einer Landing Page. Webmaster, Content- bzw. Online-Marketer können also jederzeit mit Ranking-Änderungen rechnen, wenn sie an einem Web-Projekt arbeiten.
    .
  2. Phantom II arbeitet seitenbasiert. Das Update wirkt sich also nur auf einzelne Landing Pages aus und beeinflusst nicht die gesamte Domain. Jedoch kann sich auch eine Änderung dieser einzelnen Landing Pages indirekt auf die Gesamt-Domain auswirken.
    .
  3. Viele Websites, die von Phantom II betroffen sind, wurden bereits zuvor zum Ziel von Panda. Dies ist ein Grund für die Annahme vieler Webmaster, dass dieses Update vielleicht “nur” ein Panda-Refresh ist oder dass Panda nun in den Kern von Googles Ranking-Algorithmus implementiert worden ist (Dies ist eines der längerfristigen Ziele von Google). Ebenfalls erfuhr diese These starke Beachtung, weil Panda seit Oktober 2014 nicht mehr geupdated wurde. Jedoch hat Google Anfang Juni angekündigt, dass in den kommenden Wochen mit einem Panda-Update zu rechnen sein wird.
    .
  4. Das Update wirkte sich stark auf “How to”-Webseiten aus. Der Grund liegt weniger im Inhalt dieser Seiten als vielmehr darin, wie diese Websites funktionieren (viel User-generated Content) und Geld verdienen (viele Anzeigen).
    .
  5. Der Rollout des Updates dauerte mehrere Wochen. Bei einigen Websites ging es über Wochen hinweg Stück für Stück nach unten bzw. nach oben; andere Seiten verloren Rankings über Nacht. Die Art und Weise, wie diese Seiten Traffic verloren haben, scheinen mit der “Schwere” der Website-Probleme verbunden zu sein.
    .
  6. Viele große Brands haben Verluste zu verzeichnen. Es scheint, als ob der Brand-Bonus und die Brand-Authority nicht länger ausreichend sind, um in den Rankings vor anderen, qualitativ vielleicht hochwertigeren Seiten zu landen. Trotzdem gilt dies nicht absolut: Teilweise zählen auch große Brands zu den Phantom II-Gewinnern.
    .
  7. Wie bei allen Google-Updates ist es schwierig, eine kausale Beziehung zwischen Erfolg einer Website und den Verlusten einer anderen zu ziehen. In diesem Fall scheint die Wirkung zweigeteilt zu sein: Es gab nicht nur Verlierer, sondern es wurden auch “gute” Webseiten mit Ranking-Gewinnen belohnt. Dies erlaubt es uns, Gewinner und Verlierer etwas klarer zu identifizieren, als dies bei anderen Google-Updates der Fall war.

Nach unseren Daten liegt der Beginn des Phantom II-Rollout irgendwo zwischen dem 26. April und dem 3. Mai 2015.  Basierend auf Informationen aus anderen Quellen und Erfahrungswerten, nach denen Google neigt dazu, Updates über das Wochenende auszurollen, würde ich sagen, dass Phantom II für google.com in der Nacht des 2. Mai veröffentlicht wurde. Für andere Länder, wie auch Deutschland, wahrscheinlich etwas später.

Google Phantom II-Update: Gewinner & Verlierer

Für die folgende Tabelle haben wir jene Websites ermittelt, die durch das Google Phantom II-Update prozentual am meisten zugelegt bzw. verloren haben.

.

Phantom II Gewinner Phantom II Verlierer
Domain Gewinn Domain Verlust
flip4new.de 218% onlinespiele.org -63%
aktuelle-kalenderwoche.com 154% mycare.de -52%
schlafwelt.de 160% autokostencheck.de -52%
billigfluege.de 134% medizinfo.de -40%
pkw.de 183% gelbeseiten.de -37%
westwing.de 190% lebensmittellexikon.de -36%
planet-sports.de 145% bewerbung-tipps.com -36%
united-domains.de 215% tagesgeld.org -35%
heyevent.de 201% spielen.de -33%
ottogroup.com 149% tagesgeldvergleich.com -33%
vine.co 154% freeware.de -32%
vetalio.de 141% prisma.de -32%
stadt-bremerhaven.de 160% auto-motor-und-sport.de -30%
smartsteuer.de 148% geizhals.de -30%
1001spiele.de 138% helpster.de -28%
obi.de 131% apotheke.de -25%
astroportal.com 128% pcwelt.de -23%
sparhandy.de 138% kuechengoetter.de -23%
kununu.com 123% inside-handy.de -20%
eatsmarter.de 121% galeria-kaufhof.de -12%

.

Nicht vergessen: Die Gewinne bzw. Verluste sind relative Prozentwerte. Würden wir diese Liste nach absoluten Werten ordnen, ergäbe sich folgendes Bild: Focus.de wäre der Top-Gewinner des Phantom-Updates, gefolgt von otto.de und xing.de.

Die Liste der absoluten Verlierer würde pcwelt.de anführen, gefolgt hier von den Domains gelbeseiten.de und auto-motor-und-sport.de.

Beispielanalyse: Was stößt dem Phantom II negativ auf?

Schauen wir auf die Verlierer-Seiten, wird schnell klar, welche Elemente zu Punktabzügen durch das Phantom II-Update führen:

1. Werbung above the fold und Pop-Ups

Zu viel Werbung above the fold, also auf dem Seitenausschnitt, der nach dem Aufruf ohne Scrollen sichtbar ist, hat offenbar negative Auswirkungen.

Google hat vielleicht Messungen vorgenommen, wie störend diese Anzeigen wirken, indem Nutzer-Signale wie Bounce-Rate, Seiten-Besuchszeit oder Seiten pro Visit ausgewertet wurden. Es könnte sein, dass dieser Faktor stärker als bisher gewichtet wurde.

Es gibt eine Hierarchie der “Nervigkeit” von Anzeigen. Ganz vorn liegen Pop-ups; alle anderen Anzeigen, einschließlich Banner, liegen auf der “Nerv”-Skala darunter. Auch wird Google das Verhältnis von Content zu Anzeigen mit in die Berechnung einbeziehen.

2. Automatisch startende Videos

Videos, die automatisch starten, haben eine ähnliche Wirkung wie Pop-Ups: Sie stören die User Experience. Eigentlich gehören sie in die Kategorie Werbung, aber ich wollte sie separat aufzulisten, weil ihre Bedeutung in der Qualitätsbewertung einer Seite gewachsen zu sein scheint.

Ebenfalls dürfte Google das Problem kennen, wenn man sich erst durch alle geöffneten Tabs klicken muss, um herauszufinden, woher die geheimnisvolle Musik herkommt. Ebenfalls dürfte Google das Problem kennen, wenn Nutzer durch den automatischen Videostart vom ruhigen Lesen einer Seite abgelenkt werden.

 3. Duplicate Content

Duplicate Content ist ein absolutes No-Go mit Phantom II , vor allem im Umgang mit UGC (User Generated Content), der oft auf “How to” Plattformen zu finden ist. Ein Beispiel in unserer Verlierer-Liste ist kuechengoetter.de: Die Rezepte-Website, die zum großen Teil auf User-generierte Inhalte setzt, büßte ein Viertel ihrer Visibility ein:

SEO Visibility küchengötter.de

 4. Geringwertiger Content

Neben Duplicate Content und Thin Content ist auch geringwertiger Content ein weiterer Faktor, warum eine Website negativ vom Phantom II-Update betroffen sein kann. “Schlecht” kann Content dann sein, wenn er a) eine Kopie ist, b) schwer zu lesen ist oder c) nicht wirklich das Thema erklärt.

Für eine detailliertere Analyse kann z.B. die Searchmetrics Content Optimization helfen, um etwa Nebenthemen zu identifizieren. Schreibt ihr etwa einen Artikel über “Reifen”, erwähnt dabei aber nicht das Wort “Auto”, kann dieser Artikel nicht wirklich informativ sein. Ein Beispiel aus unserer Verliererliste ist autokostencheck.de – neben dem Content-Problem könnte auch die Vielzahl von Werbung above the fold für die Visibility-Verluste mitverantwortlich sein.

autokostencheck.de - Screenshot

Könnte also sein, dass die User Signals für autokostencheck.de negativ waren – und die Seite in der Folge durch das Phantom II-Update abgestraft wurde. Die Visibility von autokostencheck.de hat sich entsprechend halbiert:

SEO Visibility autokostencheck.de

5. Design

Guter Content ist wichtig, bedeutet jedoch nicht alles. Unsere Analyse zeigt auch, dass Websites mit starken Inhalten, aber schwachem Design in der Visibility verloren haben. Ein Beispiel in unserer Verlierer-Liste ist medizinfo.de:

medizinfo.de - Screenshot

Die Startseite hat zwar viel Content zum Thema, jedoch ist das Design extrem textlastig – dies könnte zulasten der User Experience gehen. Zudem überlagert die Werbung am rechten Seitenrand einen Teil des Contents. Resultat ist ein Visibility-Abfall für medizinfo.de in den vergangenen Wochen um 40 Prozentpunkte:

SEO Visibility medizinfo.de

6. 404-Fehler

Ebenfalls können Seiten mit 404-Fehlern zu Problemen führen, weil sie eine schlechte Nutzererfahrung bieten. Entweder bietet die Seite gar keinen Inhalt oder nicht den Content, nach dem der Nutzer gesucht hat. Eine Website mit einer hohen Zahl an 404-Fehlern gilt als Indikator für eine schlecht gewartete Seite.

7. Probleme mit Kommentaren

Zu viele Kommentare können auch ein Ziel von Phantom II sein. Wir sind uns nicht sicher, inwiefern Google sauber zwischen Kommentaren und dem Haupt-Content einer Website unterscheiden kann. So gibt es Seiten, die von Phantom II abgestraft wurden, weil der Inhalt der Seit zu 60 Prozent aus Kommentaren bestand – obwohl der Haupt-Content noch immer mehr als 1000 Wörter umfasste.

.

Fazit: Phantom II Update

  • Das Phantom II-Update wurde von Google bestätigt. Es ist ein Qualitätsfilter, der in den Kern des Ranking-Algorithmus einfließt. Der Rollout begann Ende April / Anfang Mai und dauerte offenbar über einen längeren Zeitraum.
  • Große Brands sind unter den Gewinnern & Verlieren. Gewinner: billigfluege.de, pkw.de, obi.de. Verlierer: auto-motor-und-sport.de, kuechengoetter.de, pcwelt.de
  • Phantom Ansätze: Zu viel Werbung, vor allem Pop-Ups, Duplicate & schlechter Content, 404-Seiten, schlechte User Signals und eventuell zu viele Kommentare.

Was ihr tun solltet, wäre also: Werbung reduzieren, Thin Content Pages reduzieren, Seiten mit schlechten Usersignalen entweder überarbeiten oder eventuell sogar deindexieren (noindex), Kommentare im Griff behalten, 404 im Griff behalten. Das genaue Procedere ist natürlich je Seite individuell unterschiedlich.

Brauchst du Unterstützung bei deinem Web-Projekt oder weitere Informationen zur Searchmetrics Suite? Wir helfen gern:

Noch keinen Account? Jetzt Demo anfordern!

Habt ihr Fragen, Anregungen oder Gedanken zum Phantom II Update? Ich freue mich über eure Meinung in den Kommentaren!

.

Dies ist nur ein Gravatar

Kevin Indig ist SEO Consultant im Searchmetrics Professional Services Team. Er berät Unternehmen bei der Definition und Durchführung von SEO Strategien in verschiedensten Branchen.
Alle Artikel von anzeigen.

Kommentare (13)

  1. 17. Jun. 2015 13.26 Uhr

    Hallo Kevin,

    gerade in Bezug auf doppelten Content würde ich nochmals auf die Kommentare von Gary Illyes hinweisen, die er auf der SMX Advanced gemacht hat (http://searchengineland.com/ama-google-search-live-blog-222206). Dort sagte er zum DC auf die Frage von Danny Sullivan:
    S: So should people not worry about having two similar pages?

    GI: I think there are better things to worry about. We can generally do a good job of figuring out which page is better. In general, we want to show one URL per piece of content.

    Oder glaubst du der Aussage von Google da eher nicht, da du die Daten einfach analysiert hast?

  2. 22. Jun. 2015 10.59 Uhr

    Hallo, vielen Dank für den informativen Beitrag.
    Ich habe eine Frage zu schlechtem Content.
    Bei b) steht: “b) schwer zu lesen”
    Ist damit die Schriftgröße gemeint oder kann Google jetzt die intellektuelle Schwierigkeit eines Textes verstehen?

  3. 22. Jun. 2015 19.41 Uhr

    Hey Jannic,

    gute Frage! Ich meine damit die Schwierigkeit des Textes, weniger die Schriftgröße. In extremen Fällen kann sich jedoch die Schriftgröße negativ auf die User Experience und damit User-Signale auswirken.

  4. 22. Jun. 2015 19.47 Uhr

    Hey Tobias,

    ich glaube der Kommentar von Gary Illes ist etwas differenzierter zu betrachten: Google wird zwar immer besser darin mit DC umzugehen, jedoch handelt es sich immer noch um eine Maschine. Ein Mensch kann in vielen Fällen einen logischen Zusammenhang herstellen, für eine Maschine ist dies nicht möglich. Außerdem stoßen wir regelmäßig auf Rankingprobleme aufgrund von DC.
    Ein weiterer Gedanke zu diesem Kommentar ist die Übersetzung: Illes hat gesagt “There is no duplicate content penalty”. Ich persönlich glaube er meint es gibt keine reine DC-Penalty, jedoch bin ich sicher dass DC in einige Qualitätsfilter wie “Panda” oder eben “Phantom II” mit reinspielt.

  5. 23. Jun. 2015 20.44 Uhr

    Hi Kevin,

    vielen Dank für den Beitrag. Ich möchte auch gern an Jannics Frage anknüpfen: ich verstehe nicht so recht was die Schwierigkeit eines Textes sein soll. Also dass Google das semantische Umfeld auslesen kann ist mir klar (Bsp Reifen – Auto), und dass DC zumindest suboptimal ist, verstehe ich auch. Aber Schwierigkeit? Sollen wir medizinische fachartikel und akdemische Publikationen jetzt auf Bild Niveau runterschrauben? Misst Google die Zahl an Fremdwörtern? Ich verstehe es wirklich nicht…

  6. 23. Jun. 2015 21.43 Uhr

    Hi Lydia,

    der Schweregrad eines Textes sollte an der Zielgruppe bemessen sein. Ich persönlich denke, dass das auch das Ziel Google’s ist: Zu verstehen wie schwer ein Text lesbar sein sollte gemessen am Thema des Textes / der Seite. Generell sollte es reichen einen ordentlichen Text zu schreiben, der dem User Antworten liefert und in auf der Seite hält.

  7. 02. Jul. 2015 07.58 Uhr

    Eigentlich ganz einfach: Produziere Deine Inhalte so, dass Deine Seitenbesucher möglichst lange auf Deiner Seite zum gewünschten Keyword verweilen. Ich glaube viele stellen es sich viel zu kompliziert mit semantischem Umfeld usw. vor. Google sieht anhand der Verweildauer ob das Thema auf der Seite für die Besucher interessant ist und nicht (nur) an den Inhalten. Es gibt einige Beispiele wo Seiten mit interessanten Videos, Grafiken oder kostenlosen Tools etc. gute Rankings erzielen, auch wenn da weniger oder kaum Textinhalte vorhanden sind.

  8. 02. Jul. 2015 15.42 Uhr

    Hi Florian,

    ich gebe dir Recht in dem Punkt, dass guter Content nicht automatisch guter Text heißen muss. Die Frage nach Seiteninhalten, die User auf der Seite halten, ist etwas komplizierter: wie genau sehen die aus? Der Ansatz ist natürlich richtig, aber in der Umsetzung mangelt es oft. Wie würdest du das konkret angehen?

  9. 02. Jul. 2015 18.57 Uhr

    Hi Kevin, es kommt immer auf das Thema, das Ziel des Seitenbetreibers etc. an. Einfaches Beispiel bei uns. Wir haben vorletztes Jahr ein kostenloses WDF*IDF Tool (www.wdfidf-tool.com) gelauncht und hatten dort nicht eine einzige Textstelle auf der Seite bei der “Onpage Tool” auf der Seite stand. Die Besucher haben uns trotzdem in diesem Zusammenhang (Rankings in ähnlichem Umfeld) gefunden und das Angebot ausgiebig genutzt. Ein paar Abfragen und man ist automatisch einige Minuten auf der Seite. Dadurch hatten wir eben nicht nur Rankings mit Suchbegriffen die wir auf der Seite stehen haben, sondern eben auch andere. Übrigens haben wir jetzt auch diese Suchword-Kombi eingebaut und sind da noch 2, 3 Plätze weiter nach oben gerutscht :)

  10. 02. Jul. 2015 19.21 Uhr

    Also habt ihr mit Text doch euer Ranking verbessert ;-)!? Versteh’ mich nicht falsch, ich finde die Seite sehr gut und euren Ansatz auch. Man kann nicht für jede Seite
    ein Tool bauen, aber ich mag euren Content-Ansatz.

  11. 02. Jul. 2015 21.56 Uhr

    Sagen wir mal so: Wenn Du “auf einmal” in den top 10 bei Google mit interessanten Rankings stehst, dann guckst Du natürlich wie du das weiterhin optimieren kannst – und ja, dann haben wir natürlich an ein paar weiteren Stellschrauben gedreht :)
    Ein Tool für jede Seite geht natürlich nicht, klar. Aber es gibt auch viele andere Möglichkeiten – man muss nur genug Einfallsreichtum haben :)

  12. 02. Jul. 2015 22.10 Uhr

    Ja, da hast du völlig recht! Interessant aber, dass der Textcontent es letztendlich nochmal nach oben katapultiert hat. Kommt natürlich auch immer auf die Art des Contents an: Beschreibung, Q&A, Bewertung, Anleitung, etc.

  13. 27. Nov. 2015 20.04 Uhr

    Wenn Duplicate Content ein No-Go ist – warum ist dann heyevent.de in der Liste der Gewinner? Die machen doch nichts anderes als Facebook-Inhalte 1:1 auf ihrer Webseite anzuzeigen. Ist mir ein Rätsel, warum die nicht rausfliegen …

Trackbacks (3)

  1. 18. Jun. 2015 13.23 Uhr

    […] Seit Anfang Mai 2015 bemerken viele Webmaster rund um den Globus Traffic-Veränderungen – einige Seiten berichten von bis zu 50 Prozent Traffic-Verlusten! Weil der Grund dafür anfangs nicht ganz klar war, wurde es zunächst „Phantom Update II“ getauft. … lesen Sie weiter! […]

  2. 15. Jul. 2016 14.42 Uhr

    […] Google Phantom Update II – Searchmetrics wertet aus […]

Hinterlasse eine Antwort

Hinweis: Wenn Du hier keinen Namen einträgst (sondern ein Keyword) oder mir Dein Eintrag zu werbelastig erscheint, behalte ich mir das Recht vor Deinen Kommentar zu löschen oder zu editieren. Spart euch sowas hier also bitte!