searchmetrics email facebook github gplus instagram linkedin phone rss twitter whatsapp youtube arrow-right chevron-up chevron-down chevron-left chevron-right clock close menu search
1066510665

Google Phantom V Update: Kommando zurück?!

In den letzten Wochen gab es wieder einige Bewegung in den Ranking-Daten, die zuletzt in einigen sehr eindeutigen Ausschlägen Ende der vergangenen Woche (KW 6/2017) gipfelten. Es gibt teilweise Schwankungen und Hinweise, die in Richtung Mobile gehen, sodass Spekulationen über ein eventuell erfolgtes Rollout von “Mobile-First” die Runde machen. Auch ein Impact der Herabstufung von Seiten, die Interstitals beim Aufrufen über Mobile Devices einblenden, wurde vermutet. Angesichts der betroffenen Seiten sehen wir hingegen ein bekanntes Muster, das auf ein weiteres Phantom-Update hindeutet.

Searchmetrics - Google Phantom 5 Update

Damit wäre es mittlerweile die fünfte Rückkehr des Phantoms. Warum wir das vermuten? Ganz einfach: Unter den betroffenen Seiten sind sehr viele Domains, die wir schon aus den bisher erfolgten Analysen zu Phantom-Updates kennen. Charakteristisch im Muster sind hier die länger andauernden Schwankungen, keine pauschalen Verlierer nach Branchen-Zugehörigkeit, sowie ein Auf-und-Ab für viele Seiten – je nach Iteration. Angesichts dieser Achterbahnfahrten kann man sich durchaus fragen: Was will Google eigentlich?

 

Google Phantom Updates – Was bisher geschah

Womit sich das – bisher nicht offiziell von Google bestätigte – Phantom Update und seine (bisher 4) Iterationen von Google beschäftigt, haben wir in unseren letzten Beiträgen zum Thema schon des Öfteren ausführlich dargelegt. Hier noch einmal eine kleine Übersicht.

Was fällt auf? Bei dem zunächst auch oft als “Quality Update” bezeichneten Update scheint sich zuletzt ein regelmäßiger Halbjahres-Rhythmus eingestellt zu haben. Interessant ist dabei, dass regelmäßig bekannte Gesichter unter den Gewinnern und Verlierern anzutreffen sind – die jedoch nicht über einen kontinuierlichen Abwärts- oder Aufwärts-Trend, sondern ein stetiges Hin-und-Her auffallen.

Korrigiert Google hier kontinuierlich etwaig begangene “Fehler”? Dieses Hin-und-Her spricht dafür, dass die Suchmaschine mit den erzielten Auswirkungen der jeweiligen Updates nicht zufrieden ist. Leidtragende sind die Domains, die – zumindest für einen bestimmten Zeitraum – unter teilweise erheblichen Visibility-Einbußen leiden müssen.

SEO Visibility vs. Traffic – tatsächliche Auswirkungen unterscheiden sich

Auf der anderen Seite hört man von einigen Seitenbetreibern, dass die Schwankungen Seitenbereiche bzw. Rankings auf für Traffic irrelevanten Keywords betreffen, und somit ein Großteil des relevanten Traffics vom Phantom gar nicht – oder nur minimal – betroffen ist, auch wenn die SEO Visibility teilweise deutliche Ausschläge aufweist.

Das kommt natürlich darauf an, worüber man den Traffic bekommt. Das Phantom jedenfalls konzentriert sich in der Regel auf hochvolumigen Shorthead und Brand-Keywords.

 

Worauf zielt das Phantom ab?

Der Fokus der Phantom-Updates war zwar bislang – und ist auch jetzt nicht – trennscharf abzugrenzen, aber dennoch lassen sich einige Muster und Charakteristika des Filters erkennen, die immer wiederkehren. Diese sind eher “weiche Faktoren” zur Bewertung einer Seite – und gerade deshalb wohl (auch für Google) so schwer zu definieren. Eine kurze Zusammenfassung der wichtigsten wiederkehrenden Beobachtungen:

  • im Fokus steht die “Qualität” von Online-Inhalten (die komplex bewertet werden kann/muss)
  • das Update arbeitet seitenbasiert – einzelne Seiten und/oder Verzeichnisse sind betroffen, nicht ganze Domains
  • das Rollout zieht sich oft über mehrere Wochen hin
  • oft sind große Brands unter den Gewinnern/Verlierern
  • Domains sind oft mehrmals von verschiedenen Updates betroffen – allerdings als Gewinner und Verlierer
  • Die Gewinne/Verluste spielen sich häufig auf Brand- und/oder Shorthead-Keywords ab
  • User Signale scheinen eine Rolle bei der Bewertung zu spielen – die Nutzerintention steht im Vordergrund

 

Aktuelle “Gewinner und Verlierer” von Phantom 5

Schauen wir uns einige Seiten an, die von der aktuellen Phantom-Iteration betroffen sind. Einen besonderen Blick widmen wir hierbei den “alten Bekannten” aus vorigen Phantom Updates.

 

Verlierer des Google Phantom V Updates:

12gebrauchtwagen.de (Phantom 4 Gewinner)

phantom5-12gebrauchtwagende-searchmetrics

pcwelt.de (Phantom 4 Gewinner)

phantom5-pcweltde-searchmetrics

daskochrezept.de (Phantom 4 Gewinner)

phantom5-daskochrezeptde-searchmetrics

dielottozahlende.net (Phantom 3 Gewinner)

phantom5-dielottozahelnde.net-searchmetrics

schlafwelt.de  (Phantom 4 Verlierer)

phantom5-schlafweltde-searchmetrics

Gewinner des Google Phantom V Updates:

leo.org (Phantom 4 Verlierer)

phantom5-leoorg-searchmetrics

idealo.de (Phantom 4 Verlierer)

phantom5-ideaode-searchmetrics

billiger.de (Phantom 4 Verlierer)

phantom5-billigerde-searchmetrics

woxikon.de (Phantom 3 Verlierer)

phantom5-woxikonde-searchmetrics

onmeda.de (Phantom 4 Verlierer)

phantom5-onmedade-searchmetrics

Hier wird die Achterbahnfahrt besonders deutlich. Verlierer > Gewinner > Verlierer > jetzt wieder Gewinner.

An den Kurven wird eines deutlich: Im Gegensatz zu früheren Phantom Updates, bei denen der Filter über mehrere Wochen ausgerollt wurde, sind diesmal die Ausschläge insbesondere im Vergleich zur Vorwoche, sehr ausgeprägt. Ob und wie es weitere Auswirkungen gibt, bleibt abzuwarten.

Auswirkungen auch bei bisher nicht vom Phantom betroffenen Domains:

Darüber hinaus sind auch ein paar bislang nicht vom Phantom affektierten Seiten unter den Seiten mit Ausschlägen in der SEO Visibility. So ist ebay-kleinanzeigen.de zum Beispiel der Top-Gewinner (nach absolutem Gewinn). Generell befinden sich einige Domains aus dem Bereich E-Commerce in den Gewinner- und Verliererlisten. Allerdings mag dies daran liegen, dass Brand- und Shorthead-Keywords betroffen werden, und nicht weil Phantom explizit auf die E-Commerce-Branche abzielt. Insgesamt lesen sich die Gewinner der aktuellen Woche jedoch wie eine Auswahl der bisherigen Domains im Phantom-Fokus:

Phantom 5 Gewinner KW7-DE - Searchmetrics

Reddit.com dagegen hat (auch in den USA) einen ziemlich hohen prozentualen Verlust von-22% zu verzeichnen – und weist zudem einen merkwürdigen Verlauf der Mobile SEO Visibility (grün) auf, der vor dem letztendlichen Absturz auffällt. Ob hier ein Zusammenhang zu “Mobile-First” vorliegt, ist jedoch fragwürdig und bleibt abzuwarten. Als durchgängiges Muster lässt sich dies jedenfalls nicht erkennen. Im Fall von Reddit könnte das unter Umständen eher an (technischen) Problemen mit der Mobilseite liegen.

phantom5-redditcom-searchmetrics

Dagegen fallen sehr wohl als Muster (nicht häufig, aber auch nicht als Einzelfall) Kurven wie die von linguee.com auf, bei denen die Visibility über die letzten Wochen erst gestiegen, und nun wieder auf den Ursprungswert zurückgegangen ist.

phantom5-lingueecom-searchmetricsSieht aus, als hätte Google hier getestet.  Im US-Index Google.com ist dieses Muster übrigens deutlich präsenter.

 

Fazit: Google-Achterbahn für Brands auf Marken- und Shorthead-Keywords

Google scheint echte Probleme bei der Relevanzbewertung für größere Seiten zu haben, wenn es um Brand- und Shorthead-Keywords geht. Es sieht so aus, als würden hier in regelmäßigen Abständen die Stellschrauben zur Qualitätseinstufung justiert werden, was zur Folge hat, das die SEO Visibility der betroffenen Domains von teilweise sehr starken Schwankungen betroffen ist. Diese dürften das einerseits nicht gerade lustig finden, WENN es sich dabei um für sie relevante Keyword-Rankings und damit relevanten Traffic handelt. Denn andererseits ist es für einige betroffene Brands eben auch nicht sinnvoll, beispielsweise für fremde Markennamen zu ranken, der sich zwar in einer höheren SEO Visibility wiederspiegelt, aber sich daraus für sie kein relevanter Traffic ergibt. Eben genau das könnte Google auch herauszufinden versuchen.

Wir sind gespannt, wie die Achterbahnfahrt weitergeht, ob sie ein Ende haben wird und freuen uns natürlich über Kommentare – insbesondere über Insights zu Auswirkungen auf den realen Traffic.

 

 

Daniel Furch

Daniel Furch

Als Director leitete Daniel das Marketing-Team für EMEA bei Searchmetrics. In dieser Funktion, und damit auch als internes Bindeglied zu anderen Abteilungen wie Produkt, Sales, Customer Success, Consulting, Data Science und Grafik, war Daniel einerseits verantwortlich für die Konzeption sowie strategische Ausrichtung der internen und externen Kommunikation und andererseits für die Planung, Ausrichtung und Performance der Marketingkanäle.

34 thoughts on “Google Phantom V Update: Kommando zurück?!


  • Hallo,

    mir ist aufgefallen, dass bei vielen Domains, die an Sichtbarkeit verloren haben, in der Search Console zum Teil erheblich mehr Impressionen und Clicks angefallen sind. Haben andere ähnliche Beobachtungen gemacht?

  • Mit welchem Tool macht ihr eure Tests?

  • Hallo,

    mich hat’s leider auch mit – 28 % erwischt das tut echt weh!

    Gruß Silvio Overlach

  • Hallo,
    mir ist aufgefallen das es gerade neuere Websites stark nach oben geschoben hat, die sehr wenig backlinks haben und auch vom Content her eher mittelmäßig waren. Warum ist mir schleierhaft. Mir kommt es so vor das es immer mehr Richtung mobil first geht, ehr puristisch und schlicht als überladen. Gruß Robert

  • Deckt sich mit dem, was ich bisher so sehe. Was mir auffiel: teils sind Desktop- und Mobilsichtbarkeit bei den Schwankungen sehr entkoppelt. Aktell bei den von mir beobachteten Seiten zu kurz, um was sicheres zu sagen, aber ich meine, ich hätte es in der Form noch nicht gesehen, dass man auf dem Desktop den Ausschlag hat und mobil nicht.
    …was angesichts des “gestreckten” Rollots nichts ist, was nicht noch werden/sich angleichen könnte, aber würde mich interessieren, ob dir was ähnliches über den Weg lief, grade auch im Kontext “kommendes Mobile First”-Indexgedöns.

  • Kann ich so pauschal erst einmal nicht bestätigen, Richie. Ich habe gerade noch einmal ein paar Stichproben gemacht. Bei (fast) allen, die ich mir angeschaut habe, sind die Verläufe von Mobile und Desktop Visibility nicht entkoppelt. Einige Unregelmäßigkeiten sehe ich zwar, aber das können auch “normale” Fluktuationen sein. Außer bei leo.org. – die sind mobil genau so abgestürzt wie sie Desktop gewonnen haben (und haben jetzt einen 50%-Gap). Interessant. Wir behalten das mal im Auge.

    @Fred: Kein Tool, sondern eine Plattform :-) Klick mal auf die Links, die auf den Domains sitzen.

  • Absolut gut erkannt alles, genauso nehmen wir es wahr!

    Mal gespannt, ob es noch konkretere Ideen gibt, woran die Schwankungen aktuell festzumachen sind?

  • Bei mir sind einzelne Unterseiten aus dem Index gefallen die vorher gerade auf dem Weg in die Top 20 waren. Es kann weder an Nutzersignalen noch an dem Content liegen. Ich denke Google hat versucht schlechte Links noch besser erkennen zu können. Jedoch scheint dieser neue Algorithmus noch nicht ganz perfekt ausgereift zu sein und deswegen rudert Google jetzt ganz schön zurück.

  • Ich beobachte das Ranking vieler Affiliate-Nischenseiten seit langer Zeit. Mir ist aufgefallen, dass viele Anfang Februar im Ranking bei Shorttails teilweise stark an Ranking eingebüßt haben. Das sind alles Seiten, die responsive angezeigt werden.
    Seht ihr hier einen Zusammenhang?
    Grüße von Mario

  • Hallo Mario, habe ich mir noch nicht genauer angesehen. Funktioniert denn der Umkehrschluss auch? Also hast Du auch beobachtet, dass Seiten, die nicht responsive sind, stabil blieben?

  • Muss mich auch nachkorrigieren, das läuft nun bei einigen Domains zeitversetzt ein – teils gleichzeitig mobil/desktop, teils mobil ein bis zwei Wochen verzögert. siehst ja auch beim leo.org-Beispiel jetzt, wie mobil nachzieht.

  • Hallo Daniel,

    “Gewinner” im Ranking bei meiner Recherche waren meist Portale wie Amazon, Conrad, Idealo und Co. Die sind ja alle responsive. Dass eine nicht responsive Seite stabil blieb, habe ich noch nicht beobachtet.

  • Ähnlich sieht es auch bei uns aus. Glücklicherweise nur Gewinner und keine Verlierer. Allerdings, die tatsächlichen Veränderungen im Ranking spielten sich beinahe ausschließlich erst ab SERP 2 ab, mit vielen neuen Rankings. Dennoch konnten Seiten teilweise bis zu einem drittel mehr Traffic einfahren. Interessant! Und es bleibt spannend…

  • Hi Michael, interessant! Heißt das, ihr seid neu auf der SERP 2 mit neuen Keywords eingestiegen (also nicht von SERP 2 mit bestehenden Rankngs auf SERP 1, oder?)? Gehen die Keywords auch in die Richtung Brand und Shorthead? Und: Hattet ihr für die Keywords (vorher schon einmal) Rankings oder sind die völlig neu? mich würde auch interessieren, wie sich der Traffic und die Ranking langfristig entwickeln – denn es sieht ja schon so aus, als würde Google diesbezüglich eine Menge testen (das zeigt ja das Hin-und-Her).

  • @Richie: Bei uns war dektop und mobl auch zeitlich verzögert, dazwischen lagen etwas 10 Tage

  • Hallo Daniel, ja, es geht vor allem um Shortheads, die für die jeweiligen Seiten absolut einschlägig sind. Ebenso gab es für die entsprechenden Keywords bereits relevanten und qualitativen Content, manchmal sogar schon seit einem halben Jahr. Der entsprechende Aufwärtstrend ist aber auch schon ab Ende Januar zu beobachten, wobei er mit eurem Crawling am 12.2 extrem wird, was ja, glaube ich, für die nicht punktuelle Ausspielung der Updates spricht. Bei Interesse, kann ich dir gerne ein paar Verläufe schicken. Die Rankings sind entweder völlig neu oder es gab mal Rankings für 2-3 Wochen und dann wieder für mehrere Monate nicht. Dabei sind die stärksten Gewinner eben ab Seite 2 bis … zu finden (Neueinsteiger und starke Aufsteiger). Nach einem kurzen Blick heute würde ich sagen der Trend hält weiter an, wenn auch nicht so deutlich wie vorher. Allerdings: Einige der Keywords sind jetzt auch auf Seite 1. Langfristig blieben Visibility und Traffic stabil, bis leicht aufsteigend. Aber ab Ende Januar sehr deutlich: Wie gesagt, Seiten haben teilweise bis 1/3 oder 1/4 mehr Traffic. Wobei von unseren ca. 20 Seiten sind zirka 1/3 von den positiven Entwicklungen betroffen. Negative gab es keine und bei den anderen läuft alles wie bisher.

  • Super! Danke für die Einblicke, Michael. Besonders spannend finde ich die Neueinstiege bzw. starken Aufsteiger rein in die Seite 2 – und dann die Ausreißer (als weitere Stufe oder “Auswahl” aus diesen) auf Seite 1 (die dann dort wahrscheinlich getestet werden). Und der Trend spricht ja da anscheinend für euch, so wie es aussieht. Ich bin sehr gespannt, wie sich das langfristig entwickelt – insbesondere angesichts der Tatsache, dass Du ja von bereits relevantem und qualitativem Content auf diesen sprichst – das sollte sich langfristig auszahlen ;-)

  • Da justiert man… Setzt guten Content auf und aus irgendeinem Grund gehen die Rankings nach unten … Das kotzt echt an! Würde mich echt freuen wenn das Monopol von Google bald mal fallen würde…

  • Within my individual subpages have fallen in the index which were formerly on his distance to the very best 20th It might be neither users nor signals towards the content. I believe Google has attempted to acknowledge poor links better still. However, this latest formula doesn’t appear to become quite perfect mature and for that reason Bing is rowing back now pretty.

  • @David Dem kann ich mich nur anfügen. Ich habe, denk ich, die besten SEO Tipps befolgt und trotzdem habe ich mit sinkenden Rankings zu kämpfen. Was ich gar nicht verstehe, was bei den Gewinnern besser ist. Die ranken teilweise mit einer Unterseite, die keine Backlinks hat, wenig Content und fast nur Shop-Angebote…

  • Hi Daniel,
    hast du auch mal untersucht, wie sich die Einblendung von Google-eigenem Content bzw. AdWords in den SERPs entwickelt hat – also in Bezug auf die Keywords, für die die jeweiligen Seiten ranken? Ich glaube, das ist bei uns ein großer Faktor gewesen, dass wir an Sichtbarkeit verloren haben. Nach meiner Kurzrecherche würde ich auch behaupten, dass bei den Verlierer-Domains mehr KWs existieren, die durch local product listings, maps Einträge und ähnlichem nach hinten gerutscht sind. Das spielt doch auch ein Rolle in der Berechnung der Sichtbarkeit…

  • Hallo Karo, valides Argument! Diesen Aspekt habe ich mir jetzt nicht genau angesehen, er könnte aber – je nach betroffener Seite – duchaus eine (Neben-)Rolle spielen. Für mich zeigt der Blick auf die größten Verlierer-Keywords beim Phantom jedoch wie erwähnt eher in Richtung Brand und Shorthead – und das eher mit größeren Verlusten von mehreren Plätzen, was gegen ein reines “nach hinten Rutschen” wegen anderer Faktoren spricht. Und auch wenn AdWords oder wenn beispielsweise eine Map eingeblendet wird, bleiben (nicht immer! (Tendenz sinkend) – aber doch schon noch, abhängig von den Zusatzeinblendungen und natürlich vom Keyword) 10 organische Suchergebnisse auf der ersten Seite – was somit an Deiner organischen Position theoretisch nichts ändert (praktisch natürlich durch die Zusatzeinblendungen schon). Und ja, auch wir beobachten, dass Google immer mehr eigenen Content einblendet. Also kurz: Effekt trifft auch zu, ist aber m.E. nicht Kern dieses Updates.

  • Mit Mobile first hat es meiner Ansicht nach nichts zu tun. In 6 Projekten (e-commerce) und gut 2000 überwachten keywords + den herkömmlichen SI Metriken der Tool Anbieter kann ich nichts dergleichen feststellen. Wobei die Phantom These wie oben erläutert bei uns genau zutrifft ………..

  • Besten Dank für diesen Artikel. Auch ich bin mit einer meiner Seiten für das Hauptkeyword, welches zugleich ein Shorttailkeyword ist, um ganze 67 Positionen nach hinten gerutscht. Für alle anderen Keywords komischerweise nicht, obwohl sie alle auch auf meiner Hauptseite mit vorkommen.

    Hat jemand eine Ahnung, wie man dem entgegenwirken kann??

    Besten Grüße
    Daniel

  • Wir sind im Escort-Bereich unterwegs und haben drei Webseiten für die wir unterschiedliche SEO-Maßnahmen ergriffen haben. Wir sind bei allen drei Seiten abgestürzt und das kontinuierlich – gerne hätte ich auch mal positive Schwankungen nach oben gehabt. Eine Seite hat es dabei besonders erwischt und wir haben uns gefragt, was diese von den anderen beiden Seiten unterscheidet, denn gerade für diese Seite haben wir in der Vergangenheit vermehrt Links aufgebaut. Nach dem Ausschlussverfahren kommen wir zu dem Ergebnis, dass es in erster Linie mit den Backlinks zu tun haben muss. Zum Einen der Rückgang der vorhandenen Links, als auch die Qualität der Backlinks scheinen gerade ein wichtiger Faktor zu sein. Mobile First, Content-Qualität, Usersignale etc. spielen nach unserer Recherche aktuell eine untergeordnete Rolle…leider.

  • Ich war mittlerweile auf diversen Seiten unterwegs, um mich zum letzten Google Update zu informieren. Überall wurden, teils sogar gegensätzliche Vermutungen, geäussert, weshalb es zu Gewinnen bzw. Verlusten kam. Einigen Shopbetreibern sitzt die Existenzangst im Nacken, wobei es sich hier nicht um schwarze Schafe handelt. Heisst eigentlich nur soviel, dass niemand weiss, warum Google so agiert wie es agiert. Google hatte soweit ich weiss im letzten Jahr angekündigt künftige Updates nicht mehr anzukündigen bzw. sich zu den Änderungen des Algorithmus nicht mehr zu äussern. Eventuell geht es inzwischen auch gegen SEO Agenturen im Allgemeinen (gewagte These ?), um eventuell eigene kostenpflichtige Produkte wie Adwords noch mehr zu forcieren, so wie es seinerzeit mit Preisvergleichsseiten der Fall war. Die organische Suche bringt ja kein Geld. Zunächst wurde Google Shopping kostenpflichtig, dann verloren verschiedene Preisvergleiche teils deutlich an Sichtbarkeit im Netz. Und was soll ein Seo tun, wenn er nicht mehr weiss worauf Google Wert legt ? Er wird überflüssig bzw. kann nur im Trüben fischen und hoffen. Die Sache mit dem Content. soll ja für Google und für Kunden wichtig sein/gewesen sein und leuchtet auch ein. Wenn ich von meiner Branche ausgehe, gibt es Shops, die immer noch Produktbeschreibungen von Herstellerseiten kopieren und besser dastehen als ich. Ich selbst verfasse seit etwa 1 Jahr eigene Produkt- und Kategoriebeschreibungen bis zu 300 Wörtern. Die Seite ist responsive, Bad Links wurden über das Disavow Tool eingereicht, Shop-Grafik wurde modernisiert, schneller Server wird eingesetzt. Das Ergebnis ist ernüchternd, da meine Seite immer weiter an Rankings und Traffic verliert. Unabhängig davon was ich mache. Manuelle Massnahmen seitens Google liegen nicht vor. Und da sage einer noch Content sei King. Jetzt fehlt nur noch dass sich jemand findet, der meint Beschreibungen müsse man anders abfassen und dass es daran liegt. Google hat in der organischen Suche auf alle Fälle extrem viel durcheinander gewirbelt. Es scheint als ob es keine klaren Richtlinien mehr gäbe an die man sich halten kann, um belohnt bzw. abgestraft zu werden.

  • Ich kann den Rankingverlust leider bei einem meiner Projekte auch nachvollziehen. Trotz ganz sauberem Backlink-Aufbau und sehr vielen, hochwertigen, Texten habe ich “über Nacht” viele gute Rankings verloren und damit direkt 1/3 des Traffics.

  • Christoph Zumdick 22. März 2017 um 06:48

    @Alex – bis zu 300 Wörter ist halt auch n Witz….. Wenn du noch zusätzliche eventuell vorgelagerte Seiten hast die dein Thema total ausführlich beleuchten dann ok – wenn nicht weißt du nun was dir ziemlich wahrscheinlich im Vergleich zu den Mitbewerbern fehlt. Wenn du dann noch Texte geklaut bekommst die stärkere Seiten für sich beanspruchen – dann hast du natürlich nahezu keinen Content mehr – google bevorzugt im Zweifelsfall leider immer sehr starke websites, Marken, Authoritäten – ist halt n fakt auch wenn die deine Texte klauen ………………..

    Viel Erfolg trotzdem

  • Hallo Alex,

    viele deiner Gedanken kann ich gut nachvollziehen – sieht bei unseren Mitbewerbern ähnlich aus. Das einzige, was bei denen positiv auffällt, ist dass sie schlichtweg bekannter sind als wir – daher stecken wir gerade auch viel Energie in PR. Kannst du das bei euch auch daran festmachen?

  • Spüre auch immer wieder Ranking Schwankungen.
    Ärgerlich wenn man plötzlich nach hinten rutscht und die Besucherzahlen in den Keller gehen.

  • Nachdem es lange Zeit für uns immer bergab ging, warum auch immer, geht es nun endlich mal bergauf. In der Sichtbarkeit ist es gar nicht so besonders, der Traffic steigt aber ziemlich an. Darüber freuen wir uns natürlich.

  • Ich muss ehrlich sagen, bei keiner meiner Seiten hat sich auch nur ein bisschen etwas verändert. Ich hab immer mehr das Gefühl, dass G einfache denen auf die Pelle rückt die auch nur das kleinste Zeichen von Optimierung blicken lassen. Das fällt mir vor allem in einem Feld auf… Konkurrenten mit (sorry) absoluten Bockwurst-Seiten gewinnen zunehmend an Sichtbarkeit, während die Seiten mit aktiven Webmastern die immer versuchen alles richtig zu machen vor den Latz bekommen. Schon komsich dieses Google…

  • Wir haben seit gestern (23.04.) einen Rankingverlust mit unserem Hauptkeyword (Markenname) zu verzeichnen. Es ging von Platz 7 runter auf die 5 Ergebnisseite (nur Desktop, Mobil bislang unverändert).

    Adwords und Google Shopping nutzen wir übrigens nicht… Grüße an Alex und seine These

    Wie haben sich eure Seiten seit Februar / März entwickelt?

  • Baris Gündogdu 12. Juli 2017 um 14:42

    Hallo, neben ein paar SEO Test Domains betreue ich 2 große Seiten (Branchenverzeichnisse). Das interessante ist das die beiden Seiten eigentlich in Konkurrenz miteinander stehen. Seit dem Update hat die eine Seite einen Sprung von ca. 100 Tsd auf 140 Tsd gemacht und die andere bewegt sich bei 80 tsd +-10 tsd. Wenn man sich den Traffic anschaut, ist die eine mit 80 tsd. Sichtbarkeit (260 tsd KW) konstant geblieben und die andere mit der höhen Sichtbarkeit (ca. 310 tsd. KW) leicht an traffic gestiegen. Die meisten KW sind entweder Ort + Kategorie oder Brand + Ort , d.h. stehen in Konkurrenz mit Google Places und den Brand Seiten. Die Backlinks sind bei beiden sauber. Der einzige Unterschied liegt in Struktur, d.h. die mit der niedrigen Sichtbarkeit hat noch viele technische Probleme. Hinzu kommt die mobile Seite die als subdomain existiert. Die andere ist responsive. Mein Fazit: Es sind mehrere Faktoren, die zusammen wirken. Zum einen saubere technische Implementierung der Seiten und zum anderen die Google Produkte, die den Traffic klauen, die wiederum die User Signale verschlechtern, die sich dann wieder auf die Rankings auswirken. Ich denke, das Google versucht, die mobilen User Signale auf die Desktop Version zu matchen. Wenn er damit Schwierigkeiten hat oder die mobilen Signale schlecht sind, wirkt sich das auf die Rankings aus.


Kommentar schreiben

Hinweis: Wenn ihr hier keinen Namen eintragt (sondern ein Keyword) oder uns euer Eintrag zu werblich erscheint, behalten wir uns das Recht vor, euren Kommentar zu löschen oder zu editieren. Spart euch sowas hier also bitte!

Des Weiteren erteilt ihr mit der Abgabe eures Kommentars eure Erlaubnis, dass eure Daten von blog.searchmetrics.com/de/ gespeichert werden. Zur Übersicht über die Kommentare und zur Vermeidung von Missbrauch, speichert diese Website Name, E-Mail-Adresse, Kommentar sowie die IP-Adresse und den Zeitstempel eures Kommentars. Die Kommentare können jederzeit wieder gelöscht werden. Detaillierte Informationen findet ihr in unserer Datenschutz-Erklärung.