searchmetrics email facebook github gplus instagram linkedin phone rss twitter whatsapp youtube arrow-right chevron-up chevron-down chevron-left chevron-right clock close menu search
79037903

5 sichere Wege eine Panda Penalty zu bekommen

Für normale Menschen ist ein Panda nur ein Tier – für SEOs ist er eine Diagnose. In diesem Artikel werde ich nur kurz darüber schreiben wie Panda funktioniert und mich darauf konzentrieren wie man eine Panda Penalty bekommt. „Aber wieso sollte jemand so was wollen, Kevin?“ fragt ihr euch wahrscheinlich. Nun meine Freunde, wenn man weiß was man nicht tun soll, hilft dies dabei zu verstehen was man eigentlich tun soll. Dreht also diese fünf Faktoren um und ihr bekommt ein Rezept, um eine Panda Penalty zu vermeiden. Außerdem glaube ich stark daran, dass Maßnahmen gegen Panda den Weg zu langfristigem und Wachstum und Erfolg ebnen.

great-seo-success

Schauen wir uns kurz an wie Panda arbeitet: Panda ist ein Filter, der verhindern soll dass irrelevante bzw. Ergebnisse mit niedriger Qualität in den Suchergebnissen auftauchen. Die Logik dahinter funktioniert wie folgt: jede indexierte URL oder URL-Gruppe (Website oder Verzeichnis, was bedeutet dass auch nur ein Verzeichnis einer Site abgestraft werden kann)  bekommt einen Relevanz-Wert für eine Suchanfrage zugeschrieben. Navigationale Suchanfragen sind davon ausgeschlossen, da die Suchintention hinter ihnen klar ist. In diesem Fall modifiziert Google die Suchergebnisse nicht. Im nächsten Schritt werden Suchergebnisse nach Relevanz sortiert und in den SERPs ausgegeben (hier kommt der berühmt-berüchtigte Rankingalgorithmus ins Spiel). Dabei ist es wichtig zu wissen, dass die Qualität der SERPs ständig gemessen wird und zwar anhand von User-Signalen, was wiederum den Algorithmus beeinflusst. Panda ist ein selbstkorrigierendes System. Über die Faktoren, die dabei berücksichtigt werden, schreibe ich gleich mehr.

Außerdem wichtig ist, dass Panda nicht nur bestraft – er belohnt auch. Schau euch diesen Screenshot an und ihr versteht was ich meine:

seo-visibility-positive-example

Man kann hier sehr schön sehen, dass die SEO Visibility der Website von Ende November 2012 bis May 2014 sprichwörtlich ein „Loch“ hat. Sowohl am 21. November 2012, als auch am 19. May 2014 gab es einen Refresh des Panda-Algorithmus. Zum letzten Datum hin konnte die Website ihre ursprüngliche Sichtbarkeit wiederherstellen und sogar übertreffen, da sie die fünf folgenden Faktoren ausgebessert hat.

Auf der anderen Seite kann das Beachten der fünf Faktoren diese Folgen nach sich ziehen:

seo-visibility-negative-example

Aber natürlich würdet ihr dies niemals tun ;-).

Durch dieses Video wissen wir, dass die Google Quality Rater eine wichtige Rolle bei der Bestimmung der Grenzwerte, die bei Panda eingesetzt werden, spielen. Die Erkenntnisse des neuesten Leaks der Guidelines stimmen perfekt mit den drei bestimmenden Erkennungsmerkmalen hochqualitativer Webseiten überein: Expertise, Autorität und Vertrauenswürdigkeit. Dieses Model ist äußerst abstrakt, deshalb möchte ich einen etwas greifbareren Ansatz liefern. Ich darf vorstellen: 5 Wege um eine Panda Penalty zu erhalten.

 

1. Schlechter Content

Der erste Weg, um eine Panda Penalty zu bekommen, lautet seinen Usern „schlechten Content“ zu liefern. Diesen kann man in fünf Kategorien einteilen:

  • Thin Content:

Stellt euch vor ihr habt eine Kategorie-Seite mit nur ein paar Zeilen bedeutungslosem Text und hunderten Produkten. Das nennen wir „Thin Content“. Suchmaschinen brauchen „Futter“, um Relevanz für einen Suchbegriff bestimmen zu können und alles was sie „lesen“ können ist Text. Wenn ihr kaum Informationen bereitstellt, wie sollen Suchmaschinen dann herausfinden worum es auf der Seite geht?

  • Gespinnter / automatisierter Content:

Oft stehen große Seiten / Marken vor der Herausforderung eine hohe Anzahl an Seiten mit Inhalt füllen zu müssen. Innerhalb der Lösung wird oft auf automatisierten Content zurückgegriffen, bei dem beispielsweise ein Vorlagentext mit Variablen individualisiert wird. Suchmaschinen sind keine großen Fans davon, da diese Texte of für User nicht sehr relevant sind. Wir reden dabei auch von gespinntem Content. Natürlich kommt es hier auf den Grad der Individualisierung an. Selbstverständlich kann man nicht für jede Seite einen einzigartigen Text schreiben, aber man sollte versuchen Inhalte so weit wie möglich für jede Seite zu individualisieren, um Usern maßgeschneiderte Inhalte bereitzustellen.

  • Aggregierter Content:

Eine weitere beliebte Möglichkeit Seiten mit Inhalt zu füllen ist das Zurückgreifen auf aggregierten Content von anderen Quellen. Wie wir in unserem Panda 4 Blog Post geschrieben haben, wurden besonders Aggregatoren von News, Gutscheinen, Software und Preisvergleichen hart von Panda getroffen. Während es also sinnvoll ist einen Teil des Contents mit Inhalten aus anderen Quellen anzureichern, sollte dies den eigentlichen Inhalt nie ersetzen. Es sei denn man möchte eine Panda Penalty ;-).

  • Duplicate Content:

Wenn Content auf vielen Seiten zu ähnlich ist, sprechen wir von Duplicate Content. Schon seit Jahren ist dies ein Ranking-Killer und wir haben Waffen dagegen, wie Canonical Tags oder meta=index, doch trotzdem tritt er immer noch häufig auf. Es ist schwierig mit viel Duplicate Content überhaupt zu ranken und der Panda mag das gar nicht.

  • Irrelevanter Content:

Wenn Nutzer die Antwort auf ihre Frage auf einer Seite nicht finden, verlassen sie die Seite. Eine Seite kann für eine Suchanfrage relevant erscheinen, jedoch die Antwort nicht beinhalten. Stellt euch vor ihr habt eine Seite auf der ein Text mit dem Rezept für Spaghetti steht. Der Text beschreibt wie gut die Spaghetti schmecken, wer Spaghetti erfunden hat und wie sie aussehen. Das Keyword „Spaghetti Rezept“ steht in Title, Description, URL und im Content, aber die Seite beinhaltet nicht das eigentliche Rezept. In diesem Fall sprechen wir von irrelevantem Content, zumindest für das Keyword „Spaghetti Rezept“. Google hat die Möglichkeit aufgrund von User Signalen die Relevanz zu bestimmen, was mich zum zweiten Weg um eine Panda Penalty zu bekommen bringt.

Übrigens kategorisiere ich ebenfalls alten Content als irrelevant. Einige Themen benötigen konstante Updates, so zum Beispiel ein Text zum Thema „iPhone“. Über das erste und sechste Smartphone zu schreiben, sind zwei Paar Schuhe.

(Tipp: ein guter Weg, um einen hohen Anteil „schlechten“ Traffics herauszufinden, ist die Anzahl indexierter URLs gegen die Anzahl rankender URLs zu messen.)

 

2. Schlechte User-Signale

Wie in unserer kürzlich erschienenen Ranking-Faktor-Studie Ranking-Faktoren-Studie zu lesen war, legt Google großen Wert auf gute User Signale. Hier konzentrieren wir uns auf die vier Signifikantesten. Wenn der Panda also sauer auf euch sein soll, sollte auf Folgendes Wert gelegt werden:

  • Niedrige Klickraten

Wenn User nicht auf eure Resultate in den SERPs klicken, auch wenn Google diese testweise besser rankt, gibt es ein Problem. Dies zeigt entweder, dass das Snippet den User nicht zum Klicken motivieren kann, er die Marke nicht mag / kennt oder etwas anderes seine Aufmerksamkeit auf sich gezogen hat.

  • Hohe Bounce Rate

Wenn User auf ein Suchergebnis klicken, auf der Seite nicht das Gesuchte finden und auf die Suchergebnisseite zurückkehren, ist das in den meisten Fällen ein schlechtes Signal. Ich schreibe „in den meisten Fällen“, da es legitime Fälle gibt, in denen der User eine Seite kurz nach dem Aufruf wieder verlässt, z.B. wenn er nach Fußballergebnissen sucht. Meiner Meinung nach kann Google zwischen einfachen und komplexen Informationen unterscheiden (siehe Knowledge Graph).

  • Niedrige Time On Site

Wenn die Zeit, die ein User auf einer Seite verbringt, relativ niedrig ist, zeigt dies Google dass entweder der Inhalt keinen hohen Qualitätsfaktor hat oder die Seite nicht das versprochene liefert. Im Endeffekt scheint der User unzufrieden und dies wird als schlecht geliefert.

  • Niedrige Anzahl wiederkehrender User

Gute Inhalte werden von Usern immer wieder konsumiert (Stichwort „Evergreen Content“). Eine Website profitiert davon, da User immer wieder kommen und Google signalisieren, dass es sich um eine hochwertige Quelle zu einem bestimmten Thema handelt.

google-analytics

Wenn sichergestellt werden soll, dass diese vier Werte sich in die richtige Richtung entwickeln, sollte sie regelmäßig überprüft und gegen den Durchschnittswert der Website gestellt werden. Ein Beispiel: ihr wollt wissen, ob die Bounce Rate für eine bestimmte Seite bei 65% gut oder schlecht ist. In diesem Fall solltet ihr diesen Wert gegen die durchschnittliche Bounce Rate der Website stellen und daraus eine Bewertung ableiten.

Schlecht performende Seiten zu finden und zu überarbeiten ist eine grundlegende Aufgabe von SEOs. In einem späteren Kapitel schreibe ich über den Ansatz diese Seiten zu optimieren.

3. Schlechte Usability

Usability und User Experience sind mittlerweile Wissenschaften für sich, aber als SEO in 2014 sollte man für diese Themen zumindest Grundwissen aufbringen können. Es müssen keine multivariaten Tests für die Farbauswahl durchgeführt werden (obwohl ich es empfehle), allerdings sollte auf folgende Faktoren kein Wert gelegt werden, wenn ihr eine Schelle vom Panda kassieren wollt:

  • Design / Layout

Altertümliches oder hässliches Design ist eine Einladung für User schnell von der Seite zu verschwinden. „Hässlich“ ist sehr subjektiv, deswegen möchte ich lieber von Design, das dem von spammy Sites relativ ähnlich ist, schreiben. Das Aussehen einer Website ständig weiterzuentwickeln und regelmäßig einen Rebrush oder gar Relaunch durchzuführen, ist ein guter Anfang für User Experience Optimization

  • Navigation

Eine strukturierte Navigation ist ein absolutes „Must have“ für die Optimierung des sogenannten „Orientation Scent“. Während es für die interne Verlinkung und somit den Fluss von PageRank durch die Site essentiell ist, sollten User im Stande sein jedes Produkt und jeden Inhalt auf der Site zu finden und im Bestfall die Navigation intuitiv zu bedienen.

  • Mobile version

Ich muss heutzutage wohl nicht mehr auf die Wichtigkeit von mobilen Versionen einer Website hinweisen, darüber kann man mittlerweile an jeder Straßenecke etwas lesen. Aber vor allem in Bezug auf User Experience möchte ich hier nochmals darauf hinweisen korrekt auf die mobile Version weiterzuleiten und User nicht auf der Startseite oder einer 404 Fehlerseite enden zu lassen. Natürlich setzt dies voraus, dass man überhaupt eine mobile Version seiner Website hat. Dazu sagt Avinash Kaushik immer so schön:“ If you have a mobile version of your site, you’re now ready for 2008 “

  • 404 Fehler

Jede Seite sollte natürlich gesehen 404 Fehler ausgeben, z.B. wenn ein User eine falsche URL eingibt oder wenn eine URL nicht mehr existiert (wobei es dafür hübschere Lösungen gibt). Viele 404 Fehler oder eine schlecht gemachte Fehlerseite können allerdings dazu führen, dass User eine Seite verlassen und nicht mehr wiederkehren. Deshalb sollte man 404 Fehlerseiten dahingehend optimieren, dass sie dem User erlauben seine Suche zu korrigieren oder auf einen anderen Teil der Seite navigieren.

  • Meta-Refreshes

Ein Meta-Refresh leitet einen User nach einer kurzen Zeit auf eine andere Seite weiter. Das ist nicht nur nervig sondern auch verwirrend und führt häufig zu Bounces. Außerdem trägt das Ganze meist ein spammiges Verhalten mit sich. Deshalb: verzichte auf Meta-Refreshes.

  • Site speed

Site Speed oder Ladegeschwindigkeit ist ein offizieller Ranking-Faktor, auch da er so eine grundlegende Komponente der User Experience ist.  Die Seite kann den besten Content der Welt haben, aber wenn sie 10 Minuten zum Laden benötigt, wird jeder User bouncen. Ich könnte einen Artikel nur über Site Speed Optimization schreiben, aber vorerst ist es nur wichtig zu wissen, dass er wichtig ist und soweit wie möglich optimiert werden sollte.

  • Werbung

Ads werden zwar vorrangig vom „PLA“ / „Top Heavy Algorithmus“ gefiltert, spielen aber auch bei Panda eine Rolle. Ich möchte nicht empfehlen, auf Werbung und damit Einnahmen zu verzichten, allerdings darauf hinweisen dass es bei Übertreibung zu bösem Erwachen kommen kann. Zu viel Werbung im sichtbaren Bereich, ob Banner oder im Text, sorgt für komische Blicke vom Panda. Es ist einfach nervig für User. Habt ihr schon mal eine Seite besucht und wurdest von Popups und Layern erschlagen, die etwas verkaufen wollen? Es ist als ginge man durch ein Geschäft und würde konstant vom Personal belästigt: „Kauf“, „Warum kaufst du nicht?“, „Wann kaufst du endlich?“, „Nun kauf schon!“. Wie kann das eine gute User Experience sein?

  • Flash

Flash oder andere Formate, die nicht auf allen Geräten funktionieren, sollten vermieden werden. Sorry, Flash.

user-experience

Natürlich hat eine gute User Experience Auswirkungen auf User Signale. Im Endeffekt kann UX also bestimmen ob eine Seite vertrauenswürdig ist oder nicht – und das spielt in der heutigen Panda-Welt eine große Rolle.

 

4. Keine Vertrauenswürdigkeit

Wenn ihr möchtet, dass Besucher wiederkommen, muss die Seite vertrauenswürdig sein. In einigen Branchen, wie der Finanz- oder Versicherungsindustrie, ist dies wichtiger als in anderen. In jedem Fall führt Vertrauenswürdigkeit zur Verinnerlichung der Mark – bis hin zu einem Grad bei dem User auf ein Suchergebnis klicken, da sie die Marke in der URL oder im Title wiedererkennen.

Vertrauen beginnt früh in der User Journey und hat viele Berührungspunkte mit Usern:

  • Snippet
  • Erster Eindruck (Design & Layout)
  • Inhalt
  • Conversion

Schon in 2012 schrieb Danny Goodwin einen Artikel auf Search Engine Watch über die Google Quality Rater Guidelines und dass Seitenqualität zum Katalog hinzugefügt wurde. Dazu zählen auch Fragen wie „Würde ich dieser Seite meine Kreditkartendaten anvertrauen?“.

Es gibt einige Stellschrauben, an denen man drehen kann um die Vertrauenswürdigkeit einer Seite zu verbessern:

  • Anbieten von Kontaktinformationen und Adresse
  • Trusted Shop Symbole und Sicherheitssiegel zeigen
  • Datenschutzerklärung und ein Impressum bereitstellen
  • Bewertungen integrieren
  • Testimonials auflisten
  • Rechtschreib- und Grammatikfehler vermeiden
  • Verbindung per HTTPS anbieten
  • Kundenportfolio zeigen
  • Presseartikel und Awards aufführen
  • Eine „Über uns“ Seite inklusive Biographie / Firmenhistorie erstellen
  • Störende Werbung vermeiden

Wenn ihr Inspiration von Websites mit hohem Trust-Faktor sucht, schau Euch Top Player wie Amazon oder eBay an. Je mehr Vertrauenswürdigkeit für eine Seite geschaffen wird, desto höher die Conversions. Aber man kann es auch übertreiben.

 

5. Überoptimierung

„Zu viel“ optimieren kann definitiv in einer Google Penalty enden, meistens als „Manual Spam Penalty“ benannt. Aber auch der Panda schaut zu. In meiner Karriere bin ich auf zwei Arten von „Spam“ aufgrund von Überoptimierung gestoßen: Content und interne Verlinkung.

Überoptimierte Texte für Suchmaschinen sind einfach zu erkennen. Oft reicht es den Text gründlich durchzulesen, um das maschinenartige herauszufiltern, im Gegensatz zu „natürlichen“ Texten. Natürlich sollte man das Keyword, auf das man optimiert, im Text aufführen, aber die Zeiten von Keyword-Dichte sind längst vorbei. Keyword Stuffing ist ein no-go. Viel eher sollte man darauf achten, dass das Keyword (natürlich oft) im Text, in Überschriften, im Title, in der Description und in der URL vorkommt. Außerdem ist es mindestens genauso wichtig semantisch verwandte Themen abzudecken und ganzheitlich zu schreiben.

Bezüglich der internen Verlinkung besteht eine Überoptimierung meist aus zu vielen internen Links mit hartem Anchortext. Genauso wie für Backlinks, gibt es auch für interne Links Grenzwerte für ein natürliches Profil. Eine Überoptimierung der internen Verlinkung wäre beispielsweise überall auf jeder Unterseite den Linktext „günstiges iPhone 6 kaufen“ mit der Produktseite für ein iPhone 6 zu verlinken.

Um es zusammenzufassen: Wenn ihr gerne eine Panda Penalty hättest und ca. 50% des Traffics und damit Umsatzes verlieren möchtet, folgt den „Tipps“ die ich in diesem Artikel gebe. Andererseits führt das Befolgen von Panda-Anforderungen zu guten und langfristigen Rankings. Stellt sicher, dass die Faktoren Content, User Signale, User Experience, Vertrauenswürdigkeit und Optimierung auf eurem Radar und optimiert sind.

 

KI

Kevin Indig

Kevin Indig war SEO Consultant im Searchmetrics Professional Services Team. Er hat dabei Unternehmen bei der Definition und Durchführung von SEO Strategien in verschiedensten Branchen beraten.

13 thoughts on “5 sichere Wege eine Panda Penalty zu bekommen


  • Es fällt auf, dass seit kurzem wieder die User-Signale im Mittelpunkt der SEO-Betrachtungen stehen – das finde ich gut und richtig. Den Artikel finde ich sehr gut – toll wären auch Benchmarks in Bezug auf Time on Site bzw. Bounce rates etc. – die gab´s ja vor 2 Jahren noch von Google. Schwierig ist das Thema Überoptimierung – im Wettbewerb wichtig aber auch gefährlich

  • Hilfreich ist es aufjeden fall zu wissen wie man einen Panda Penalty bekommt, nur leider weiß man dann noch immer nicht genau wie man den das Gegenteil bezweckt^^ Habe auch gehört das Google wieder eine Erweiterung vom Panda Update rausgebracht hat bzw. aktualisiert hat. Naja das wird wohl immer wieder passieren.

    Gruß

  • „Eine Überoptimierung der internen Verlinkung wäre beispielsweise überall auf jeder Unterseite den Linktext „günstiges iPhone 6 kaufen“ mit der Produktseite für ein iPhone 6 zu verlinken.“
    Wo ist der Unterschied zu Wikipedia, wo an jeder nur erdenklichen Stelle das Keyword mit der entsprechenden internen Seite verlinkt wird?

  • Hey there,
    1. Wikipedia und Seiten ähnlicher Dimension, spielen mit anderen Regeln.
    2. Wikipedia bekommt das nötige „Backup“ an Authority auch von außen (Backlinks).
    3. Es wird auch mit sehr viel mit unterschiedlichen, aber semantisch wichtigen, internen Backlinks auf andere Seitenteile verwiesen. Dies schafft, ähnlich wie bei der modernen Optimierung auf ein Thema anstatt auf Keywords, Relevanz.
    4. Wikipedia ist ein rein informationsbasierter Seitentyp. Auch hier gelten wieder andere Regeln, als z.B. für ein Banner-finanziertes Portal.
    5. Traffic über die interne Verlinkung berechtigt diese, da sie offensichtlich den Usern dient. Ich habe natürlich keine Trafficzahlen parat, aber dass die interne Verlinkung bei Wikipedia ordentlich genutzt wird, steht wohl außer Frage ;-).

    Insofern ergibt sich ein runderes Bild und Wikipedia „kommt damit durch“.

  • Sehr interessanter und informativer Beitrag!
    Aber ich würde das Gegenteil zum ‚Penalty‘ auch mal interessieren. Mir gefällt das Bild was zur Veranschaulichung des ‚Designs und der User experience‘ verwendet wurde! Wirklich ein witziges und aussagekräftiges Bild!

    Gruß

  • Vielen Dank für den ausführlichen Artikel. Mich interessieren insbesondere die Usersignale. Ich habe auf meiner Seite aktuell eine durschnittliche Sitzungsdauer von 3:34 Minuten, was meiner Meinung nach ziemlich gut ist. Jedoch trotzdem eine Absprungrate von ca. 65%, mit der ich sehr unzufrieden bin. Woran könnte das liegen? Schickt google zu viele nicht relevante Suchende auf meine Seite? Wie kann die Absprungrate verbessert werden? Zählt ein externer Link mit target=blank auch als Absprung?

  • Danke für den informativen Artikel und die Tipps. Einiges davon ist natürlich je nach Art der Webseite nur sehr schwer einzuhalten bzw. umzusetzen. Denkt man z.B. an Online-Shops: Die bestehen ja quasi auch nur aus internern Keyword-Verlinkungen, was ja auch wieder logisch ist. Meine Keywords im Shop sind meine Produkte und dann muss ich meine Besucher über möglichst sprechende Linktexte, also was gibt es hier überhaupt, auf meine Produktseiten leiten. Wenn sich das Sortiment dann noch häufig ändert und z.B. viele Artikel nach einer gewissen Zeit wieder rausfallen, habe ich natürlich auch viele 404-Aufrufe, wenn die entsprechenden Seiten noch indexiert sind und jemand danach gesucht hat. Auch lassen sich nicht alle Produktseiten mit sonderlich viel (relevantem) Content füllen. Zu einem Brieföffner oder einem einfachen weißen T-Shirt lässt sich nun mal nicht so ganz viel sagen.
    Weiß man, ob der gute Panda hier Unterschiede in der Bewertung macht?

  • Super Beitrag Kevin. Betreffend der Überoptimierung wollte ich nachfrage wie eine solche Überoptimierung in Zahlen gedeutet werden kann. Ich habe auch schon vom Wert 5% gehört, dass ein Keyword nicht mehr erscheinen darf? Ist des weiteren auch bereits klar wie die Backlinks vom Panda Update bewertet werden?

  • Eine sehr wichtige Neuheit für eine SEO Agentur. Danke für den Artikel Kevin. Christopher hat natürlich Recht, was die Online Shops betrifft. Aber einige Tipps wird man sich auch da sicherlich zu Herzen nehmen.

  • Toller Beitrag, danke!

    Ich bin der Meinung dass die Interne Verlinkung primär der Verteilung des Juices dienen sollte, oder?

  • Hallo, wir hätten eine Frage zur Gestaltung von URLs. Unsere Domain Mathe-Seite.de ist gegliedert in 2 Hauptbereiche: a. „Mittelstufe“ und b. „Oberstufe“. Jede unserer ca. 3.000 URLs beinhaltet also einen dieser beiden Begriffe. Obwohl dies für die Usability nicht notwendig ist, würden wir die URLs gerne so beibehalten – aber nur, wenn dies keine negative Auswirkung auf SEO hat. Wie schätzen Sie als Experten dies ein (vor allem vor SEO-Hintergrund) – „Mittelstufe“ / „Oberstufe“ in den URLs beibehalten oder entfernen?

  • Hallo Nicole, ich finde eure URL-Struktur – ohne mir das jetzt im Detail angesehen zu haben – ehrlich gesagt recht nachvollziehbar. Man sollte seine Inhalte generell nicht hinter komplexen URL-Strukturen verschachteln und auch nicht in den Untiefen auf der vierten, fünften, sechsten Ebene verstecken – das ist richtig. Aber ich sehe bei Eurer URL-Struktur und in dieser dualen Unterteilung per sé kein offensichtliches (SEO-)Problem.

  • Mir hat der Artikel sehr gut gefallen, weil er sehr viele konkrete Ansatzpunkte beinhaltet mit denen auch wir als Nicht-SEO-Profis arbeiten können. Dennoch müssen wir immer wieder feststellen, dass die SEO-Optimierung zwar immer mehr auf den echten Nutzer ausgerichtet wird, was gut ist, aber man dennoch das Gefühl hat permanent den aktuellen Anforderungen hinterher zu laufen.
    Danke für diesen Beitrag.


Kommentar schreiben

Hinweis: Wenn ihr hier keinen Namen eintragt (sondern ein Keyword) oder uns euer Eintrag zu werblich erscheint, behalten wir uns das Recht vor, euren Kommentar zu löschen oder zu editieren. Spart euch sowas hier also bitte!

Des Weiteren erteilt ihr mit der Abgabe eures Kommentars eure Erlaubnis, dass eure Daten von blog.searchmetrics.com/de/ gespeichert werden. Zur Übersicht über die Kommentare und zur Vermeidung von Missbrauch, speichert diese Website Name, E-Mail-Adresse, Kommentar sowie die IP-Adresse und den Zeitstempel eures Kommentars. Die Kommentare können jederzeit wieder gelöscht werden. Detaillierte Informationen findet ihr in unserer Datenschutz-Erklärung.