SEO-Matrix: Warum rankt diese verflixte Seite nicht?

26. Januar 2011 | Analysen 9 Kommentare

Backlinks, Content, feine HTML-Formatierung: alles passt. Aber diese eine verflixte Seite rankt einfach nicht zufriedenstellend für das gewollte Keyword. Was tun?

SEO-AnalyseBlöderweise gibt es laut Google mehrere tausend Ranking-Faktoren, und für jede Suchanfrage werden so um die 200 herangezogen. Und außerdem gibt es noch 1001 Gründe, warum man die eine Maßnahme gar nicht machen kann und die andere nur ein bisschen. Man müsste also also irgendwie alles wissen, um das Maximale raus zu holen. Also: Die Seite rankt nicht, wie gehe ich vor?

Ich rede hier übrigens von großen Seiten, die man nicht mit Blackhat-Methoden pushen und deren technische Basis man auch nicht schnell mal komplett ändern kann. Rahmenbedingungen, die einem das Leben nicht leichter machen. Die aber zumindest ein paar Maßnahmen ausschließen und die ein strukturiertes Vorgehen ermöglichen. Hierzu schlage ich vor, ein Kreuz zu malen und die Felder wie auf einer kleinen Matrix zu bezeichnen.

Die Aufteilung erfolgt in „intern“ und „extern“ und in „Content“ und „Links“. Es bleiben also vier klar bezeichnete Felder, die uns Orientierung bei der Optimierung geben. Und nach denen klopfen wir die Seite, die verflixt noch mal nicht rankt, ab:

felder

1. Interner Content

Mein erster Blick geht jeweils auf die Seite, die wir auf ein bestimmtes Keyword optimiert haben. Und dafür hat wohl jeder SEO seine Checkliste:

  • Keyword im Title
  • …in Headline
  • …in Text
  • Textmenge
  • HTML o.k.
  • Bilder, ALT-Tags
  • Meta-Tags (inkl. Robots)
  • Spam-Faktoren
  • und all den anderen Kram, über den wir häufig diskutieren.

Nun, möglicherweise stellen wir fest, dass die Optimierung der Seite zwar nicht perfekt ist, aber in Ordnung. Daran kann es also nicht liegen.

2. Externe Links

Jeder SEO, der etwas auf sich hält, liest nun schnell noch mal alle Blogs nach dem aktuellen Link-Trend durch und schaut spätestens jetzt nach den Links:

  • Domain-Popularität der Seite,
  • gibt es Brand-Links oder Keyword-Links (am besten beides),
  • wie schaut die Link-Vielfalt aus,
  • wie die zeitliche Entwicklung der Links,
  • gibt es nicht zu viele Spam-Links,
  • und zumindest ein paar „nofollow“-Links,
  • und, und, und.

Das ist keine einfache Prüfung. Aber wenn wir verantwortungsvoll mit unserem Job umgehen, haben wir die meisten dieser Punkte eh schon versorgt. Und, ja, der Vergleich mit der Konkurrenz zeigt: Alles gut! Wir haben den geschätzten einen Link mehr, der uns eigentlich vor alle anderen schieben müsste. Doch, die blöde Seite rankt einfach nicht!

3. Interne Links

Es wird Zeit, sich mit der internen Verlinkung zu beschäftigen. Wir wissen ja, dass die Links einer Seite wichtig sind – und dazu zählen verdammt nun mal auch die internen Links. Und da kann man – vor allem bei einer großen Seite – sehr viel falsch machen. Man denke also nach über:

  • Ob die Navigation für den Robot lesbar ist,
  • die Begriffe in der Navigation,
  • die Hierarchie (Shorttail-Begriffe in den oberen Kategorien, Longtails in den Beitragsseiten),
  • Links in „Related Content“,
  • die Vermeidung von internen Linkspielchen wie „nofollow“, Javascript,
  • Sitemaps,
  • u.s.w..

Mit anderen Worten: Wenn wir der Meinung sind, Google solle eine Seite für ein bestimmtes Keyword möglichst gut positionieren, müssen wir dem Robot die Wichtigkeit dieser Seite vor allem mit einer internen Verlinkung verdeutlichen. Aber, zurück zum fiktiven Fall: Auch daran kann es nicht liegen. Unsere zu prüfende Seite ist gut verlinkt und die Links prima getextet. Was nun?

4. Externer Content

Wer jetzt noch nicht aufgegeben hat, wird sich nun fragen, was denn mit dem „externen Content“ gemeint ist! Nun, den gibt es sehr wohl – oder besser nicht. Denn wenn alle anderen Optimierungs-Gedanken zur Seite und den Links dorthin kein Ergebnis bringen, kann es wohl daran liegen, dass wir es möglicherweise gar nicht wert sind, zu ranken. Vielleicht gibt es bei uns oder woanders Seiten, die deutlich vergleichbar – aber stärker sind. Wir sollten uns fragen, ob der Inhalt wirklich unique ist und ob wir das Keyword eindeutig verwenden:

  • Gibt es Duplikate der Seite (oder vielleicht auch nur des Textes) auf meiner Seite?
  • Ist die URL wirklich sauber und gibt es keine Parameter, die Duplicate Content erzeugen?
  • Ist der Text unique und nicht noch woanders (egal, ob geklaut oder verkauft) zu finden?
  • Verwende ich das Keyword exklusiv? Denn wenn ich jeden Tag eine neue Seite für Keyword „XY“ in den Index schiebe, brauche ich mich nicht zu wundern, wenn ich dafür gar nicht ranke…

Dies ist sicher der unübersichtlichste Bereich und ich werde in den nächsten Woche darauf zurückkommen. Und zwar geht es dann um „noindex,follow“ und das Canonical-Tag. Aber eines kann ich schon mal sagen: Wenn auch in diesem Bereich kein Fehler zu finden ist, haben wir es entweder mit einer bösen Penalty zu tun oder man sollte wieder vorne anfangen….

Zu viel Arbeit? Ein Tool hilft…

Wer übrigens über den Arbeitsaufwand einer solchen Analyse stöhnt, hat Recht: Das ist viel Arbeit, wie SEO ja allgemein. Und man sollte sich nicht vornehmen, das alles für jedes halbwegs wichtige Keyword durchzuziehen. Höchste Zeit dafür ist es aber spätestens, wenn bei einem IT-Portal der Begriff „Firefox Download“ optimiert werden soll oder bei einem Immo-Portal das Keyword „Immobilien München“ in den Keller wandert.

Dann hat der „Keyword Page Optimizer“ von Searchmetrics seinen großen Auftritt. Dieses Tool in der Searchmetrics Suite ist nämlich nicht mal eben so im Handumdrehen eingeschaltet – aber so nützlich, dass es kracht. Denn mit dem KPO lässt man den Crawler von Searchmetrics auf die eigene Seite los. Dieser analysiert nicht nur die „üblichen“ Faktoren Content und HTML einer Unterseite, sondern auch die zielgerichtete interne Verlinkung, die Verwendung des Keywords als Linktext, die Speaking URL, externen Duplicate Content u.s.w..

Schon die Übersicht des Keyword Page Optimizer zeigt, wohin die Optimierung gehen sollte

Schon die Übersicht des Keyword Page Optimizer zeigt, wohin die Optimierung gehen sollte

Danach wisst ihr auf jeden Fall mehr!

P.S.: Wer schreibt denn hier? Mein Name ist Eric Kubitz und ich bin Mit-Gründer der CONTENTmanufaktur GmbH. Wer mich erreichen will, kann dies per Mail (ek@contentmanufaktur.net) oder per Twitter tun. Bis bald!

Dies ist nur ein Gravatar

Wer schreibt denn hier? Eric Kubitz ist Gründer und Geschäftsführer der CONTENTmanufaktur GmbH, die für hohe SEO-Kompetenz und High-Quality-Content steht. Der gelernte Journalist und (Fast-)Wirtschaftswissenschaftler berät große und kleine Portale, gibt sein Wissen als Dozent an Hochschulen und inhouse weiter und spricht regelmäßig auf SEO-Konferenzen. Zu erreichen ist er per mail (ek@contentmanufaktur.net) oder per Google+ oder Xing.
Alle Artikel von anzeigen.

Kommentare (9)

  1. 26. Jan. 2011 12.08 Uhr

    Hallo Eric,

    sehr schöner Artikel, nicht unbedingt neue Inhalte, aber die Verpackung und die Vorgehensweise gefällt mir sehr gut. Und als alter Betriebswirt, liebe ich natürlich die Matrix per se
    Beste Grüße
    Alexander

    P.S: Darf ich ggf. deine Struktur (mit Hinweis auf den Urheber) auch für ein Seminar verwenden?

  2. 26. Jan. 2011 22.35 Uhr

    Schoener Blog, gefaellt mir super. Auch gute Themen.

  3. 03. Feb. 2011 12.20 Uhr

    Super Artikel – aber der Faktor Zeit fehlt..und der is nich ganz unerheblich.
    Wie oft schon habe ich alle 4 Punkte oben mit einem „job zu 90% erledigt“ abgehakt“ und die Seite rankt trotzdem irgendwo auf 60-500 rum..
    3 Monate säter – schwupps, auf 4, noch 2 Monate später auf 1 – ohne dass ich irgendwas geändert hätte (ausser weiter den regulären diversifizierten linkaufbau betrieben)

  4. 25. Dez. 2012 21.40 Uhr

    Ja stimmt sehr viel Arbeit. Wenn man Mal in dem Dilemma steckt und sich keinen Reim darauf machen kann, warum die eigene Seite mit Unterseiten nicht rankt , dann könnte man am liebsten alles in die Tonne kicken.

    Werde dann Mal ein paar Tipps deines Beitrages aufgreifen, und hoffe dass ich damit Erfolg habe.

  5. 25. Apr. 2013 23.48 Uhr

    Nun , das Thema Ranking ist eine heiß diskutierte Sache und man ist damit ständig auf Urachensuche WARUM eine Webseite nicht rankt ! Man arbeitet oft Wochen und Monate , gewinnt Backlinks , verbessert Content , beisetigt Fehler etc. etc. um dann frustrierend feststellen zu müssen , dass die ganze Arbeit vergebens war .

    In manchen solchen Fällen sollte man sich auch mal die Frage stellen OB EVTL. ANDERE Gründe für ein Nichtranking vorliegen könnte, als diejenigen , die man überall im Netz andiskutiet finden kann.

    Nun , das Ganze fällt zwar unter die Kategorie „Spekulation“ , könnte aber durchaus bei Manchen seine Berechtigung finden. Ich spreche hier das Tabu an der Diskrininierung von Seitens Google. Die Gründe hierfür könnten sein , das man z.B. POLITISCH mal aufgefallen ist. Man(n) betreibt eine Seite in der man sich hochgradig politisch , systemkritisch wieder gibt ! Zufälliger Weise betreibt der Betroffene noch eine oder mehrere andere commerzielle Webseiten , die sich mit anderem Themen auseinander setzt(en) , als mit der Systemkritik.

    Der Betroffene merkt: Trotz aller Arbeit , ranken seine (anderen) Seiten nicht ! Die wahre Ursache ?? Seine systemkritische Seite steht irgendwo „auf dem Index“ und Google lässt sich kaufen und diskrimiert (eben im Auftrag des Systems) diese Seite , resp. die anderen , commerziellen Seiten dieses Webseitenbetreibers in dem es diese Seite EINFACH schlecht ranken lässt !

    Merke: Die EINFACHE Zensur ist ja „offiziell“ verboten ! Nicht jedoch JENE Zensur die an Genialität NICHT zu übertreffen ist: WENN Google WIRKLICH AUF DIESE WEISE WEBEITEN — im Auftrag — ZENSIERT DANN MACHT ES GOOGLE DADURCH , DASS ES DIE BETREFFENDEN WEBSEITEN / DIE WEBSEITEN DER BETROFFENEN WEBSEITENBETREIBER SCHLECHT RANKEN LÄSST !

    Es ist ein PERFEKTE Zensur ! Keiner merkt es , keiner spührt es , keiner registriert es , EBEN NUR DER WEBSEITENBETREIBER SELBST !! SONST NIEMAND , und er kann sich auch nicht wehren dagegen , treibt den Webseitenbetreiber in den Wahnsinn und in die Verzweiflung ! Er findet dafür keine Erklärung ! Dadurch , schaltet das System jenen Kritiker aus in dem es die (systemkritischen) Webseitenbetreiber um ihre Lebensgrundlage bringt ! EINE BESSERE ZENSUR GIBT ES NICHT !!

    Weitere Gründe könnten sein: GOOGLE PROTECTS THE BIG PLAYERS und macht es Newcommern schwer ! Eine Mutmaßung , die SICHER nicht von der Hand zu weißen ist !

    Nun , das ist zwar alles nur Spekulation und Hypothese , hat aber durchaus seine Berechtigung und wer diese Hypothese für Blödsinn hält , der möge Beweise bringen , dass dies NICHT zutrifft !!

    Es gibt auch Phänomene , die sind nur schwer zu begreiffen ! So betreibe ich selbst einige Webseiten und ich startete im Januar 2013 und im Februar 2013 2 weitere (commerzielle) Projekte via Keyword – Domains ! Keine Affiliate Seiten ! Es handelt sich hier um 2 spezialisierte Kleinanzeigen + Auktionsportale deren Hauptkeywords jeweil eine Monatliches Suchvollumen bei Google von ca. 20.000 Suchanfragen aufweisen. Beide Portale behandeln jeweils 2 unterschiedliche Themen/Produktbereiche und , sie werden jeweil von DER GLEICHEN Software bedient ! Sie befinden sich nur jeweils auf unterschiedlichen Servern.

    Während das Projekt http://daunenjacke-herren.de (ich hoffe ich darf das jetzt hier verlinken) , das ich im Januar startete und nun schon mit rd. 20 echten Backlinks schon seit nun mehr als 100 Tagen in den SERPS NICHT auftaucht , befindet sich das 2. Projekt , das ich Ende Februar startete und nur knapp 10 echte Backlinks aufweist bereit seit der 2.Woche nach seiner Indizierung bei Google auf der ersten Googlesuchergebnisseite !

    Wie ist das Möglich ? Praktisch 2 mal das gleiche System , nur jeweils andere Produktgruppen , die eine Rankt auf der ersten Seite mit ihren Hauptkeywords und die andere taucht in den Suchergebnissen selbst nach mehr als 100 Tagen nach ihrer Indizierung bei Google nicht auf ??? Ich habe in diesem Falle keine Erklärung und ich bin hier mit meinem Latein am Ende !!

    viele Grüße

    Wolfgang

  6. 16. Sep. 2014 19.52 Uhr

    schön aufbereiteter Arbeitsablauf. Vor allem eine schöne Übersicht für Anfänger.

  7. 21. Mrz. 2015 12.24 Uhr

    Es kann, wie im Artikel bereits erwähnt, tausend Gründe geben warum eine Website nicht rankt. Zu viele Keywords sind nicht förderlich, zu wenige auch nicht. Content muss immer wieder aktualisiert werden und darf nicht repetitiv sein. Wenn man sich daran begibt SEO für seine Website zu betreiben, wird man nie fertig sein. Es ist ein Prozess der nie zu Ende ist.

  8. 24. Apr. 2015 13.30 Uhr

    Schöner Artikel.
    Ehrlich gesagt nervt mich das Thema SEO mittlerweile. Besitze mehrere Seiten, gehe in Hinsicht auf SEO mit allen ähnlich um aber das Ranking-Verhalten könnte unterschiedlicher nicht sein:
    Die eine rankt langsam besser, eine andere Seite wird immer schlechter im Google Ranking, und so weiter. Ich bin mit meinem Latein langsam am Ende. Meine einzige Hoffnung ist abwarten, da die älteste Seite ca. 3 Monate alt ist (bei ihr ist mein Hauptkeyword auf Rang 31)

  9. 15. Jan. 2016 14.32 Uhr

    Mir gefällt die strukturierte und prägnante Vorgehensweise des Artikels. Auch jetzt, mehrere Jahre später sehr nützlich als Abgleich.

    Für folgendes Szenario frage ich mich allerdings, was die Ursache sein kann, warum das Ranking sich nicht so verhält wie gewünscht:

    Ein Artikel ist auf zwei KW-Phrasen gleichermaßen optimiert, die beide aus drei Wörtern bestehen. Das eine KW ist nur eine leichte Abwandlung des anderen. Die Unterscheidung betrifft ein Wort der drei Wort Phrase. Für die eine KW-Phrase rankt der Artikel sehr gut, sogar knapp auf der ersten Seite. Für die andere, sehr ähnliche KW-Phrase rankt der Artikel überhaupt nicht. Woran kann das liegen?

Trackbacks (0)

Hinterlasse eine Antwort

Hinweis: Wenn Du hier keinen Namen einträgst (sondern ein Keyword) oder mir Dein Eintrag zu werbelastig erscheint, behalte ich mir das Recht vor Deinen Kommentar zu löschen oder zu editieren. Spart euch sowas hier also bitte!