Backlinks, Content, feine HTML-Formatierung: alles passt. Aber diese eine verflixte Seite rankt einfach nicht zufriedenstellend für das gewollte Keyword. Was tun?
Blöderweise gibt es laut Google mehrere tausend Ranking-Faktoren, und für jede Suchanfrage werden so um die 200 herangezogen. Und außerdem gibt es noch 1001 Gründe, warum man die eine Maßnahme gar nicht machen kann und die andere nur ein bisschen. Man müsste also also irgendwie alles wissen, um das Maximale raus zu holen. Also: Die Seite rankt nicht, wie gehe ich vor?
Ich rede hier übrigens von großen Seiten, die man nicht mit Blackhat-Methoden pushen und deren technische Basis man auch nicht schnell mal komplett ändern kann. Rahmenbedingungen, die einem das Leben nicht leichter machen. Die aber zumindest ein paar Maßnahmen ausschließen und die ein strukturiertes Vorgehen ermöglichen. Hierzu schlage ich vor, ein Kreuz zu malen und die Felder wie auf einer kleinen Matrix zu bezeichnen.
Die Aufteilung erfolgt in “intern” und “extern” und in “Content” und “Links”. Es bleiben also vier klar bezeichnete Felder, die uns Orientierung bei der Optimierung geben. Und nach denen klopfen wir die Seite, die verflixt noch mal nicht rankt, ab:
1. Interner Content
Mein erster Blick geht jeweils auf die Seite, die wir auf ein bestimmtes Keyword optimiert haben. Und dafür hat wohl jeder SEO seine Checkliste:
- Keyword im Title
- …in Headline
- …in Text
- Textmenge
- HTML o.k.
- Bilder, ALT-Tags
- Meta-Tags (inkl. Robots)
- Spam-Faktoren
- und all den anderen Kram, über den wir häufig diskutieren.
Nun, möglicherweise stellen wir fest, dass die Optimierung der Seite zwar nicht perfekt ist, aber in Ordnung. Daran kann es also nicht liegen.
2. Externe Links
Jeder SEO, der etwas auf sich hält, liest nun schnell noch mal alle Blogs nach dem aktuellen Link-Trend durch und schaut spätestens jetzt nach den Links:
- Domain-Popularität der Seite,
- gibt es Brand-Links oder Keyword-Links (am besten beides),
- wie schaut die Link-Vielfalt aus,
- wie die zeitliche Entwicklung der Links,
- gibt es nicht zu viele Spam-Links,
- und zumindest ein paar “nofollow”-Links,
- und, und, und.
Das ist keine einfache Prüfung. Aber wenn wir verantwortungsvoll mit unserem Job umgehen, haben wir die meisten dieser Punkte eh schon versorgt. Und, ja, der Vergleich mit der Konkurrenz zeigt: Alles gut! Wir haben den geschätzten einen Link mehr, der uns eigentlich vor alle anderen schieben müsste. Doch, die blöde Seite rankt einfach nicht!
3. Interne Links
Es wird Zeit, sich mit der internen Verlinkung zu beschäftigen. Wir wissen ja, dass die Links einer Seite wichtig sind – und dazu zählen verdammt nun mal auch die internen Links. Und da kann man – vor allem bei einer großen Seite – sehr viel falsch machen. Man denke also nach über:
- Ob die Navigation für den Robot lesbar ist,
- die Begriffe in der Navigation,
- die Hierarchie (Shorttail-Begriffe in den oberen Kategorien, Longtails in den Beitragsseiten),
- Links in “Related Content”,
- die Vermeidung von internen Linkspielchen wie “nofollow”, Javascript,
- Sitemaps,
- u.s.w..
Mit anderen Worten: Wenn wir der Meinung sind, Google solle eine Seite für ein bestimmtes Keyword möglichst gut positionieren, müssen wir dem Robot die Wichtigkeit dieser Seite vor allem mit einer internen Verlinkung verdeutlichen. Aber, zurück zum fiktiven Fall: Auch daran kann es nicht liegen. Unsere zu prüfende Seite ist gut verlinkt und die Links prima getextet. Was nun?
4. Externer Content
Wer jetzt noch nicht aufgegeben hat, wird sich nun fragen, was denn mit dem “externen Content” gemeint ist! Nun, den gibt es sehr wohl – oder besser nicht. Denn wenn alle anderen Optimierungs-Gedanken zur Seite und den Links dorthin kein Ergebnis bringen, kann es wohl daran liegen, dass wir es möglicherweise gar nicht wert sind, zu ranken. Vielleicht gibt es bei uns oder woanders Seiten, die deutlich vergleichbar – aber stärker sind. Wir sollten uns fragen, ob der Inhalt wirklich unique ist und ob wir das Keyword eindeutig verwenden:
- Gibt es Duplikate der Seite (oder vielleicht auch nur des Textes) auf meiner Seite?
- Ist die URL wirklich sauber und gibt es keine Parameter, die Duplicate Content erzeugen?
- Ist der Text unique und nicht noch woanders (egal, ob geklaut oder verkauft) zu finden?
- Verwende ich das Keyword exklusiv? Denn wenn ich jeden Tag eine neue Seite für Keyword “XY” in den Index schiebe, brauche ich mich nicht zu wundern, wenn ich dafür gar nicht ranke…
Dies ist sicher der unübersichtlichste Bereich und ich werde in den nächsten Woche darauf zurückkommen. Und zwar geht es dann um “noindex,follow” und das Canonical-Tag. Aber eines kann ich schon mal sagen: Wenn auch in diesem Bereich kein Fehler zu finden ist, haben wir es entweder mit einer bösen Penalty zu tun oder man sollte wieder vorne anfangen….
Zu viel Arbeit? Ein Tool hilft…
Wer übrigens über den Arbeitsaufwand einer solchen Analyse stöhnt, hat Recht: Das ist viel Arbeit, wie SEO ja allgemein. Und man sollte sich nicht vornehmen, das alles für jedes halbwegs wichtige Keyword durchzuziehen. Höchste Zeit dafür ist es aber spätestens, wenn bei einem IT-Portal der Begriff “Firefox Download” optimiert werden soll oder bei einem Immo-Portal das Keyword “Immobilien München” in den Keller wandert.
Dann hat der “Keyword Page Optimizer” von Searchmetrics seinen großen Auftritt. Dieses Tool in der Searchmetrics Suite ist nämlich nicht mal eben so im Handumdrehen eingeschaltet – aber so nützlich, dass es kracht. Denn mit dem KPO lässt man den Crawler von Searchmetrics auf die eigene Seite los. Dieser analysiert nicht nur die “üblichen” Faktoren Content und HTML einer Unterseite, sondern auch die zielgerichtete interne Verlinkung, die Verwendung des Keywords als Linktext, die Speaking URL, externen Duplicate Content u.s.w..
Danach wisst ihr auf jeden Fall mehr!
P.S.: Wer schreibt denn hier? Mein Name ist Eric Kubitz und ich bin Mit-Gründer der CONTENTmanufaktur GmbH. Wer mich erreichen will, kann dies per Mail (ek@contentmanufaktur.net) oder per Twitter tun. Bis bald!