Manchmal muss es schnell gehen. Und dann sollte man eine Checkliste und ein paar ordentliche Tools bereit liegen haben, wenn es darum geht, eine Webseite “eben mal” zu analysieren. Hier eine Liste von ersten Analysen, die mit ein bisschen Übung schon nach einer Viertelstunde zu einer ersten Beurteilung führen können.
Wie sieht Google die Site?
1. Pagerank: Natürlich schauen wir auf den Pagerank – es gibt keinen schnelleren Wert, den wir erfassen können. Allerdings achten wir nicht nur auf den Homepage-Pagerank sondern auch darauf, ob (und ggf. warum nicht) die Channel-Seiten einen hierzu passenden haben. Dies kann ein Hinweis auf die Navigationsstruktur liefern. Ist aber, das gebe ich zu, sehr mit Vorsicht zu genießen…
2. Visibility-Index: Um ganz ehrlich zu sein, ist mir nicht klar, wie wir vor wenigen Jahren ohne Tools wie Searchmetrics und Sistrix SEO betrieben haben. Ohne die historische Entwicklung der Sichtbarkeit bzw. der Visibility würde ich mir keine Aussage mehr über eine Domain zutrauen. Am besten übrigens vergleiche ich die Kurve mit denen der Konkurrenz. Denn wenn diese ähnliche Schwingungen machen – liegt das vermutlich nicht an mir sondern am Google-Algorithmus. Und ich weiß schon wieder mehr.
3. Seiten im im Index: Das gleiche gilt übrigens auch mit der Zahl der Seiten im Index. Dieser Wert wird zwar auch immer bei Google gemessen – und ist deshalb mit Vorsicht zu genießen. Aber wenn ich diese Entwicklungen historisch verfolge, erkenne ich schnell Ungereimtheiten. Am besten vergleiche ich diese Kurve mit möglichst vielen ähnlichen Seiten – um Änderungen im Algo und Messfehler zu neutralisieren.
4. Site-Befehl “site:”: Mit dem Site-Befehl suche ich nach dem, was mir Google zu der Domain anzeigt. “site:domain.com” zeigt mir alle Seiten der Domain an, der Befehl “site:domain.com -site:www.domain.com” zeigt alle Seiten auf Subdomains die nicht “www” sind an. Und z.B. mit “site:www.domain.com inurl:search” findet man alle Seiten mit “Search” im Index, also Suchseiten (die da möglicherweise nicht rein gehören. (http://www.seo-book.de/allgemein/tools-allgemein/search-analyse/seo-suchparameter-fur-die-google-abfrage)
5. SERP-Spreading: Auch das gehört mittlerweile zum Analyse-Alltag eines SEOs. Erstens ist, wie in diesem Fall, die Positionierung auf den Ergebnisunterseiten von Google sehr aufschlussreich. Aber das geht noch weiter. Wer sich das SERP-Spreading jeweils vor und nach einem größeren Sichtbarkeits-Sprung einer Domain (oder nach einem großen Verlust) anschaut, wird vermutlich schnell wissen was los ist. Kleiner Tipp: Häufen sich die Ergebnisse auf der dritten oder sechsten Ergebnisseite, kann man fast sicher von einer Penalty ausgehen.
Wie sieht der User die Site?
6. Navigation: Man nehme eine nicht mehr ganz aktuelle Longtail-Detailseite (z.B. ein nicht mehr superaktuelles Produkt in einem Shop) und versucht, sich per Navigation dahin zu klicken. Braucht man dafür mehr als 3-4 Klicks, ist die Crawlability der Seite schlecht. Danach schaltet man Javascript und Flash am Browser aus und macht das gleiche noch mal. Viel Erfolg!
7. Seitenarten: Als Faustregel kann gelten, dass Longtail-Seiten am “Ende” einer Navigation auf Detailseiten optimiert werden und Short- bzw. Midtail-Keywords eher auf der Homepage oder den Channel- bzw. Kategorieseiten. Um zu überprüfen, ob dies gut gemacht wurde, sollte man sich eine Liste der verschiedenen Seitenarten machen – und jeweils Beispiels-Keywords daneben schreiben.
8. Dokumentengliederung/Heading: Wer im Firefox die Developer-Toolbar verwendet, findet darin den Punkt “Dokumententstruktur”. Scheint spröde zu sein – bringt aber die inhaltliche Relevanz einer Seite auf den Punkt. Denn hier werden die Überschriften der analysierten Seite klar dargestellt. Und das kann man gleich für alle oben recherchierten Seitenarten machen.
9. Text: Das Tool “Playground” von David Naylor zeigt in einer Javascript-Ansicht u.a. auch den gesamten Text einer Seite. Also ohne Links, ohne Bilder, ohne Javascript. Einfach den Text. Erste Frage ist ja immer: Gibt es überhaupt Text auf der Seite? Und zweite Frage: Ist dieser relevant? Denn das ist der Inhalt, den Google ja eigentlich zeigen möchte…
10. Dynamik Title-Tags, Headlines und Description: Über Title-Tags, Descriptions und Headlines kann man sehr viel philosophieren. Wichtig ist zunächst, das diese auf jeder Seite unterschiedlich sind und relevanten Inhalt beinhalten. Wer seine eigene Seite analysiert, sollte sich dazu bei den HTML-Vorschlägen in den Google Webmaster Tools umschauen.
Wie sieht der Robot die Site?
11. Performance: Ein kurzer Check einer Unterseite auf Webpagetest zeigt zumindest, ob die Seite schnell genug ist. Das Optimierungspotential erschließt sich meist nur einem Technik-Profi. Aber die Werte sind schon einen Blick wert.
12. Ansicht ohne Javascript: Keine Analyse ohne ausgeschaltetes Javascript (Dies kann man z.B. auch mit der Developer Toolbar des Firefox ausschalten). Natürlich kann Google auch Elemente im Javascript lesen – aber verlassen sollte man sich nicht drauf. Deshalb sollten alle oben recherchierten Seitenarten mal “mit ohne” Javascript abgesurft werden.
13. Verwendung von noindex, noindex/follow und canonical: Allein der Einsatz von robots-Anweisungen zeigen die SEO-Kompetenz eines Webmasters. Und wenn wir auf einer Seite sehr komplizierte noindex-canonical-Kunststücke sehen, werden wir misstrauisch. Denn erstens ist so etwas fehlerbehaftet und zweitens sollte das wirklich gut geplant sein. Denn mit einem falsch gesetzten Canonical-Tag hat sich schon so mancher aus dem Google-Index verabschiedet.
14. robots.txt: Auch auf diese sollte man einen Blick werfen. Sieht das sinnvoll aus?
Relevanz bewerten
15. Zahl der Domainlinks: Unter der Eile eines Schnelltests leidet die Qualität der Backlink-Analyse sicherlich am meisten. Aber zumindest die Zahl der verlinkenden Domains (besser noch: IP-Adressen) und ihre regionale Herkunft sollten geprüft werden.
16. Qualität der Links: Es ist auch wirklich sinnvoll, die Links etwa im Link Modul der Searchmetrics Suite zu “überfliegen”. Denn mit ein bisschen Erfahrung kann man dann schnell erkennen, ob an der Seite professioneller bzw. mieser Linkaufbau betrieben wurde – ob alles noch völlig unoptimiert ist. Eine Faustregel: Links die beim Anschauen ein ungutes Gefühl hinterlassen – sind meist auch ungut…
17. Linkziele: Zeigen alle Backlinks auf die Homepage? Oder womöglich gar keine? Beides ist unnatürlich und deshalb auch nicht gut. Wie sieht die perfekte Mischung aus? Das kann man wohl nur nach einer längeren Analyse wirklich sagen.
18. Achor-Texte: Das gleiche gilt auch für die Texte der Links. Ebenso wie für die Zahl der “nofollow”-Links, die Menge der Links der Absenderseiten u.s.w.. Ideal ist eine wilde Mischung und das Verhältnis zur direkten Konkurrenz.
Marktumfeld
19. Keyword-Potential: Meistens finden sich die Hauptkeywords sehr schnell auf der Homepage und beispielhafte Longtail-Keywords auf aktuellen Beiträgen. Diese sollte man schnell mal z.B. in das Keyword-Tool von Google eintragen um zu sehen, ob er hier Potential gibt, wie teuer der CPC ist und was der Wettbewerb macht.
20. Wettbewerb: Wer steht auf den ersten zehn Plätzen für diese Keywords in den SERPs? Passt die Domain hier rein? Dies nicht nur hinsichtlich der Größe sondern auch der Art. Es ist z.B. sehr schwer, bei einem Produkt-Keyword mit einer reinen Info-Seite zu punkten…
Ok, ich gebe zu, dass man das nicht in 15 Minuten schafft. Aber vielleicht sollte man sich auch für eine erste Analyse die dafür notwendige Zeit nehmen ;-)
P.S.: Wer schreibt denn hier? Mein Name ist Eric Kubitz und ich bin Mit-Gründer der CONTENTmanufaktur GmbH. Wer mich erreichen will, kann dies per Mail (ek@contentmanufaktur.net) oder per Twitter tun. Bis bald!