searchmetrics email facebook github gplus instagram linkedin phone rss twitter whatsapp youtube arrow-right chevron-up chevron-down chevron-left chevron-right clock close menu search
29272927

20 Checkpoints für eine schnelle SEO-Analyse

schnellanalyseManchmal muss es schnell gehen. Und dann sollte man eine Checkliste und ein paar ordentliche Tools bereit liegen haben, wenn es darum geht, eine Webseite “eben mal” zu analysieren. Hier eine Liste von ersten Analysen, die mit ein bisschen Übung schon nach einer Viertelstunde zu einer ersten Beurteilung führen können.

Wie sieht Google die Site?

1. Pagerank: Natürlich schauen wir auf den Pagerank – es gibt keinen schnelleren Wert, den wir erfassen können. Allerdings achten wir nicht nur auf den Homepage-Pagerank sondern auch darauf, ob (und ggf. warum nicht) die Channel-Seiten einen hierzu passenden haben. Dies kann ein Hinweis auf die Navigationsstruktur liefern. Ist aber, das gebe ich zu, sehr mit Vorsicht zu genießen…

performance-visibility
Hier die Zahl der Keywords im Index (Searchmetrics analysiert dafür  über 25 Millionen Begriffe). Eine gewichtete Visibility ist in der wöchentlichen Schnellanalyse zu finden.

2. Visibility-Index: Um ganz ehrlich zu sein, ist mir nicht klar, wie wir vor wenigen Jahren ohne Tools wie Searchmetrics und Sistrix SEO betrieben haben. Ohne die historische Entwicklung der Sichtbarkeit bzw. der Visibility würde ich mir keine Aussage mehr über eine Domain zutrauen. Am besten übrigens vergleiche ich die Kurve mit denen der Konkurrenz. Denn wenn diese ähnliche Schwingungen machen – liegt das vermutlich nicht an mir sondern am Google-Algorithmus. Und ich weiß schon wieder mehr.

3. Seiten im im Index: Das gleiche gilt übrigens auch mit der Zahl der Seiten im Index. Dieser Wert wird zwar auch immer bei Google gemessen – und ist deshalb mit Vorsicht zu genießen. Aber wenn ich diese Entwicklungen historisch verfolge, erkenne ich schnell Ungereimtheiten. Am besten vergleiche ich diese Kurve mit möglichst vielen ähnlichen Seiten – um Änderungen im Algo und Messfehler zu neutralisieren.

4. Site-Befehl “site:”: Mit dem Site-Befehl suche ich nach dem, was mir Google zu der Domain anzeigt. “site:domain.com” zeigt mir alle Seiten der Domain an, der Befehl “site:domain.com -site:www.domain.com” zeigt alle Seiten auf Subdomains die nicht “www” sind an. Und z.B. mit “site:www.domain.com inurl:search” findet man alle Seiten mit “Search” im Index, also Suchseiten (die da möglicherweise nicht rein gehören. (http://www.seo-book.de/allgemein/tools-allgemein/search-analyse/seo-suchparameter-fur-die-google-abfrage)

serp-spreading
Die prozentuale Verteilung der gefundenen Keywords über die Suchergebnisseiten.

5. SERP-Spreading: Auch das gehört mittlerweile zum Analyse-Alltag eines SEOs. Erstens ist, wie in diesem Fall, die Positionierung auf den Ergebnisunterseiten von Google sehr aufschlussreich. Aber das geht noch weiter. Wer sich das SERP-Spreading jeweils vor und nach einem größeren Sichtbarkeits-Sprung einer Domain (oder nach einem großen Verlust) anschaut, wird vermutlich schnell wissen was los ist. Kleiner Tipp: Häufen sich die Ergebnisse auf der dritten oder sechsten Ergebnisseite, kann man fast sicher von einer Penalty ausgehen.

Wie sieht der User die Site?

6. Navigation: Man nehme eine nicht mehr ganz aktuelle Longtail-Detailseite (z.B. ein nicht mehr superaktuelles Produkt in einem Shop) und versucht, sich per Navigation dahin zu klicken. Braucht man dafür mehr als 3-4 Klicks, ist die Crawlability der Seite schlecht. Danach schaltet man Javascript und Flash am Browser aus und macht das gleiche noch mal. Viel Erfolg!

7. Seitenarten: Als Faustregel kann gelten, dass Longtail-Seiten am “Ende” einer Navigation auf Detailseiten optimiert werden und Short- bzw. Midtail-Keywords eher auf der Homepage oder den Channel- bzw. Kategorieseiten. Um zu überprüfen, ob dies gut gemacht wurde, sollte man sich eine Liste der verschiedenen Seitenarten machen – und jeweils Beispiels-Keywords daneben schreiben.

dokumentengliederung
Wichtiges SEO-Instrument: Die Developer Toolbar für den Firefox.

8. Dokumentengliederung/Heading: Wer im Firefox die Developer-Toolbar verwendet, findet darin den Punkt “Dokumententstruktur”. Scheint spröde zu sein – bringt aber die inhaltliche Relevanz einer Seite auf den Punkt. Denn hier werden die Überschriften der analysierten Seite klar dargestellt. Und das kann man gleich für alle oben recherchierten Seitenarten machen.

9. Text: Das Tool “Playground” von David Naylor zeigt in einer Javascript-Ansicht u.a. auch den gesamten Text einer Seite. Also ohne Links, ohne Bilder, ohne Javascript. Einfach den Text. Erste Frage ist ja immer: Gibt es überhaupt Text auf der Seite? Und zweite Frage: Ist dieser relevant? Denn das ist der Inhalt, den Google ja eigentlich zeigen möchte…

10. Dynamik Title-Tags, Headlines und Description: Über Title-Tags, Descriptions und Headlines kann man sehr viel philosophieren. Wichtig ist zunächst, das diese auf jeder Seite unterschiedlich sind und relevanten Inhalt beinhalten. Wer seine eigene Seite analysiert, sollte sich dazu bei den HTML-Vorschlägen in den Google Webmaster Tools umschauen.

Wie sieht der Robot die Site?

11. Performance: Ein kurzer Check einer Unterseite auf Webpagetest zeigt zumindest, ob die Seite schnell genug ist. Das Optimierungspotential erschließt sich meist nur einem Technik-Profi. Aber die Werte sind schon einen Blick wert.

12. Ansicht ohne Javascript: Keine Analyse ohne ausgeschaltetes Javascript (Dies kann man z.B. auch mit der Developer Toolbar des Firefox ausschalten). Natürlich kann Google auch Elemente im Javascript lesen – aber verlassen sollte man sich nicht drauf. Deshalb sollten alle oben recherchierten Seitenarten mal “mit ohne” Javascript abgesurft werden.

13. Verwendung von noindex, noindex/follow und canonical: Allein der Einsatz von robots-Anweisungen zeigen die SEO-Kompetenz eines Webmasters. Und wenn wir auf einer Seite sehr komplizierte noindex-canonical-Kunststücke sehen, werden wir misstrauisch. Denn erstens ist so etwas fehlerbehaftet und zweitens sollte das wirklich gut geplant sein. Denn mit einem falsch gesetzten Canonical-Tag hat sich schon so mancher aus dem Google-Index verabschiedet.

14. robots.txt: Auch auf diese sollte man einen Blick werfen. Sieht das sinnvoll aus?

Relevanz bewerten

15. Zahl der Domainlinks: Unter der Eile eines Schnelltests leidet die Qualität der Backlink-Analyse sicherlich am meisten. Aber zumindest die Zahl der verlinkenden Domains (besser noch: IP-Adressen) und ihre regionale Herkunft sollten geprüft werden.

16. Qualität der Links: Es ist auch wirklich sinnvoll, die Links etwa im Link Modul der Searchmetrics Suite zu “überfliegen”. Denn mit ein bisschen Erfahrung kann man dann schnell erkennen, ob an der Seite professioneller bzw. mieser Linkaufbau betrieben wurde – ob alles noch völlig unoptimiert ist. Eine Faustregel: Links die beim Anschauen ein ungutes Gefühl hinterlassen – sind meist auch ungut…

backlinks
Hier eine Zusammenfassung der Linkdaten im Überblick. Detail-Daten gibt es per Klick.

17. Linkziele: Zeigen alle Backlinks auf die Homepage? Oder womöglich gar keine? Beides ist unnatürlich und deshalb auch nicht gut. Wie sieht die perfekte Mischung aus? Das kann man wohl nur nach einer längeren Analyse wirklich sagen.

18.  Achor-Texte: Das gleiche gilt auch für die Texte der Links. Ebenso wie für die Zahl der “nofollow”-Links, die Menge der Links der Absenderseiten u.s.w.. Ideal ist eine wilde Mischung und das Verhältnis zur direkten Konkurrenz.

Marktumfeld

19. Keyword-Potential: Meistens finden sich die Hauptkeywords sehr schnell auf der Homepage und beispielhafte Longtail-Keywords auf aktuellen Beiträgen. Diese sollte man schnell mal z.B. in das Keyword-Tool von Google eintragen um zu sehen, ob er hier Potential gibt, wie teuer der CPC ist und was der Wettbewerb macht.

20. Wettbewerb: Wer steht auf den ersten zehn Plätzen für diese Keywords in den SERPs? Passt die Domain hier rein? Dies nicht nur hinsichtlich der Größe sondern auch der Art. Es ist z.B. sehr schwer, bei einem Produkt-Keyword mit einer reinen Info-Seite zu punkten…

Ok, ich gebe zu, dass man das nicht in 15 Minuten schafft. Aber vielleicht sollte man sich auch für eine erste Analyse die dafür notwendige Zeit nehmen ;-)

P.S.: Wer schreibt denn hier? Mein Name ist Eric Kubitz und ich bin Mit-Gründer der CONTENTmanufaktur GmbH. Wer mich erreichen will, kann dies per Mail (ek@contentmanufaktur.net) oder per Twitter tun. Bis bald!

Eric Kubitz

Eric Kubitz

Wer schreibt denn hier? Eric Kubitz ist Gründer und ehemaliger Geschäftsführer der CONTENTmanufaktur GmbH, die für hohe SEO-Kompetenz und High-Quality-Content steht. Der gelernte Journalist und (Fast-)Wirtschaftswissenschaftler berät große und kleine Portale, gibt sein Wissen als Dozent an Hochschulen und inhouse weiter und spricht regelmäßig auf SEO-Konferenzen. Zu erreichen ist er unter LinkedIn.

8 thoughts on “20 Checkpoints für eine schnelle SEO-Analyse


  • @”Um ganz ehrlich zu sein, ist mir nicht klar, wie wir vor wenigen Jahren ohne Tools wie Searchmetrics und Sistrix SEO betrieben haben.” darauf möchte ich jetzt nicht eingehen, aber es sagt doch viel aus…

    Die Aussagekraft solcher Indezies (z.B. Sichtbarkeits Index) ist doch sehr beschränkt ohne ein individuell an den Kunden angepaßtes Keywordset. Und diese habe ich in der Regel nicht bei der ersten Analyse!

    Ansonsten nette und ausführliche Checkliste, aber nicht jeder hat die kostenpflichtigen Tools.

    Es geht auch kürzer und mit freien Werkzeugen. Hier sind 7 Schritte, die ich in der Regel für die erste Analyse einsetze:

    1. Linkprofile überprüfen (dazu reicht Yahoo und Links sind immernoch das Salz in der Suppe! [Wie ist die Linkpopularität der Domain im Vergleich zu Mitbewerbern? Wie ist das Linkprofile von eigenen Landingpages im Vergleich zu der der Mitbewerber?])

    2. Duplicated Probleme der Startseite (z.B. index.html / mit und ohne www)

    3. Robots.txt überprüfen (Was wird geblockt?)

    4. Meta Robots Tag überprüfen auf relevanten Unterseiten (Startseite und Kategorien)

    5. Site Abfrage bei Google (Optimale Titel? Optimale Snippets? Besteht ein Missverhältnis zw. angelegten Seiten im CMS und der Zahl der indexierten Seiten? [Zuviele, dann häufig duplicate content Probleme. Zuwenig, dann häufig Indexierungsprobleme])

    6. Suche nach der exakten URL der Webseite und Betrachtung der Nur-Textversion auf Google (Gibt es einen Penalty und wie sieht der GoogleBot die Webseite?

    7. Eigener Eindruck von der Webseite (z.B. Kommt sie mir Spammy vor? Befolgt sie Konventionen?)

    Ohne groß ins Detail zu gehen, habe ich so bei gut 80-90% aller Fälle Anhaltspunkte für eine erfolgreiche Optimierung und/oder löse den Aha-Effekt beim Kunden aus!

  • Die Übersicht / Checkliste finde ich wirklich sehr informativ. Die meisten Faktoren kannte ich bereits, aber eine solche Auflistung ist wirklich sehr sinnvoll für die schnelle Erfassung von SEO Daten.

  • @Khalil: Hey, vielen Dank für den ausführlichen Kommentar. Und du hast natürlich völlig recht, das es richtig arg detailliert erst mit einem angepassten Keyword-Set geht. Aber die historischen Aufs und Abs der vergangenen Monate in der “allgemeinen” Sichtbarkeit sind schon sehr, sehr aufschlussreich. Du wirst doch sicher auch schon einen potentiellen Neukunden beim ersten Telefonat mit der Frage überrascht haben, was er z.B. im letzten November gemacht hat, dass er so viel Sichtbarkeit verloren hat.

    Deine Tipps sind supergut und natürlich sehr hilfreich. Nur bei einem habe ich Widerspruch: Mit den Yahoo-Links kann man nur begrenzt etwas anfangen, wenn es mehr als Hundert oder so sind. Dann wird das unübersichtlich. Jedenfalls sehe ich das so.

    Zum Duplicate Content noch ein Tipp: http://www.copyscape.com. Hier kann man “verdächtige” Seiten auch schnell mal rein werfen.

  • die Liste ist klasse und ein echter Mehrwert für Fortgeschrittene

  • Ja, eine gute Übersicht.

    Auch wenn das Sistrix Tool so viel kostet (aus meiner Sicht ist es nicht wenig) werde ich das wohl irgendwann mal ausprobieren. Dieser Sichtbarkeitsindex scheint echt interessant zu sein.

  • Hey, die Liste finde ich sehr gut an sich aber ich frage mich nach der alltagstauglichkeit:

    Wenn du jetzt einen neuen Kunden hast, analysierst du die seite natürlich viel genauer und wenn es beispielsweise um eine “kooperation” mit einer anderen Seite geht dann reichen dazu oft weniger faktoren, wenn man das bei jeder machen würde, würde dies die hälfte der arbeitszeit beanspruchen.

    also nette liste aber für den realistischen gebrauch etwas ungeeignet meiner meinung nach…

  • Outstanding capture,spotless creating with each other with rich shades

  • Marvella Nordmann 18. Juli 2012 um 21:04

    Many thanks for presenting this. Brief enquiry, if you don’t mind. Where did you get your page theme? I’m establishing a blogging site and care for your site.


Kommentar schreiben

Hinweis: Wenn ihr hier keinen Namen eintragt (sondern ein Keyword) oder uns euer Eintrag zu werblich erscheint, behalten wir uns das Recht vor, euren Kommentar zu löschen oder zu editieren. Spart euch sowas hier also bitte!

Des Weiteren erteilt ihr mit der Abgabe eures Kommentars eure Erlaubnis, dass eure Daten von blog.searchmetrics.com/de/ gespeichert werden. Zur Übersicht über die Kommentare und zur Vermeidung von Missbrauch, speichert diese Website Name, E-Mail-Adresse, Kommentar sowie die IP-Adresse und den Zeitstempel eures Kommentars. Die Kommentare können jederzeit wieder gelöscht werden. Detaillierte Informationen findet ihr in unserer Datenschutz-Erklärung.