searchmetrics email facebook github gplus instagram linkedin phone rss twitter whatsapp youtube arrow-right chevron-up chevron-down chevron-left chevron-right clock close menu search
1515515155

SEO leicht erklärt: Indexierung, Website-Quality und Meta-Tags

Suchmaschinenoptimierung ist ein komplexes Thema. Für diesen Beitrag haben wir auf euch gehört und eure SEO-Fragen gesammelt und beantwortet, die euch am Herzen liegen. Was soll man bei der Indexierung seiner Seiten beachten? Wie bewertet Google Website-Quality? Und wie sieht es mit Keywords in den Meta-Tags aus?

Können wir euch bei der Umsetzung eurer SEO- und Content-Strategien unterstützen? Vereinbart einfach einen Kennenlern-Termin mit unseren Experten der Digital Strategies Group:

Jetzt Termin vereinbaren

Webinar-Recap

Im Webinar, „SEO leicht erklärt“, habe ich zusammen mit meiner Chefin im Client Success Management Team, Nadine Caspers, einige Aspekte von SEO erklärt und euch dazu Tipps gegeben. Wer nicht beim Webinar dabei sein konnte, kann sich hier das komplette Video anschauen:

 

 

Im Anschluss ans Webinar haben wir viele Fragen von unseren Teilnehmern bekommen. Die wichtigsten davon beantworte ich in diesem Beitrag – mit Unterstützung von Marcus Pentzek, der als Senior SEO Consultant bei der Searchmetrics Digital Strategies Group unsere Kunden berät und ihnen hilft, ihre Suchmaschinen-Performance zu verbessern.

Die Fragen behandeln folgende Themen:

Crawling durch den Googlebot und Indexierung

Die Crawlbarkeit eurer Website ist die erste Voraussetzung dafür, dass sie von Google erfasst wird und somit eine Chance hat, in den Suchergebnissen zu erscheinen. Dabei habt ihr die Möglichkeit, zu entscheiden, was in den Google-Index aufgenommen werden soll und was nicht.

Wie erreicht man, dass der GoogleBot in kurzen Abständen vorbeikommt?

Der Googlebot besucht Websites so oft, wie es vermeintlich nötig ist:

  • Die Größe der Website kann ein Faktor sein, wenn die vielen URLs einer großen Website auch relevant in Googles Augen sind. Handelt es sich allerdings um inhaltlich schwache Seiten, wird Google sich auch durch die schiere Masse nicht zu häufigeren Besuchen verleiten lassen.
  • Wird eine Website von anderen oft verlinkt und hat sie dadurch einen höheren PageRank, dann wird sie ebenso häufiger besucht.
  • Ein anderer Faktor kann sein, wie viele neue Inhalte auf der Website veröffentlicht werden. Werden beispielsweise täglich 20 neue Blogbeiträge veröffentlicht (oder aktualisiert), steigt der Druck auf Google, diese schneller zu erfassen, als wenn nur ein neuer Beitrag pro Woche veröffentlich wird.

Kann ich auch über die XML-Sitemap dem Bot sagen, was er lesen soll und was nicht?

Nein. Dafür ist die robots.txt da. In die XML-Sitemap gehören primär URLs, die Google crawlen (und in der Regel) indexieren soll.

Kann Google bewerten, inwieweit ich die Indexierung durch den Googlebot beeinflusst habe? Und hat dies Einfluss auf die Bewertung meiner Webpage?

Man kann Google nur Empfehlungen geben, was gecrawlt werden soll. Eine direkte Beeinflussung findet nicht statt und wird daher auch nicht in die Bewertung der Website einfließen.

Macht es Sinn, das Impressum indexieren zu lassen?

Ja. Ein seriöses Unternehmen steht mit und für seinen Namen. Das Impressum kannibalisiert in der Regel auch keine anderen Seiten der Website und kann daher ohne Risiko indexiert werden.

Inwiefern wirken sich Schreibfehler auf die Indexierung bzw. auf das Ranking in der Suchergebnisseite?

Suchmaschinen erkennen Fehlschreibweisen größtenteils korrekt und geben das Ergebnis der richtig geschriebenen Suchanfrage aus. Für mich als Website-Betreiber spricht daher nichts dafür, bewusst Schreibfehler von einem Keyword in meinen Inhalt einzuarbeiten. Dies wirkt auch sehr unprofessionell und kann sich eventuell negativ auf die Nutzersignale (wie Absprungrate) auswirken.

Hat Google den Eindruck, dass für bestimmte Suchanfragen vor allen Dingen hochwertige Inhalte gefragt sind, können Rechtschreibfehler allerdings zu einer Rückstufung der Rankings zum Vorteil höherwertiger Websites führen.

Wie lässt sich der Einfluss einer „guten“ Indexierung in Bezug auf die Google-Bewertung grob beschreiben?

Eine Indexierung ist gut, wenn nur die Seiten indexiert werden, die bei der Online-Suche gefunden werden sollen. Der Einfluss dieser Indexierung auf die Bewertung ist vor allem darin zu sehen, dass Google nur den Ausschnitt der Website gezeigt bekommt, welcher auch relevant ist. Google muss daher die relevanten Inhalte nicht gegen irrelevante Inhalte auf der Website abwägen.

Kann es für die Rankings einer Website nachteilig sein, zu viele Unterseiten zu indexieren?

Ein einfaches Gedankenspiel kann hier helfen: Der Googlebot bekommt für jede Domain nur ein bestimmtes Budget, um die Seite regelmäßig zu crawlen. Habe ich mehr Seiten, als Budget verfügbar ist, braucht es deutlich länger, bis all meine Inhalte auch erfasst sind. Wenn ich nun Inhalte erneuere, kann es also noch länger dauern, bis diese neuen Inhalte erkannt werden.

Ein weiterer wichtiger Punkt ist folgender: Habe ich sehr viele Inhalte, die ich aber kaum optimiert auf bestimmte Suchanfragen habe, dann existieren sehr viele Unterseiten, die alle von Google schlecht bewertet werden. Dies kann der Gesamtbewertung einer Seite schaden. Zudem kann es bei sehr vielen Seiten schnell passieren, dass ich ähnliche Inhalte zu den gleichen Suchanfragen habe, was dazu führen kann, dass keiner der Inhalte optimal platziert wird.

Wieso sollte ich nicht wollen, dass eine Landingpage für eine Social-Media-Kampagne im Index landet? Beeinflusst das das Crawl-Budget negativ?

Eine gute Frage! Hier würde ich vor allem auf den Zweck einer Landingpage achten. Erstelle ich eine Landingpage, die nur der Lead-Abfertigung einer Kampagne dient – zum Beispiel eine Unterseite, die nur ein Kontaktformular beinhaltet, dann gilt der Inhalt der Landingpage als low quality content und wird von Google schlecht bewertet. Habe ich sehr oft solche Seiten und lasse ich diese auch von Google indexieren, kann dass der Bewertung meiner gesamten Seite schaden.

Wenn ich meine Social-Media-Landingpage mit Inhalten fülle und sie konkret auf andere Suchanfragen optimiere als meine SEO-Landingpages, kann es durchaus auch Sinn machen, diese Unterseite ranken zu lassen. Sind die beiden Landingpages aber zu ähnlich, kann es passieren, dass die Seiten sich gegenseitig die Rankings streitig machen.

Pauschal kann man das sicherlich nicht beantworten. Auf Nummer sicher (gegen Kannibalisierung) geht man allerdings mit der Methode, nur die Inhalte von Google crawlen und indexieren zu lassen, die man auch dafür vorgesehen hat.

Was bedeutet die aktuelle Ankündigung von Google, dass noindex zum Standard wird?

Die Ankündigung von Google, dass ab 1. September 2019 die noindex-Regel in der robots.txt nicht mehr berücksichtigt wird, ändert die Verwendung der robots.txt. Zunächst muss mir bewusst werden, dass alle Seiten, bei denen ich lediglich die Indexierung über die robots.txt untersagt habe, nun im Google-Index landen können.

Weiterhin habe ich verschiedene Möglichkeiten zu deindexieren:

  • noindex im robots-Meta-Tag funktioniert nach wie vor als einfachste Variante.
  • Per disallow in der robots.txt kann ich Bots weiterhin vom Crawling bestimmter Inhalte meiner Website abhalten.

Ist es sinnvoll, Seiten mit „bad content“ auf noindex zu setzen und wie erkenne ich „bad content“?

Prinzipiell würde ich die Deindexierung nur auf Inhalte anwenden, die nicht für Suchanfragen geeignet sind, zu denen ich gefunden werden will. „Schlecht“ sind Inhalte, die nicht zu den Suchanfragen passen. Daher wäre der sinnvolle Weg, zu evaluieren, welche Inhalte für die Suchanfragen benötigt werden und ob ich diese auch liefern kann.

Macht es einen Unterschied für SEO ob One-Pager oder Seitenstruktur? Oder kann ich einen One-Pager auch optimal bei Google indexieren?

Für die reine Indexierung sollte ein One-Pager keine Probleme bereiten – die Seitenstruktur ist ja entsprechend einfach. Wenn ich auf die Startseite gelange, ist diese indexierbar und aller Linkjuice, der durch Verlinkungen auf meine Seite geleitet wird, ist gebündelt.

Will ich aber für mehr Themen gefunden werden, als es direkt zu meinem Hauptthema passt, wird dies mit einem One-Pager schwierig. Nehmen wir zum Beispiel die Seite eines therapeutischen Angebots. Die Startseite wird prinzipiell zu allen relevanten Suchbegriffen optimiert, die im direkten Arbeitsfeld des Services stehen. Nun möchte ich auch Nutzer erreichen, die bestimmte Krankheitsbilder haben, bei denen mein Angebot eine Lösung ist. Da würde es sich anbieten, weitere Inhalte auf neuen Unterseiten zu erstellen, die mein Wissen und meine Expertise darstellen und gleichzeitig die entsprechenden Suchanfragen beantworten. Durch mehr Seiten steigt aber natürlich auch die Komplexität der Seite.

Weiterhin muss bedacht werden, dass, abhängig von der Nutzerintention, die hinter einer Suchanfrage steckt, Google definiert, dass textlich kürzere (oder längere) Seiten diese besser erfüllen können. Hiervon kann z.B. die sinnvolle Entscheidung abhängen, einen holistischeren OnePager (vgl. Pillar Page) zum Thema zu bauen – oder mehrere inhaltlich enger gefasste, auf Einzel-Keywords optimierte Seiten, die in einer entsprechenden inhaltlichen Webseitenstruktur organisiert sind.

Ist dies scheinbar irrelevant, bleibt der Vorteil von One-Pagern zu erwähnen, dass durch die höhere Menge an dort zu findenden Begrifflichkeiten auch die Chance auf mehr Longtail-Rankings besteht, die sich aus den vielen verschiedenen Begriffen zusammensetzen, die sich teils durchaus mit Abstand auf der Seite befinden.


Das nächste Webinar in unserer Reihe „SEO leicht erklärt“ findet am 25.09. statt. Zur Anmeldung geht’s hier lang:

Jetzt anmelden!


URLs, Keywords, Meta-Tags und Co.

Suchmaschinen werden intelligenter und damit ist SEO in den letzten Jahren viel komplexer geworden. Dadurch fragen sich viele, welche Rolle Keywords, Meta-Tags und Co noch spielen.

Sind Keywords als Meta-Tags überflüssig?

Für die Optimierung auf die Google Suchmaschine: ja. Dies wurde von Googles Matt Cutts bereits 2009 beantwortet. Und in diesem Fall heißt es: was vor 10 Jahren galt, gilt heute noch.

Für sekundäre Suchmaschinen kann die Nutzung des Meta-Tags aber immer noch sinnvoll sein. Faustregel für den Keywords-Meta-Tag: Definiert pro URL etwa 2-3 Suchbegriffe, für die diese URL relevant ist. Und vermeidet Überschneidungen mit anderen URLs.

Wie wichtig sind Faktoren wie der richtige Seitenaufbau z.B. H1-, H2-, H3-Überschriften, Meta-Tags und Alt-Tags?

Strukturierung kann immer helfen, hilft aber gleich auch sehr unterschiedlich. Überschriften dienen zunächst einmal der Übersichtlichkeit und können es leichter machen, Inhalte klarer zu strukturieren und damit auch bewusst Unterthemen anzuzeigen.

Meta-Tags sind sehr unterschiedlich zu beurteilen. Der Meta-Titel ist eine wichtige Komponente, um Suchmaschinen zu zeigen, um was es bei der URL geht und zu welcher Suchanfrage der Inhalt geschrieben wurde. Die Meta-Description ist vor allem auf der Suchergebnisseite wichtig, denn dies ist der erste Text, den der Nutzer von meiner Seite sieht und anhand dessen er sich entscheidet, ob ein Klick sich lohnt.

Alt-Tags sind wiederum sehr wichtig im Bereich der Google-Bildersuche.

Sprechende URL: Wie sieht die ideale URL aus?

Das kann ein kompletter Workshop für sich sein. Die kurze Antwort: eine URL sollte die Struktur der Website widerspiegeln und in jedem Element so sprechend sein, dass der User anhand der URL erkennen kann, was ihn erwartet.

Ist es noch sinnvoll, spezielle Keyword-Domains zu betreiben, die gut ranken und zu der eigenen Seite verlinken, um für diese einen besseren Page-Rank zu erhalten?

Domains erhalten heute von Google keinen Ranking-Vorteil mehr allein dadurch, dass sie das exakte Keyword im Domain-Namen tragen. Diesbezüglich muss die Antwort also „Nein“ lauten.

Den PageRank der Haupt-Website durch Links von diesen Keyword-Domains zu stärken, kann nur funktionieren, wenn die Keyword-Domains selbst einen Wert besitzen. Werden diese als jungfräuliche Domains registriert, haben sie zunächst einmal keinen Wert – also keinen bedeutenden PageRank, den sie vererben könnten. Um dies zu gewährleisten, müsste für die Keyword-Domain ein Backlink-Profil aufgebaut werden.

Backlinks als Ranking-Faktor sind heute schwieriger zu manipulieren, als noch vor wenigen Jahren, und auch weniger „einfach“ aufzubauen. Backlinks zählen heute vor allem, wenn sie möglichst natürlich entstanden sind (also echte „Empfehlungen“), themenverwandt sind und eine „Story“ haben. Ein Link muss eine Daseinsberechtigung haben, um als natürlich zu gelten. Weiterhin ist es für eine qualitativ hochwertige Website einfacher, völlig natürliche Backlinks „einzusammeln“, weil sie oft zu spannenden Suchbegriffen rankt und die Nutzerintention des Webmasters, der gerade eine Verweisquelle sucht, gut bedienen kann.

Statt heute noch auf diese Strategie zu setzen, würde ich eher empfehlen, die Zeit und Arbeit in die inhaltliche Optimierung (für den User) der eigenen Website zu setzen, damit diese später ganz natürliches Ziel neuer Backlinks wird – sonst lauft ihr Gefahr, eine manuelle Abstrafung seitens Google wegen unnatürlichen Linkaufbaus zu riskieren. Andere Strategien (z.B. optimierter, nutzer-orientierter Content) können längerfristig weit bessere Erfolge erzielen.

Nutzersignale und Suchintention

Die Suchintention beschreibt das, was der Nutzer bei seiner Suche erwartet. Möchte er einen langen Text lesen, eine schnelle Antwort bekommen oder lieber ein Video schauen? Damit hängen die Nutzersignale zusammen, die vom User ausgehen. Wie oft klickt er ein Suchergebnis an, wie lange verbleibt er auf der Seite und wie oft klickt er zu den Suchergebnissen zurück? Erfolgreiche Suchmaschinenoptimierung sollte nicht nur die Suchmaschine, sondern auch immer den Nutzer und sein Verhalten berücksichtigen.

Ich habe viele Content-Seiten, auf denen der User einige Zeit liest, aber ohne Interaktion wieder geht. Beeinflusst diese 100%ige Absprungrate mein Ranking negativ oder wird von Google berücksichtigt, dass es sich um eine reine Content-Seite handelt?

Google gibt zwar in seinen Richtlinien an, dass eine Seite keine geringen Absprungraten braucht, jedoch würde ich sagen, dass man nur selten den Fall hat, dass man einen Nutzer nicht weiter auf der eigenen Seite bedienen will. Das Beispiel von Wikipedia zeigt, dass es eben nicht nur um den reinen Content auf einer Seite geht. Wikipedia bietet sehr viele Möglichkeiten für den Nutzer, weitere Inhalte zu öffnen und sich mit weiterführendem Content zu informieren.

Google selbst bewertet übrigens die Absprungrate nicht als Ranking-Faktor, sondern die verwandte „Back-to-SERP“-Rate. Hier schaut Google genauer, wie lange es vom Besuch der Seite aus der Suchergebnisseite bis zum Zurückkehren auf die Suchergebnisseite gedauert hat. Und auch dies ist nicht zwingend ein negatives Signal. Wenn der User nämlich im Content gefunden hat, was ihn interessierte, wird er sich nicht weiter mit der ursprünglichen Suchanfrage beschäftigen. Hat er aber nicht gefunden, was er suchte, wird er entweder ein weiteres Suchergebnis anklicken oder die Suchanfrage verfeinern, um passendere Ergebnisse zu finden.

Wenn wir dann noch den Aussagen von John Müller (Webmaster Trends Analyst bei Google) Glauben schenken wollen, spielen die Nutzersignale einzelner Suchanfragen nicht ins Ranking, sondern dienen lediglich dem Training der Algorithmen.

Ihr habt (im Webinar) die navigationale und lokale Suchintention ausgelassen. Hat das einen bestimmten Grund?

Der Grund war, dass wir das Beispiel einfach halten und uns etwas Zeit sparen wollten. Natürlich gibt es mehr Suchintentionen als transaktionale und informationelle. Zudem würde ich auch argumentieren, dass es in jeder Suchintention auch weitere differenzierende Nuancen gibt, die mir helfen können, meine Inhalte noch konkreter anzupassen.

Website-Quality: Wie bekommt man bessere Rankings?

Es gibt keine simple Methode, um bessere Rankings zu bekommen. Doch sind einige Punkte in Bezug auf Googles Ranking-Algorithmus schon klar. Vorn mit dabei ist die Tatsache, dass Google die Qualität von Inhalten auf einer Seite bewertet und dass eine entscheidende Rolle bei der Kalkulation der Positionierung in den Suchergebenissen spielt. Doch wie lässt sich die Qualität von Webseiten bewerten?

Wer bewertet denn meine Webseite und entscheidet, ob sie gut oder schlecht ist?

Diese Bewertungen finden bei einer Suchmaschine durch den entsprechenden Algorithmus statt. Der Algorithmus, beispielsweise von Google, nutzt viele verschiedene Faktoren, wie den Inhalt, Verlinkungen, Nutzersignale oder auch technische Aspekte, um zu entscheiden, welche URLs zu einer Suchanfrage am besten geeignet ist. Grundsätzlich gilt, dass eine Website mit einer einwandfreien technischen Optimierung und möglichst relevantem Content die besten Chancen hat, gute Rankings zu erzielen.

Mit welchen Methoden kann man die Ranking-Faktoren direkt beeinflussen?

Dies ist eine sehr breite Frage, die ich nicht in ein paar Sätzen beantworten kann. Wie im Webinar genannt gibt es mittlerweile über 200 verschiedene Ranking-Faktoren, die ich auch in sehr unterschiedlicher Weise beeinflussen kann. Die einzelnen Faktoren sich anzuschauen und mögliche Methoden zu beleuchten, könnte man in einem weiteren Webinar machen – oder in 200 weiteren.

Aber mal aufs Einfachste reduziert: Einer der wichtigsten Onpage-Ranking-Faktoren ist und bleibt der Title-Tag. Die Nutzung des Haupt-Keywords im Title ist somit einer der direktesten Einflussfaktoren.

Welche Suchergebnisse erhalten ein Featured Snippet und habe ich darauf Einfluss?

Ob ein Featured Snippet angezeigt wird, liegt ganz allein in der Hand von den Suchmaschinen selbst. Genauso, welcher Inhalt der jeweiligen Website angezeigt wird. In seinem Beitrag zur Optimierung auf eine Antwort-Box hat der Director unserer Searchmetrics Digital Strategies Group, Björn Darko, bereits verschiedene Wege getestet, die die Features Snippets beeinflussen können. Ihr könnt seinen Vortrag dazu hier anschauen oder bei uns im Blog den entsprechenden Beitrag lesen.

Google Analytics

Je mehr Daten ihr habt, umso besser werdet ihr eure Online-Performance verstehen können. Daher empfiehlt sich die Verknüpfung von Daten aus eurer Suchmaschinenoptimierungsplattform (z.B. aus der Searchmetrics Suite) mit Nutzer-Daten aus einem Tool wie Google Analytics.

Wird bei einer guten Seite empfohlen, auch Google Analytics zu nutzen, damit Google auch zusehen kann, wie sich die Nutzer auf der Seite bewegen?

Die Nutzung eines Analytics-Programms ist generell sinnvoll. Sinnvoll aber vor allem, dass ich selbst einen Einblick in das Nutzungsverhalten meiner Nutzer erhalte und dementsprechend auch auf Grundlage dieser Daten Entscheidungen fällen kann. Google schließt in seinen eigenen AGB aus – und ich unterstelle Google auch kein Zuwiderhandeln – dass die über Google Analytics erhobenen Daten nicht zur Bewertung von Websites herangezogen werden.

Möchtet ihr euer SEO-Wissen in die Praxis umsetzen? Dann vereinbart heute eine Demo unserer Searchmetrics Suite:

Demo vereinbaren!

Ben Doll

Ben Doll

Hi, hier schriebt Ben. Bei Searchmetrics unterstütze ich unsere Enterprise- und Agenturkunden als Client Success Manager. Den Fokus setze ich dabei auf die Online-Ziele von Unternehmen und wie diese durch unsere Software erreicht werden können. Dafür beschäftige ich mich ständig mit den neusten Trends im Search-Bereich und bringe als passionierter Optimierer Tipps und Tricks für den Unternehmenserfolg mit.

Kommentar schreiben

Hinweis: Wenn ihr hier keinen Namen eintragt (sondern ein Keyword) oder uns euer Eintrag zu werblich erscheint, behalten wir uns das Recht vor, euren Kommentar zu löschen oder zu editieren. Spart euch sowas hier also bitte!

Des Weiteren erteilt ihr mit der Abgabe eures Kommentars eure Erlaubnis, dass eure Daten von blog.searchmetrics.com/de/ gespeichert werden. Zur Übersicht über die Kommentare und zur Vermeidung von Missbrauch, speichert diese Website Name, E-Mail-Adresse, Kommentar sowie die IP-Adresse und den Zeitstempel eures Kommentars. Die Kommentare können jederzeit wieder gelöscht werden. Detaillierte Informationen findet ihr in unserer Datenschutz-Erklärung.