searchmetrics email facebook github gplus instagram linkedin phone rss twitter whatsapp youtube arrow-right chevron-up chevron-down chevron-left chevron-right clock close menu search
1444614446

Der Website Relaunch – eine Baustelle mit vielen SEO-Stolpersteinen

Ihr arbeitet an einem Relaunch eurer Website und stolpert im 10-Minuten-Takt über eine „Fehler 404 – Seite nicht gefunden“-Meldung, die euch nicht nur Zeit, sondern auch Nerven raubt? Wir schaffen Abhilfe mit unserem Recap zum Webinar „Der Website Relaunch – eine Baustelle mit vielen SEO-Stolpersteinen“ mit Thomas Gruhle, Gründer und CEO der Online-Marketing-Agentur LEAP und Bert Winterfeld, Senior Marketing Manager bei Searchmetrics. Unsere Experten haben die häufigsten Relaunch-Fallen für euch zusammengefasst und präsentieren dazu anschauliche Lösungsvorschläge:

Verpasst nicht die weiteren Webinare mit Searchmetrics & LEAP! Am 17. April erfahrt ihr, wie Microsofts Suchmaschine Bing funktioniert, was anders ist als bei Google und wie ihr Bing am besten nutzen könnt.

Jetzt kostenlos anmelden


Video: Der Website Relaunch – eine Baustelle mit vielen SEO-Stolpersteinen“

Als Ergänzung zu diesem Beitrag haben wir eine Video-Aufzeichnung unseres Webinars mit Thomas Gruhle und Bert Winterfeld für euch.

Während des Webinars gab es zahlreiche spannende Fragen aus der Zuhörerschaft, so dass gar nicht genug Zeit war, alles zu beantworten. Hier findet ihr alle Fragen, thematisch sortiert:


Relaunch-Falle #1: Weiterleitungen

Wie schädlich sind 301 Weiterleitungen im Hinblick auf Google?

Thomas: Google selbst hat mit 301-Weiterleitungen keine Probleme. Wichtig ist, dass hierbei darauf geachtet wird, dass die alte Ziel URL und die neue Ziel URL thematisch den gleichen Inhalt haben. Das Abschalten eines Kategorie-Baumes und eine allgemeine Weiterleitung auf die Startseite sind eher kontraproduktiv und sollten deshalb besser vermieden werden. Es empfiehlt sich in diesem Fall einen 404 zu senden bzw. noch besser einen 410 (Gone).

Bert: Ich habe das Thema besonders häufig begleitet, wenn im News-Bereich einer Firmen-Website ausgemistet wurde. Manchmal sammeln sich die News-Detailseiten über Jahre an und blähen die Website unnötig auf, zumal dort oftmals nur sehr dünner Content vorhanden ist, der nur in ersten Tagen nach der Veröffentlichung Traffic bekommt.

Schaut nach, ob hier relevante Backlinks vorhanden sind oder dauerhafter Traffic besteht. Falls nicht, empfehle ich den rigorosen Einsatz von 410, statt Weiterleitungen auf die News-Übersichtsseite. Wer als Firma viele News auf der eigenen Website publiziert, läuft sonst Gefahr, über die Jahre einen unübersichtlichen Dschungel aus Weiterleitungen zu produzieren. Lasst eure htaccess-Datei also nicht mit Redirects ausufern.

Falls es eine Seite nach dem Relaunch inhaltlich nicht mehr geben wird: Soll ich die Seite per 301 auf die Startseite weiterleiten oder mit dem 404 Statuscode arbeiten?

Thomas: Ein “SOFT 404” ist nicht das gleiche wie eine (echte) Fehlerseite. Mit dem “Statuscode Soft 404” möchte uns Google nur den Hinweis geben, dass auf der Domain Dokumente mit zu wenig eigenem Inhalt vorhanden sind. In der Regel sind das Dokumente mit weniger als 300 Wörtern. Hier empfiehlt es sich, entweder den Content sinnvoll auszubauen oder das Dokument via Meta-Robots-Tag auf “noindex” zu setzen.

Wie überprüft man alte Weiterleitungen, um Weiterleitungsketten zu vermeiden?

Thomas: Im Webinar habe ich die passende Screaming-Frog-Konfiguration beschrieben. Hier solltet ihr einmal komplett mit der richtigen Konfiguration crawlen. So zeigen sich auch die vorhandenen Weiterleitungsketten.

Warum sind Weiterleitungsketten schlecht? Liegt das an der sich damit veränderten Seitenladezeit?

Thomas: Ja. Weiterleitungsketten kosten Ladegeschwindigkeit, da bei einem Klick auf den ersten Link mehrere Requests an den Webserver geschickt werden, bevor die eigentliche Seite ersichtlich ist. Wenn Weiterleitungen eingerichtet werden, sollte zusätzlich geprüft werden, ob es nicht „zu lange“ Weiterleitungsketten gibt. Aktuell verfolgt Google maximal 5 Weiterleitungsketten.

Neben der Ladegeschwindigkeit kann hier aber auch ein Problem mit dem Crawl-Budget entstehen, da Google die Weiterleitung von A->B->C->D nicht direkt verfolgt, sondern jeden Verweis immer einzeln prüft. Somit kann bei hoher Anzahl von Weiterleitungsketten ein Problem im Crawl-Budget entstehen. Daher empfiehlt es sich immer, das „echte“ Ziel zu verlinken.

Für den Fall, dass alte URLs viele eingehende Links haben: Wie leitet man sie weiter, wenn es kein Äquivalent gibt − z.B. ein Produkt, das in der Form nicht mehr vorhanden ist?

Beispiel: Einige Hosen im Online Shop haben viele Backlinks, aber es gibt die gesamte Kategorie nicht mehr. Leiten wir dann einfach zu Pullovern weiter, auch wenn das prinzipiell eher irreführend ist?

Thomas: Allgemein gilt Folgendes: Wenn keine alternative URL (Kategorie/Produkte) existiert, empfiehlt es sich, ein 404 zu senden. Alternativ kann natürlich auch darüber nachgedacht werden, ob nicht eine „echte“ neue Content-Seite zum Thema generiert werden kann oder auf eine „“weitestgehend“ passende Rubrik verlinkt werden kann. Wenn aber schon im Voraus ersichtlich ist, dass es vermutlich eine hohe Absprungrate geben wird, kann dieser Gedanke verworfen werden.

Aber: Gute Links sind sehr rar: Bei „sehr guten“ Backlinks (besonders bei Domain Pop 5, „dofollow“ Links und Content-Seiten, die absolut keinen Anknüpfungspunkt zu neuen Inhalten hat) könntet ihr zur Not auf die Startseite weiterleiten.

Habt ihr eine pauschale Empfehlung, wie lange Weiterleitungen im System bleiben sollten? Wir werden regelmäßig von der IT gefragt, wann sie die bestehenden Weiterleitungen endlich abschalten dürfen.

Thomas: Bis zu dem Punkt, wo Google die alten URLs nicht mehr crawlt. Dies kann man über die Server Logs prüfen. Ab den Punkt, wo keine oder weniger URLs gecrawlt werden, können die Weiterleitungen abgeschaltet werden. Als Richtwert kann man sich an ca. 12 Monaten orientieren. Es wird jedoch empfohlen, die Funktion vor der Abschaltung nochmal zu prüfen. Bei URLs mit vielen Backlinks und aktiven Traffic sollte der Redirect eventuell bestehen bleiben.

Wie können wir nach dem Relaunch erkennen, welche URLs nicht korrekt weitergeleitet oder vergessen wurden? GSC oder GA?

Thomas: Bevor mit einem Relaunch gestartet wird, sollte immer ein Abbild vom vorhandenen Projekt erstellt werden. Externe Ressourcen, wie SEO-Agenturen, greifen hierbei gerne auf Screaming Frog oder ähnliche Tools zurück. Als Inhouse-SEO dagegen hat man oft die Möglichkeit, sich den aktuellen Stand unter einer freeze-Subdomain einrichten zu lassen. Hier wird ein komplettes Abbild der Applikation hinterlegt.

Nach dem Relaunch benötigt man dann einen Crawler, der alle URLs aus dem alten System auf den Statuscode 301 und die Zieladresse prüft, durch z.B. eine Überprüfung der Überschriften.

Wer diese Möglichkeit nicht hat, sollte nach dem Relaunch die Error-Server Logs im Auge behalten, um schnell reagieren zu können. Es ist jedoch nicht empfehlenswert, jeden Tag Google Search Console auf- und abzuscrollen, um zu sehen, was wie, wo, wann, passiert.


Relaunch-Falle #2: Domain Switch

Habt ihr Erfahrungen mit Merge Relaunches? Welche Gefahren seht ihr primär, wenn man von vielen Länder-Domains auf eine .com Domain switcht.

Thomas: Da stellt sich zunächst die Frage: werden alle Inhalte zusammengeführt oder fallen alte Inhalte weg? Wenn alle Inhalte gleichbleiben: Achtet auf das hreflang Link-Attribut. Es muss geändert werden, wenn es nicht mehr auf einzelne Domains zeigt, sondern auf verschiedene URLs innerhalb der neuen.com Domain.

Erstellt eine Liste über die Weiterleitungen aller URLs, die ihr mit einem Crawl findet. Wie funktioniert das?

– Alle URLs zusammensuchen, die Rankings haben oder Backlinks besitzen

– Duplikate ausschließen

– Liste: Spalte A alte URL – Spalte B neue URL

– Weiterleitung der URLs überprüfen

– Ggf. Anmeldung der neuen Domain in der Search Console

 

Was ist zusätzlich beim Marken-/Domainwechsel zu beachten? Sind hier Ranking-Verluste zu befürchten? Gibt es hierzu Erfahrungen?

Thomas: Google versteht eine neue Domain meist sehr gut und kann Brand und Keywords gut einordnen. In Einzelfällen kann es zu Ranking-Verlusten kommen. Google muss dann die neue Brand erst einmal als Brand verstehen. In einem solchen Fall empfehlen wir neben den Onpage-Anpassungen auch auf Offpage-Signale zu setzen.


Relaunch-Falle #3: Methoden und Planung

Was genau ist das RACI Modell?

Thomas: RACI steht für Responsible, Accountable, Consulted, Informed

Ziel der RACI-Matrix ist es, Rollen und Verantwortlichkeiten festzulegen. Verantwortung in einem Projekt muss klar definiert sein. Ohne eine klare Gliederung der Verantwortungsbereiche und der damit verbundenen Pflichten und Kompetenzen endet ein Projekt schnell im Chaos.

Responsible (verantwortlich) − bescheinigt einer Person Durchführungsverantwortung. Ob die Aktivität selbst durchgeführt oder delegiert wird, spielt hierbei keine Rolle.

Accountable (rechenschaftspflichtig) − diese Person trägt die rechtliche oder kaufmännische Verantwortung. Oft handelt es sich dabei um den Kostenstellenverantwortlichen.

Consulted (konsultiert) − eine Person in diesem Cluster muss befragt werden oder führt Teile der Arbeit aus. Oftmals handelt es sich dabei um Personen mit spezifischem Fachwissen.

Informed (informiert) − Personen in dieser Kategorie werden in der Regel nur über den Stand oder Verlauf des Relaunches informiert.

Mit der RACI-Matrix lassen sich einzelne Prozessaufgaben klar nach Verantwortungen strukturieren. Dabei solltet ihr beachten: in der Regel kann nur eine Person „verantwortlich“ und auch nur eine Person rechenschaftspflichtig sein.

Wie weit im Voraus sollte man die existierenden URLs zusammentragen?

Thomas: Sobald der Relaunch bekannt wird, solltet ihr alle URLs mithilfe von SEO Tools, wie Google Search Console, sammeln. Kontrolliert kurz vor dem technischen Relaunch nochmal, welche URLs neu dazugekommen sind und richtet die entsprechenden Weiterleitungen ein.

Bert: Da ihr hoffentlich niemals an einem Freitag mit dem Relaunch live geht, bietet es sich an, am Freitag nochmal alles zu crawlen, zu dokumentieren und die Weiterleitungen einzurichten. So ergibt sich ein guter Ist-Stand, der unverändert bleibt, da über das Wochenende neue URLs oder anderweitige Änderungen sehr unwahrscheinlich sind. Am Montag könnt ihr dann frisch mit dem Live-Gang starten und habt noch die ganze Woche Zeit, um Fehler zu finden und zu beseitigen.

Sollte beim Relaunch gleich von HTTP 1.1 auf HTTP 2 umgestellt werden?

Thomas: Grundsätzlich ist ein Umstieg immer sinnvoll, da hier mit geringem Aufwand potenziell positive Einflüsse auf Pagespeed und Serverlast zu verzeichnen sind. Wenn man hier also ein technisches Update macht, ist dies eine gute Gelegenheit für diese Umstellung. Kurzum: Bitte umstellen. Dies kann auch vorab geschehen, da ein Protokoll-Switch nichts mit dem CMS-System zu tun hat.

Sollte man einen Relaunch auch nutzen, um seine Seite zu verschlanken und Ghost-Seiten, die keinen Traffic und keine Backlinks mehr haben, einfach löschen?

Thomas: Aufräumen ist immer eine feine Sache. Wenn nicht zum Relaunch wann dann? Tendenziell kann man sagen, dass Dokumente, die in den letzten 12 Monaten keinen Traffic von außen oder durch interne Verlinkungen bekommen haben, entfernt werden können.

Wie definiere ich Meilensteine bei einem Relaunch-Projekt?

Thomas: Wenn Meilensteine definiert werden, sollten diese klar formuliert werden.

Beispiel: „Fertigstellung Produktseite“ Das wäre pauschal gesagt zu wenig. Besser wäre hier klar zu definieren, was alles erledigt werden muss, um dieses Ziel zu erreichen.

Also besser:

„Fertigstellung Produktseite“

  • URL-Redesign
  • URL-Management
  • Check Out Integration
  • org für die Auszeichnung des Produktes

Die Sub-Tasks selbst benötigen eine Deadline und eine Aufwandsschätzung. Nur so kann gewährleistet werden, dass die gesetzten Meilensteine auch realisierbar sind. Wir wollen ja nicht, dass sich der Relaunch entwickelt wie der Flughafen Berlin.

Mit welchen Tools entsteht eine komplette Migrationstabelle möglichst automatisiert?

Thomas: Excel, MySQL, .htaccess. Hierzu gibt es keine allgemeingültige Antwort, da hier den verschiedensten Einflüssen und Konstellationen Rechnung getragen werden muss.


Relaunch-Falle #4: Software Tools

Wie können Tools wie Screaming Frog oder Audisto auf Seiten zugreifen, die noch nicht für das allgemeine Publikum zugänglich sind?

Thomas: Screaming Frog sowie Audisto können .htaccess-Passwortabfragen ausführen, wenn die Login-Daten hinterlegt wurden.

Wir haben kürzlich unsere Website mit Screaming Frog durchsucht und alle Parameter, Bilder und anderen Quellen in die Spider-Einstellungen aufgenommen. Am Ende hatten wir ca. 400.000 URLs gecrawlt, was zu einem 14-Gigabyte-CSV-Sheet geführt hat, mit dem wir jetzt arbeiten möchten. Trotz eines Laptops mit 16 GB RAM können wir nicht an der Tabelle arbeiten, da z.B. Excel kapituliert. Gibt es Vorschläge, wie wir damit umgehen können?

Thomas: Nutzt hier am besten den Export von Teil-Ressourcen. Statt beispielsweise die internal.csv zu verarbeiten, macht es durchaus Sinn, nur die 404-Errors zu exportieren. Alternativ kann man natürlich auch die CSV-Dateien in eine DB importieren und über eine Oberfläche konfigurierbar machen. Das geht gut mit Bigquery und dem Datastudio.

Ist bei einer technischen Umstellung von Drupal 7 auf Drupal 8 eine evolutionäre Anpassung in irgendeiner Form möglich?

Thomas: Da es sich hier um eine komplette Veränderung der Softwarearchitektur handelt, ist es bei dem Umstieg von Drupal 7 auf 8 nicht möglich, evolutionär zu arbeiten.

Bert: Ähnlich verhält es sich bei TYPO3, wenn ihr von einer alten 6er oder 7er Version auf 8 oder 9 umstellen wollt. Bei Major Updates empfiehlt es sich erstmal die technische Infrastruktur zu erneuern und danach die Seite evolutionär weiterzuentwickeln.


Relaunch-Falle #5: Indexierungs- und Crawl-Management

Was ist außer robots.txt disallow zu beachten, wenn man mit einer BETA live geht, die zuvor nur an ausgewählte Kunden geschickt wird? Da Kunden die Seite höchstwahrscheinlich besuchen werden, können wir sie auch nicht passwortgeschützt laufen lassen. Die „alte“ Seite bleibt noch online und im Index.

Thomas: Macht am besten eine Beta-Version ohne Passwort auf eine Subdomain z.B.beta.example.com. Die Beta-Version sollte auf jeden Fall via robots.txt gesperrt werden. Dies ist die einfachste und schnellste Möglichkeit, den Bot am Crawlen zu hindern. Wer sichergehen will, packt zusätzlich “no index” in das html Dokument oder x-robots in den http Header.

Alternativ kann man natürlich auch eine Beta-Version über das Setzen von Cookies ausspielen. Wer einen Loadbalancer im Einsatz hat, kann auch User auf die neue Version leiten ohne das Google irgendwas hiervon mitbekommt.

Wirkt sich der Ausschluss der Bridge-Page (Anmeldungsseite für SaaS) aus der robots.txt negativ auf das SEO aus?

Thomas: Nein

Eine Agentur schlug mir einmal vor, nach dem Relaunch alle Seiten per Canonical tag auf sich selbst zeigen zu lassen, was wir auch umgesetzt haben. Inwiefern ist das sinnvoll? Zumal ja ein Canonical tag eigentlich dafür da ist, Seiten mit gleichem oder ähnlichem Inhalt für Google zu kennzeichnen.

Thomas: Damit werden unerwartete Fehler und falsche Verlinkungen korrigiert oder vorgebeugt.

Was kann ich tun, wenn Google sich dem gesetzten Canonical link widersetzt und der Meinung ist, es gäbe eine andere / bessere Canonical-Seite?

Thomas: Wenn dies passiert dann sind beide Seiten recht unterschiedlich. Versucht daher, die Seiten gleicher zu gestalten, z.B. durch das Hinzufügen von gleichem Content. Online gibt es verschiedene kostenlose Websites, mit denen man eine Duplicate-Content-Prüfung einfach bewerkstelligen kann. Wenn am Ende des Tages deine Dokumente mindestens zu 75% ähnlich sind, wird Google auch nicht mehr den Canonical-Tag ignorieren.

Heißt es nicht immer, dass Google mittlerweile JavaScript erkennen und auslesen kann?

Thomas: Ja, das ist korrekt. Allerdings kommt vor dem Google-Indexieren ein aufwändiges Rendern hinzu. Dabei wird das JavaScript ausgeführt, so dass Google die Inhalte der Seite erkennen und die Darstellung der Inhalte erfassen kann. Google Webmaster Trends Analyst Martin Splitt erklärt, dass dieser Schritt sehr rechenintensiv sein kann. Daher könne niemals sicher gesagt werden, wie lange es dauert, bis solche Inhalte in den Suchergebnissen erscheinen. Außerdem sei zu beachten, dass manche anderen Suchmaschinen und auch bestimmte soziale Netzwerke noch nicht dazu in der Lage seien, JavaScript auszuführen.

Wie sollte eine Startseite beim Relaunch gestaltet werden, hinsichtlich Navigation und Links? Wo sollten die wichtigsten Links platziert werden? Was kommt in den Footer? Wie viele Links sollte man maximal setzen?

Thomas: Folgende Tipps werden euch dabei helfen, die Seitennavigation zu optimieren:

  • Die Struktur eurer Hauptnavigation sollte einfach sein und sich am besten am oberen Rand der Seite befinden
  • Auch in der Fußzeile der Seite sollte eine Navigationsfunktion enthalten sein
  • Verwendet auf jeder Seite – außer auf der Startseite – Breadcrumbs, damit die Besucher wissen, wo sie sich befinden und wie sie dorthin gekommen sind
  • Zu viele Navigationsoptionen (Links) sind kontraproduktiv
  • Geht nicht zu sehr in die Tiefe. In den allermeisten Fällen ist es am besten, wenn die Navigation nicht tiefer als drei Ebenen ist
  • Baut Links in die Texte der Website ein und zeigt auf, wohin diese Links führen

Auf der Startseite können gerne einmal ein paar Links mehr eingebunden werden als auf Unterseiten. Wichtige Unterseiten sollten auf jeden Fall von der Startseite aus referenziert werden. Eine unverhältnismäßige Verlinkung innerhalb eines Textes sollte dagegen nicht stattfinden, hier empfiehlt es sich eher auf eine UL/OL-List zurückzugreifen.

Ihr meintet im Webinar, dass sich unterschiedliche URLs nicht kannibalisieren sollten, weil es Google verwirrt und die Suchmaschine dann quasi nicht mehr weiß welche Seite gerankt werden soll. Heißt das, dass es keinen Sinn macht, zwei URLs auf die gleiche Keyword-Kombination zu optimieren? Kann das nicht auch einfach dazu führen, dass beide Seiten gut ranken?

Thomas: Ohne es zu merken, baut man sich selbst Konkurrenz auf, was gute Rankings schwer macht, weil Google sich nicht entscheiden kann, welcher nun der relevante Artikel ist. Deshalb solltet ihr thematisch ähnlichen Artikel irgendwo im Mittelfeld platziert. Wenn zwei oder mehrere URLs zu einem Keyword die Top10 beherrschen, habt ihr alles richtig gemacht. Wenn sich aber zwei URLs auf Position 21 oder 23 befinden solltet ihr hier eine URL-Optimierung durchführen und die andere URL gut im Auge behalten.

Bert: Bitte immer im Hinterkopf behalten, dass Google die perfekte Antwort auf die Nutzerfrage bieten möchte. Warum sollte diese Antwort dann auf zwei verschiedenen URLs liegen? Es macht mehr Sinn, eine Keyword-Kombination auf einer einzigen Seite zu bündeln. Dass diese Seite für sehr viele Keywords ranken kann, ist eine andere Geschichte. Jedenfalls sollten keine zwei Seiten für ein und dieselbe Kombination ranken.

Wie wichtig sind die Meta Keywords noch? In den SEO-Analysen wird angemerkt, dass Google diese nicht berücksichtigt. SEO-Experten sagen „drin lassen, tut nicht weh.“!

Thomas: Ein Keyword Meta Tag wird von Google konsequent ignoriert und ist kein direkter Ranking-Faktor. Drin lassen oder rausnehmen: egal.

Bert: Dazu gibt es hier ) auch ein schönes Video von Matt Cutts.

Es heißt ja, dass die Navigationstiefe Einfluss auf das Ranking einer Seite hat. Wir bieten eine Menge Wissen für unterschiedliche Zielgruppen. Nun sollen Seiten aus tieferen Ebenen in höhere hochgeholt werden, indem Seiten mit aufklappbaren Textteilen bestückt werden − also hohe Scroll-Tiefe. Es fallen somit URLs weg, die bisher mit eigenem Titel und Description auf Google gefunden werden konnten. Ist das nicht ein Problem für Suchergebnisse auf Google, da nun nur noch ein Titel statt z.B. drei auf Google zu finden sind?

Thomas: Google sieht kein Problem darin, wenn die Texte hinter Tabs versteckt werden, um die Produktansicht nutzerfreundlich zu gestalten. Dieses „Verstecken“ strukturiert die Informationen, macht sie übersichtlicher und damit für den Benutzer besser verständlich – und genau das ist das Ziel von Google. Eine Alternative wäre z.B. der Einsatz von Sprungmarken.

Ein Zusammenlegen macht immer Sinn, wenn es thematisch passt. Oft wird dies mit Ranking-Verbesserung belohnt. Dennoch macht es keinen Sinn, thematisch unpassende Inhalte zu mixen. So kann es problematisch sein, aus einem transaktionalen Text und einem informationellen Text einen gemeinsamen Text zu gestalten. Denn wer ein T-Shirt für 10 € kaufen möchte, den interessiert es meist wenig, wo die Baumwollplantagen stehen oder wie genau das T-Shirt produziert wurde.

Bert: Ich stimme Thomas zu, dass es grundsätzlich kein Problem für Google ist. Werden jedoch Inhalte erst durch einen Klick des Nutzers sichtbar, so wird dieser Inhalt etwas abgeschwächt in die Bewertung für das Ranking einbezogen. Der Text kann ranken, aber vor allem am Desktop wird es „Punktabzüge“ geben. Auf Smartphones dagegen eher nicht, dann dort erleichtern ausklappbare Texte die Nutzung von Websites und ist daher im Interesse der Suchmaschinen.

Tipp: Wenn ihr ausklappbare Inhalte nutzen wollt, tut dies eher für Zusatzinformationen, nicht für den wesentlichen Kerninhalt.

Meine Frage: Wie hoch schätzt ihr den Einfluss eines „“unsichere-Seite-Fehlers“ bei fehlendem SSL-Zertifikat von weiterleitenden Seiten ein? Die weiterleitenden Seiten sind einerseits Länderdomains (.at / .ru), die nicht relevant sind (daher keine Kosten für das Zertifikat für https rechtfertigen) und andererseits Domains, die wir besitzen, damit niemand anderer diese registrieren kann, worüber sehr wenig Traffic kommt.

Thomas: Wer kein Geld für SSL ausgeben möchte, kann auch auf Anbieter wie z.B. „Let’s Encrypt“ zurückgreifen, hier gibt es kostenlose SSL-Zertifikate. Nachteil: Diese müssen alle 3 Monate aktualisiert werden, was jedoch auch nur 5 – 10 Minuten Zeit beansprucht.

Wie viele Links sollten bei einem Relaunch von der Startseite abgehen? Gibt es da Richtwerte?

Thomas: Nein, gibt es nicht. Pauschal gesagt: je größer das Projekt und die allgemeine Sichtbarkeit, umso mehr Links könnt ihr in der Startseite integrieren.

Bert: Hier kommt es immer auf die individuelle Art der Website an. Die Website einer mittelständischen Firma wird vermutlich eine zweistellige Anzahl an Links haben, die von der Startseite tiefer in die Website führen. Eine News-Seite oder ein Online Shop dagegen können deutlich über hundert Links auf der Startseite haben. Google wird diese Umstände berücksichtigen, da die Zeit der pauschalen Aussagen im SEO mittlerweile vorbei sind. Die Suchmaschinen werden immer besser darin, Websites spezifisch zu bewerten und dabei die Suchintention der Nutzer mit einzubeziehen.


Verpasst nicht die weiteren Webinare mit Searchmetrics & LEAP! Am 17. April erfahrt ihr mehr über die Suchmaschine Bing. Was ist anders als bei Google und wie funktionieren die Bing Webmaster Tools? Wir haben alle Antworten für euch!

Jetzt kostenlos anmelden