searchmetrics email facebook github gplus instagram linkedin phone rss twitter whatsapp youtube arrow-right chevron-up chevron-down chevron-left chevron-right clock close menu search
1706917069

Mehr Liebe für die eigene Website: Mit diesen Tipps generiert ihr neue Sales-Potenziale

Ihr verlasst eine Website – frustriert von einer unübersichtlichen Navigation und langen Ladezeiten macht ihr euch auf die Suche nach Alternativen. Kennt ihr diese Situation? Zeitgemäße Websites müssen verschiedenste Anforderungen erfüllen, um dauerhaft positive Nutzererfahrungen zu bieten und auf den Top-Positionen der SERPs zu ranken. Im Blogpost klären wir eure Fragen zum Thema: „Mehr Liebe für die eigene Website“.


Soll eure Website erfolgreich auf Kundenfang gehen, muss sie Suchmaschinen und Usern gleichermaßen gefallen. Wie aber sieht eine optimale Website aus? Im Web-Seminar „Mehr Liebe für die eigene Website“ klären die Experten Patrick Klingberg, CEO von artaxo, und Marcus Pentzek, Chief SEO Consultant bei Searchmetrics, anhand praktischer Tipps und kostenloser Tools, wie eure Website zum Sales-Treiber wird.

Diese Themen wurden im Web-Seminar besprochen:

  • Warum der Nutzer die Suchmaschine schlägt
  • Warum die Basis den Trend schlägt
  • Warum Performance die Schönheit schlägt

Unsere Experten:

Patrick_Klingberg_200Patrick Klingberg
CEO

artaxo

marcus-pentek-2020Marcus Pentzek
Chief SEO Consultant

Searchmetrics

 

Ihr habt das Web-Seminar verpasst? Wir haben die Aufzeichnung on demand für euch hinterlegt! Meldet euch einfach an und erhaltet wichtige Tipps und Tricks für den Erfolg eurer Website.

Jetzt Web-Seminar ansehen

Fragen und Antworten zum Web-Seminar

Im Anschluss an das Web-Seminar gingen noch einige Fragen der Teilnehmer ein, die unsere Experten Patrick und Marcus beantwortet haben. Sind eure Fragen nicht dabei? Dann postet sie unter diesen Blogartikel.

Wie reagiert Google, wenn ein Cookie-Hinweis die ganze Website abdeckt?

Patrick von artaxo:

Bei Pop-Ups zu Cookie-Hinweisen gelingt es Google sehr zuverlässig, alles richtig zu verstehen, sodass wir bisher noch keine Ranking-Verschlechterungen in diesem Zusammenhang feststellen konnten. Auch im Google-Support-Forum finden sich Aussagen, die unsere Erfahrungen bestätigen. Ein Beispiel findet sich hier.

Marcus von Searchmetrics:

Vor einigen Jahren gab es Warnungen von Google auf mobilen Websites nicht mit “Interstitials” zu arbeiten, da diese das Konsumieren der Website verhindern (z. B. Popups, die dem User vorschlagen man solle die App anstatt der Website nutzen). Mittlerweile hat sich aber viel verändert und auch Google hat sich an die rechtliche Notwendigkeit von Cookie-Abfragen eingestellt. Ich habe noch von keinen Abstrafungen oder unbegründeten Sichtbarkeitsverlusten gehört, die darauf zurückgeführt werden können.

Wie entferne ich PDF Dateien aus dem Index?

Marcus von Searchmetrics:

Man kann über den http-Header ein “noindex” senden lassen. So werden die PDFs Stück für Stück von Google wieder aus dem Index entfernt.

Patrick von artaxo:

Via http-Header ein „noindex“ senden zu lassen, halte ich ebenso wie Marcus für einen guten Weg, um PDF-Dateien aus dem Suchmaschinen-Index zu entfernen. Wie Ihr das ganz konkret bei PDFs macht, findet Ihr inkl. Code-Snippet hier.

Welchen SEO-Wert haben PDFs?

Patrick von artaxo:

Es gibt nur wenige Szenarien, in denen ein PDF online das beste Format darstellt, um einen Inhalt zu präsentieren. In den allermeisten Fällen eignet sich ein Mix aus unterschiedlichen Content-Formaten wie Text, Bild, Ton und Video am besten, um Seitenbesucher (und Google) glücklich zu machen. Dabei ist ein PDF-Dokument z. B. gegenüber einem HTML-Dokument natürlich stark limitiert. Fällt die Entscheidung dennoch auf PDFs, kann man diese aber durchaus optimieren, damit sie auch Google & Co. gefallen. Wie einem das gelingt, erfahrt Ihr z. B. hier.

Marcus von Searchmetrics:

Ich sehe das auch nicht ganz so dogmatisch, wie Patrick es im Web-Seminar dargestellt hat. Um die User Intention zu bedienen, kann es unter Umständen besser sein, wenn ein PDF statt einer HTML-Seite rankt. Dies kann ich mir z. B. bei der Suche nach Medikamenten-Beipackzetteln vorstellen.

Vielfach handelt es sich bei PDFs aber um “Sackgassen” für den Crawler, da oft vergessen wird, auch dort Links zu integrieren, die beispielsweise zurück auf die Startseite verlinken. Wenn also PDFs gezielt für das Cawling und die Indexierung durch Google zugelassen werden, sollte immer auch darauf geachtet werden, dass Nutzer und Bots Hinweise und Links auf die ursprüngliche Website zu sehen bekommen.

Sind viele Domains mit 301 Weiterleitungen gut für SEO?

Patrick von artaxo:

Vor einigen Jahren war es eine erfolgversprechende SEO-Maßnahme, sich mit Weiterleitungen Backlinks zu erschummeln: Wenn eine Website eingestellt und die Domain wieder frei wurde, haben sich findige SEOs die Domain gesichert und diese inkl. Unterseiten via 301 auf eine andere Website weitergeleitet, um deren Ranking zu verbessern. Die Kraft der Backlinks der aufgegebenen Website wurde so auf die andere Website übertragen. Solche Tricks durchschaut Google schon seit längerem sehr zuverlässig, weshalb ihr Abstand von Maßnahmen dieser Art nehmen solltet.

Bei geläufigen Falschschreibungen des Namens der eigenen Domain kann man hingegen mit Blick auf die Nutzererfahrung via 301 auf die korrekte Domain weiterleiten. Aus SEO-Sicht spielt das aber keine Rolle, solange die Vertipper-Domains selbst keine guten Backlinks haben.

Marcus von Searchmetrics:

Bei diesem Aspekt in Patricks Vortrag geht es vielmehr um Usability als um SEO. Die vielen Vertipper-Domains haben solange einen SEO-Wert von 0, solange sie keine Backlinks haben. Aber sie können den Nutzer abholen, der die Domain eben genauso (falsch) schreibt. DAS wiederum ist gut – für diesen User (und für den Website-Betreiber der damit einen Besucher mehr hat).

Wie wichtig ist die Nutzung von Share-Funktionalitäten heutzutage?

Patrick von artaxo:

Das hängt stark vom individuellen Case ab. Ich würde empfehlen erst einmal zu schauen, wo die Bedarfsgruppe unterwegs ist und dann testen, was funktioniert.

Marcus von Searchmetrics:

Das ist sehr unterschiedlich in verschiedenen Nischen und Zielgruppen, hängt auch immer damit zusammen, ob man die richtigen Share-Medien für das Publikum anbietet. Am besten testet man das für die eigene Website und wertet die Nutzung ganz individuell aus.

Welches CMS würdet ihr empfehlen? Ich kenne WordPress sehr gut und habe mir jetzt Typo3 angeschaut – es kommt mir komplizierter vor.

Patrick von artaxo:

Bei der Wahl des CMS kommt es in erster Linie darauf an, was ihr vor habt. Welchen Umfang hat das Projekt? Welche spezifischen Anforderungen stellen die geplanten Inhalte an das CMS? Blog, Shop, Magazin oder Web-Visitenkarte?

Sowohl für WordPress als auch für Typo3 gibt es eine Vielzahl an Erweiterungen bzw. Plugins, welche kaum Wünsche offen lassen. In unserem Agentur-Alltag geben wir in der Regel WordPress den Vorzug, auch wenn das hinsichtlich vieler Aspekte sicher Geschmackssache ist: WordPress ist einfach in der Handhabung und bei vielen Projekten eine gute Wahl. Bei uns in der Agentur gab es bisher noch keinen Fall, bei dem ein Wechsel von WordPress auf Typo3 zu empfehlen gewesen wäre.

Warum sollte ich kein eigenes CMS nutzen?

Patrick von artaxo:

Gegen ein eigenes CMS spricht, dass der Aufwand und das Nutzen oft in keinem guten Verhältnis zueinander stehen. Es ist nicht effizient das Rad immer neu zu erfinden. Ein Großteil der Anforderungen, die Website-Betreiber an ein CMS stellen, sind identisch oder zumindest recht ähnlich. Das gilt für die Content-Formate, die auf der Website dargestellt werden sollen, ebenso wie für die Website-Struktur, den Check-Out-Prozess in einem Shop uvm. Zudem sind CMS wie WordPress oder Shopify mittlerweile derart stark und einfach individualisierbar, dass sie auch viele spezifischere Anforderungen gut abdecken können.

Marcus von Searchmetrics:

Ein anderes “Problem” am eigenen CMS ist, dass man sich abhängig macht von den eigenen Entwicklern. Oft sind es auch nicht die Entwickler, sondern bestimmte Entwickler, die (wenn sie das Unternehmen eines Tages verlassen) eine Wissenslücke hinterlassen. Der Vorteil von Open-Source-Systemen ist die stetige unabhängige Weiterentwicklung. Aber wenn ihr natürlich entweder sehr viel Vertrauen in eure IT habt, dass es niemals zu solchen Problemen (Wegfall von Wissen und Insights in das CMS, wenn Mitarbeiter das Unternehmen verlassen) kommt oder aber wenn eure Website so spezielle Anforderungen hat, dass sie einfach speziell programmiert werden müssen, dann ist grundsätzlich nichts gegen eine Eigen-Programmierung einzuwenden! Am Ende ist man damit ja auch flexibler, wenn sehr spezielle SEO-Anforderungen umgesetzt werden sollen.

Sollten alte Inhalte in einem Blog gelöscht werden?

Patrick von artaxo:

Je umfangreicher eine Website wird, desto mächtiger ist der SEO-Hebel bei der Pflege bestehender Inhalte – also stetig zu verbessern, was verbessert werden kann, und zu entsorgen, was für Leser nicht (mehr) interessant ist. Ich empfehle daher, nicht nur Ressourcen in die Erstellung neuer Artikel zu stecken, sondern auch die Pflege des alten Contents nicht zu vernachlässigen. Häufig besteht die Möglichkeit, alte Artikel, die keine Besucher mehr anziehen, zu aktualisieren oder inhaltlich auszubauen. Nach meiner Erfahrung ist es bei vielen alten Inhalten allerdings am sinnvollsten, diese einfach zu entfernen. z. B. News, die 2012 aufgrund ihrer Aktualität einen Wert hatten, interessieren 2020 in der Regel niemanden mehr. Einen Artikel loszuwerden, der keinen Wert für Seitenbesucher hat, steigert die Qualität der gesamten Website aus Nutzer- ebenso wie aus Google-Sicht. Doch aufgepasst: Haben alte Artikel, die gelöscht werden sollen, Backlinks eingesammelt, ist es aus SEO-Sicht sinnvoll, die Artikel-URL via 301 auf einen inhaltlich passenden anderen Artikel weiterzuleiten.

Müssen wir “störende Technik” wie JavaScript fürs Google Ranking vermeiden? Wenn ja, wie gestalten wir trotzdem eine ansprechende Seite?

Patrick von artaxo:

Eine technisch einwandfreie Website ist essenziell für den SEO-Erfolg und Google versteht HTML nach wie vor am zuverlässigsten. Suchmaschinen wie Google kommen aber mittlerweile immer besser mit JavaScript zurecht und sind in der Regel in der Lage, JavaScript-Inhalte zu crawlen und zu rendern. Es ist daher nicht nötig und auch nicht sinnvoll, auf JavaScript zu verzichten. Dass Google besser als früher mit JavaScript umgehen kann, bedeutet aber nicht, dass es eine gute Idee ist, Websites komplett auf JavaScript-Basis zu bauen.

Marcus von Searchmetrics:

Hier bin ich fast bei Patrick. Techniken, die das einfache, rein textbasierte Crawling nicht ermöglichen, stellen Hürden auf, die eine Suchmaschine überwinden muss, um an die Inhalte zu kommen. Ja, Google ist mittlerweile soweit, viele auf Javascript basierende Inhalt-liefernde Komponenten auszuwerten und zu bewerten. Dies erfolgt allerdings aktuell nur als möglicher zweiter Schritt. Der erste Schritt ist rein text-basiert, sodass Ranking-relevante, spannende Inhalte nicht berücksichtigt werden.

Auch darf man nicht vergessen, dass Google nicht die einzige Websuchmaschine auf dem Markt ist. Ja, Google hat bei uns mit den höchsten Marktanteil – plant man aber in den USA (50% von Bing beherrscht) und in China (kein Google – stattdessen Baidu als Platzhirsch) oder anderen, nicht rein von Google beherrschten Suchmärkten (z.B. Südkorea), zu expandieren, sollte die grundlegende Webtechnik auch diesen Suchmaschinen gegenüber freundlich gesinnt sein. Für inhaltskritische Elemente heißt das vielfach nicht auf Javascript & Co zu setzen.

Ich bin aber unbedingt bei Patrick, wenn er sagt, dass man nicht auf Javascript verzichten muss. Javascript ist heutzutage ein wichtiger Bestandteil der modernen Webgestaltung, mit einer vielfach leichtgängigen Usability. Solange ein Bot, der Javascript nicht ausführt, nicht außen vor gelassen wird, sollte alles gut laufen.


Ihr möchtet eure SEO-Strategie auf ein neues Level heben? Unsere Experten der Digital Strategies Group helfen euch gern weiter. Vereinbart einfach einen Termin!

Hier mehr erfahren

Patricia Meißner

Patricia Meißner

Hallo, ich bin Patricia und Content Manager im Berliner Office von Searchmetrics. Zuvor habe ich Erfahrung im Content Marketing eines traditionellen B2B Industrieunternehmens gesammelt und dort verschiedene Themen betreut, die von Kampagnen-Management über Newsletter-Marketing bis hin zur Unternehmenskommunikation reichten.

Kommentar schreiben

Hinweis: Wenn ihr hier keinen Namen eintragt (sondern ein Keyword) oder uns euer Eintrag zu werblich erscheint, behalten wir uns das Recht vor, euren Kommentar zu löschen oder zu editieren. Spart euch sowas hier also bitte!

Des Weiteren erteilt ihr mit der Abgabe eures Kommentars eure Erlaubnis, dass eure Daten von blog.searchmetrics.com/de/ gespeichert werden. Zur Übersicht über die Kommentare und zur Vermeidung von Missbrauch, speichert diese Website Name, E-Mail-Adresse, Kommentar sowie die IP-Adresse und den Zeitstempel eures Kommentars. Die Kommentare können jederzeit wieder gelöscht werden. Detaillierte Informationen findet ihr in unserer Datenschutz-Erklärung.