searchmetrics email facebook github gplus instagram linkedin phone rss twitter whatsapp youtube arrow-right chevron-up chevron-down chevron-left chevron-right clock close menu search
40354035

Searchmetrics im SEO-Mekka: PubCon Las Vegas 2011 Recap

In diesem Jahr waren wir in Mannschaftsstärke auf der Pubcon in Las Vegas vertreten. Und da einige sehr interessante Sessions dabei waren, wollen wir euch einige Infos weitergeben.

Erst einmal vorab: Die Pubcon ist vor allem groß und breit gefächert – das Programm mit neun parallelen Tracks ist in der Quantität beeindruckend, in Deutschland kann da sicherlich nur die Campixx mithalten. Im Gegensatz zur Campixx führt diese Breite bei der Pubcon aber dazu, dass nur sehr wenige Sessions tiefer in die Materie gehen. Die Veranstaltung war aber toll, um einen Überblick über das Internet-Marketing zu erhalten. Und um sich auch mal Themen anzuschauen, die über den Tellerrand des Hardcore-SEO heraus gehen.

Die Sessions: unterhaltsam

Fast alle Amis haben dabei immer eins drauf: Die unterhaltsame Präsentation der Inhalte. Selbst wenn also die Inhalte nicht wirklich in die Tiefe gingen oder die Informationen nicht auf dem aktuellsten Stand waren, gab es zumindest immer Entertainment. So gab es beispielsweise eine Mittvierzigerin, die 30 Minuten mit entsprechender Gestik und Mimik vom entschlossenen Angreifen, Überrumpeln und Vernichten von Wettbewerbern berichtete. Inhouse-SEOs empfahl sie, einfach für alle SEO-Changes einen Trafficgewinn von 5-20% zu veranschlagen.

Aus deutscher Sicht war sicherlich dies ein besonderes Highlight: Auf die Nachfrage eines Deutschen hin postulierte einer der Referenten, alle Leute in Deutschland wollten ja eigentlich ohne Aufwand reich werden und alles ohne Gegenleistung bekommen, verkauften nur Blackhat- Links und deshalb wäre der deutsche Index der am stärksten überwachte. Vermutlich war das dann wohl auch nicht ganz so gemeint, aber nichtsdestotrotz aus deutscher Sicht natürlich sehr unterhaltsam.

Nun aber zu einigen ernsthaften, interessanten Tipps, sortiert nach Bereichen.

Tipps für Suchmaschinen-Verantwortliche

Matt Cutts und Amit Singhal hatten eine Keynote-Session lang Zeit, auf verschiedene Punkte einzugehen. Die aus meiner Sicht interessantesten Aussagen waren:

  • Die SSL-Suche wird bleiben, bei der die gesuchten Keywords für die organische Suche momentan schon für fast alle einloggten User in den USA nicht mehr an die Webanalyseprogramme übergeben werden. Sie ist Teil einer langfristigen Strategie von Google. Damit soll erreicht werden, dass immer mehr persönliche Suchen auf Google getätigt werden. Eine weltweite Einführung der Suche, die in den USA die Keywordinformationen bei bis zu 20% der Suchen nicht mehr übergibt, ist grundsätzlich beabsichtigt. Es gibt (aus deutscher Sicht glücklicherweise) aber noch verschiedene technische Herausforderungen.
  • Als „Ausgleich“ wird es in den Webmastertools voraussichtlich mehr Rankingdaten geben. Entweder bis zu 5000 Keywords je Tag (statt 1000 momentan) oder eine längere historische Betrachtung. Laut Matt Cutts können jetzt schon 96% aller Domains alle Keywords so ermitteln, über die sie SEO Traffic erhalten.
  • In den Webmaster Tools werden alle Links angezeigt, die Google sieht, nicht nur jene, die auch wirklich Einfluss auf das Ranking haben. Man kann also nicht sagen, nur weil hilfreiche Blogkommentare in den WMT als Backlink auftauchen, gehen sie auch in das Ranking ein.
  • Google ist den gesamten USA-Panda-Beschwerdethread im Webmasterhilfe-Forum durchgegangen, hat rund 500 Domains in eine Exceltabelle aufgenommen und durch einen speziellen Mitarbeiter überprüfen lassen, der auf „False Positives“ untersucht. Hier ist also meiner Meinung nach wirklich ein wenig Hoffnung für unschuldig betroffene Opfer; Google scheint Beschwerden wirklich zu prüfen. Wenn man aber auch nur den leichtesten Grund zur Annahme hat, dass – vielleicht auch in anderen Bereichen – auch nur leicht unsauber gearbeitet wurde, sollte man sich mit dem Beschweren zurückhalten – schließlich handelt es sich hierbei um eine manuelle Überprüfung durch einen Google-Mitarbeiter…

Meine Vermutung ist übrigens, dass so etwas auch in Deutschland passiert. Beim Launch von Panda in Deutschland gab es ja sogar ein Beschwerdeformular, das auf Google Docs basierte. Hier wurde also dann sogar der Schritt mit dem Webmasterforum übersprungen und gleich eine Tabelle erstellt.

Zukunftstrends im Online Marketing

  •  „Social“ war DAS Buzzword. Man konnte kaum drei Minuten in einer Session sitzen, bis man von Facebook, Google Plus oder irgendwelchen Integrations- und Optimierungsmöglichkeiten hörte. Dabei war nicht wirklich viel neu. Interessant war aber etwa, dass Techcrunch den Sharing-Buttons auf der Seite testweise entfernte – und 20-25% durchschnittlichen Traffic verlor.
  • Bing sagte, dass sie echte von falschen Social Interactions unterscheiden können und auch Bounces als Signal verwenden, die durch sofortiges Zurückkehren von einer Seite auf die SERP entstehen. Außerdem hörte man, dass Bounces mit längerer „Wartezeit“ („Dwell Time“) weniger negativ gewertet werden. Diese Vermutung gibt es ja auch von SEOs für Google schon seit längerem. Darüber hinaus überlegt Bing, auch die Wettbewerberlinks aus dem Yahoo Site Explorer wieder anzuzeigen. Hierzu braucht der Head der Bing Webmaster Tools laut eigener Aussauge aber mehr Nachfragen und Tipps, um dort evtl. tätig zu werden. Also meldet euch dort.
  • Auch Microdata war ein beliebtes Thema, um mehr und bessere Rich Snippets, bessere Unterscheidungen bei mehrdeutigen Themen und vielleicht sogar direkte Rankingvorteile zu erreichen. Für Nicht-Coding-Begabte gibt es unter schema-creator.org sogar einen (wenn auch sehr simplen) Generator.

Zur Pandabekämpfung

Panda, seine Auswirkungen, Iterationen und die daraus folgenden Anforderungen wurden natürlich in sehr vielen Sessions zumindest gestreift. Dabei gab es zum Beispiel die folgenden Aussagen:

  • Als grobe Beurteilung kann das Content-Performance-Verhältnis sinnvoll sein. Dabei kann man einerseits das Verhältnis zwischen indexierten Seiten und Seiten mit Traffic, andererseits aber auch das Verhältnis zwischen indexierten Seiten und Deeplinks betrachten. Daraus sollte man dann Handlungsempfehlungen wie die Sperrung von Seiten via robots.txt, Parameterbehandlung in den Webmastertools u.s.w. ableiten
  • Ein Speaker war davon überzeugt, dass die Entfernung von schwachen oder schlechten Links dazu führt, dass man die „Panda-Penalty“ wieder entfernen kann.

Thema “Tools”

  • Besonders im Keyword-Research-Bereich arbeiten auch die Amis sehr datengetrieben – neben dem Adwords Keywordtool, seiteninternen Suchdaten und sogar einigen enthusiastischen Scrapebox- und Mozenda-Usern werden dabei vor allem die Tools ubersuggest (jetzt auch für Google News) und soovle empfohlen. Letzteres ist aber leider für deutsche Keywords nicht gut zu verwenden.
  • Für die Strukturierung von Keywordlisten (etwa nach gemeinschaftlichem Auftreten von Keywords) kann Excel oder spezialisierte Tools wie Fookes Notetab genutzt werden.
  • Gerade in den USA ist Youtube schon eine riesige Suchmaschine, so kann die Benutzung des Youtube Keywordtools und Youtube-SERP-Tracker wie voot.net sinnvoll sein.
  • Für Datenvisualisierung sind Grafiker natürlich noch immer am besten, aber es wurden auch Excel/Google Docs, die Google Chartbibliothek, und Tableau empfohlen.

Fazit und Grüße

Abschließend seien noch die zahlreich vertretenen Deutschen gegrüßt – auch wenn wir von Searchmetrics das „Deutschen-Foto“ verpasst haben.  Die PubCon in Las Vegas war ein tolles Erlebnis mit vielen interessanten Gesprächen, Informationen und Ansichten. Und ich hoffe, dass alle mehr oder weniger fit und mit mehr Wissen wieder in Deutschland eingetroffen sind.