Verweildauer und Bounce Rate sind kein Rankingkriterium

Verweildauer und Bounce Rate, für viele die heiligen Kühe der Suchmaschinenoptimierung und angeblicher Rankingfaktor. Selbst den Aussagen von Google, diese Werte wären keine tauglichen Signale, wird kein Glauben geschenkt. Stattdessen wilde Theorien, wie sich Google diese Werte per Analytics, Chrome und Google Toolbar beschaffen könnte.

Woher kommt der starke Glaube an diese Werte, obwohl sich Matt Cutts und andere Google Mitarbeiter wie John Mueller mehrfach in ungewohnter Deutlichkeit zu diesem Thema geäußert haben? Die Antwort ist einfach und symptomatisch für viele Theorien im traditionell stark von Statistiken geprägten Gebiet Suchmaschinenoptimierung:

correlation
Thanks, Xkcd

Wir erklären, warum Google Recht hat, die von vielen beobachtete Korrelation eben nur eine Korrelation sein kann, und warum die Hüpfstange, die manche noch aus der Kindheit kennen, im Englischen Pogostick, des Rätsels Lösung ist…und Nutzerverhalten guter ein Rankingfaktor ist, nur in anderer Form als gemeinhin vermutet.

Verweildauer:

Aufenthaltsdauer auf einer einzelnen Seite. Hier gilt nach Meinung vieler: Je länger, je besser. Das sagt aber rein gar nichts über die Qualität der Inhalte der Zielseite aus, denn wie auch bei Content und Backlinks, Masse ist nicht Klasse. Muss ein Nutzer sich minutenlang durch einen Informationswust wühlen, um relevante Details zu finden, ist das alles andere als ein Qualitätskriterium.

Anders herum ist der Besucher beim Klick auf Platz 1 zu „Wie ist die Uhrzeit in los Angeles?“ nach Sekundenbruchteilen wieder weg, weil die genaue Uhrzeit in Los Angeles ganz prominent und direkt sichtbar erscheint. Sollte der Seitenbetreiber die Zeitanzeige unter 1000 Worten Artikeltext begraben? Sicher nicht. Schon alleine weil relevante Informationen ganz unterschiedlich aufbereitet sein können, weil nur ein direkter Vergleich extrem ähnlicher Seitentypen eine Einschätzung erlauben würde, wie gut oder schlecht Wert X ist, scheidet Verweildauer als sinnvolles Rankingkriterium aus.

Hinzu kommt, daß Analytics Werte leicht manipulierbar sind und die Messung ohne Analytics, durch Chrome und die Google Toolbar wie teils vermutet wird, datenschutzrechtlich problematisch und extrem aufwendig wäre. Viel Aufwand für einen schwammigen, wenig aussagekräftigen Wert der komplizierte Onpage Vergleiche erfordern würde und großen Mengen an Fehlsignalen liefert? Sicher nicht!

Bounce Rate/Absprungrate:

Anteil der Zugriffe bei denen der Nutzer die Einstiegsseite auf direktem Wege verläßt. Wohin? Überallhin, ein Blogartikel der auf eine spannende neue Seite verweist wird eine Bounce Rate nahe 100% haben, wenn die Nutzer alle zur vorgestellten externen Seite navigieren.

Somit würden Blogs oder Foren mit durchschnittlich mehr externen Links als z.B. Onlineshops wesentlich schlechter ranken müssen als Onlineshops, was aber nicht der Fall ist. DMOZ als führendes Webverzeichnis wäre eine der schlechtesten Seiten der Welt, weil sie praktisch nur aus externen Links besteht und die Bounce Rate über die gesamte Domain betrachtet nahe 100% liegt.

Spannender ist die kleine Schwester SERPs Return Rate, alle Absprünge zurück auf die Suchergebnisseite. Doch auch dieser Wert für sich genommen sagt nichts über die Qualität der verlassenen Seite. Hat der Nutzer genau das gefunden, was er sucht, sucht er jetzt vielleicht etwas anderes. Oder er kocht Kaffee und läßt die Suchergebnisseite offen. Oder er schließt den Browser. Viele Optionen, die alle in eine andere Richtung deuten. Die Rückkehr alleine läßt schlicht keinerlei Rückschluss zu, wie positiv die Erfahrung mit der besuchten Seite war.

„Wer die Bounce Rate oder SERPs Return Rate als Rankingfaktor sieht, glaubt auch daß alle die das Kino durch die Eingangstür verlassen, den Film schlecht fanden.“

Pogosticking Benchmark/Sprungverhalten:

Manche Google Patente werden heiß diskutiert, andere so gut wie nie in Fachmedien erwähnt, dabei hätte das Patent US 20080275882 A1 von Google eigentlich einen Platz ganz vorne auf der Liste der meisterwähnten Suchpatente verdient. Das ursprünglich schon 2007 von Yahoo angemeldete Patent beschreibt, wie aus der SERPs Return Rate zusammen mit einer Beobachtung des Nutzerverhaltens auf den Suchergebnisseiten ein Schuh bzw. Rankingfaktor wird.

Es wird erfasst welches Ergebnis in welcher Position wie oft geklickt wird, welche Ergebnisse davor und danach geklickt wurden und welche anderen Aktionen der Nutzer durchführt, etwa eine verfeinerte Suche, eine ähnliche Suche. Pogosticking beschreibt also das Sprungverhalten von und zur Suchergebnisseite im zeitlichen Verlauf einer Session, eines Suchvorgangs.

Auch wenn das Patent noch lange keine Kausalität begründet und garantiert als Rankingfaktor zu sehen ist, zumindest erhöht diese Messung die Aussagekraft des Nutzerverhaltens bezüglich der Qualität der Zielseite drastisch.

Die Suche ist wieder „Wie ist die Uhrzeit in los Angeles?“ der Nutzer klickt ein Resultat, findet aber nur einen allgemeinen Text zu Los Angeles auf einer Reiseseite, in dem der Begriff  „Uhrzeit“ auch erwähnt wird. Er durchforstet die Seite nach einer Zeitangabe, findet sie nicht, kehrt nach Minuten entnervt zur Suchergebnisseite zurück. Dann klickt er ein anderes Suchergebnis, findet die Zeit sofort, kehrt zur Suchergebnisseite zurück und sucht jetzt die Nummer eines Geschäftspartners in Los Angeles um ihn anzurufen.

Würde sich Google in diesem Beispiel auf die Verweildauer verlassen, würde die wenig passende Seite ein positives Rankingsignal erhalten. Würde sich Google auf die Return To SERPs Rate verlassen, würden beide Seiten ein negatives Rankingsignal erhalten. Würde man beide kombinieren wäre das negative Signal bei der passenden Seite stärker. Das Sprungverhalten dagegen schränkt den Interpretationsspielraum beim Vergleich einer statistisch relevanten Anzahl solcher Sprungmuster zu einem Begriff maximal ein.

Ein direkt über die SERPs messbarer Wert, aussagekräftig, frei von Fehlsignalen, nicht manipulierbar, ganz nach dem Geschmack von Google. Wer jetzt denkt, das klingt ein bischen nach dem berüchtigten Panda Algorithmus, liegt aller Wahrscheinlichkeit nach nicht ganz verkehrt. Im Gegensatz zu einer ungleich komplexeren Textanalyse entlarvt das Pogosticking nämlich Seiten mit schwachen Inhalten, unabhängig von deren Umfang.

Valides HTML ist kein Ranking Faktor

Auch wenn es sicher gute Gründe gibt, den Code einer Internetseite möglichst sauber und fehlerfrei zu gestalten, etwa um eine einwandfreie Darstellung in möglichst vielen Browsern sicherzustellen, W3C Konformität spielt für Google keine Rolle. Das hat Matt Cutts von Google nun, nach mehr oder minder eindeutigen Andeutungen die bis in das Jahr 2005 zurückreichen, unmißverständlich bestätigt. Auch sehr eigenwilliger und nicht valider HTML Code führt keinesfalls zu einer Abstrafung oder schlechteren Rankings. Der genannte Grund ist simpel und einleuchtend: Würde Google diesen Faktor berücksichtigen, würde die Qualität der Suchergebnisse erheblich leiden, da auch viele hochwertige Seiten mit wertvollen Informationen nicht W3C konform erstellt sind. Der sich stetig haltende und selbst auf Fachforen oft ins Feld geführte SEO Mythos, valide Programmierung eines Internetauftritts wäre eine unabdingbare Voraussetzung für gute Platzierungen bei Google, ist damit nach vielen Jahren (hoffentlich) endgültig vom Tisch.


Es wird erneut deutlich: Internetseiten sollen Menschen begeistern und keine Bots durch technische Perfektion überzeugen, kleine technische Fehler sind absolut verzeihlich, solange die Nutzererfahrung dadurch nicht beeinträchtigt wird.

Links aus bezahlten Branchenbucheinträgen potentiell toxisch

Der Blogbeitrag eines Kollegen aus Australien, Jason Mun, erhitzt aktuell die Gemüter in der SEO Branche. Seitdem Google Anfang 2012 begonnen hat, verstärkt gegen zweifelhafte Techniken beim Linkaufbau vorzugehen, stehen jetzt offensichtlich bezahlte Branchenbucheinträge im Kreuzfeuer.

Mun beschreibt inklusive Screenshot, wie ein Eintrag mit Verlinkung auf den australischen Yellow Pages, vergleichbar mit den Gelben Seiten in Deutschland, von Google explizit als unnatürlicher Link gewertet wurde und zumindest mitverantwortlich für eine manuelle Abstrafung der betreffenden Webseite im Google Index war.

Bei http://www.yellowpages.com.au handelt es sich um das größte australische Branchenverzeichnis, die Seite besitzt einen Pagerank von 8.  Auch wenn Pagerank heute sicher nur noch begrenzte Aussagekraft hat, ein kleiner Vergleich: PR8 haben in Deutschland z.B. die  offizielle Homepage deutsche Bundesregierung und des Nachrichtenmagazins Spiegel. Das australische Branchenbuch ist keine zweifelhafte Linkschleuder, sondern ein echtes Schwergewicht im Suchindex.

Noch ein Einzelfall, sollte Google diese Politik aber konsequent weiterverfolgen, bedeutet das: Jegliche bezahlte Branchenbuch- oder Webkatalogeinträge mit dofollow Link, insbesondere wenn Keywords und nicht nur der Brandname/Firmenname und/oder die URL zur Verlinkung genutzt werden, könnten zu einer manuellen Abstrafung führen und sind als toxische Links zu sehen.

Wir setzen derartige dofollow Verlinkungen mit harten Keywords (Moneykeys) in Branchenbüchern seit jeher nicht ein, überraschend ist dieser Schritt von Google aber allemal. Gerade Einträge bei den Marktführern im Bereich Branchenbücher werden kaum über SEO Agenturen angeboten, sondern von den jeweiligen Unternehmen selbst initiiert und das sicher nicht mit der Absicht, die eigenen Rankings im Google Index zu manipulieren.

Der Fall zeigt, daß „Do It Yourself“ SEO und Linksetzungen, ohne Betreuung durch eine Agentur mit aktuellem Wissensstand, zunehmend riskanter wird. Gerade im Offpage Bereich zieht Google schon seit einiger Zeit die Zügel strammer, was einen SEO Audit auch für Seiten ohne bestehende Abstrafung  empfehlenswert macht, wenn in der Vergangenheit selbst Links geschaltet wurden.