Google Penalties und Filter im Überblick

Oft wird erst bemerkt, daß etwas auf der eigenen Internetpräsenz  oder den Backlinks der selbigen nicht mehr dem aktuellen Standard entspricht, wenn plötzlich die Besucherzahlen und die Sichtbarkeit einbrechen. Billige Eintragslinks in Massen, spammige Texte mit hoher Keyworddichte, versteckte Links, versteckter Text, zu offensichtlich eingekaufte Verlinkungen von reinen SEO Seiten, dünne Inhalte ohne Mehrwert, offensiver Linkverkauf, Cloaking, Verwendung von Spamsoftware zur automatischen Erstellung von Links, es gibt viele Gründe warum eine Internetseite bei Google in Ungnade fallen kann.

Wichtig ist, das Problem oder die Probleme genau zu identifizieren, ohne gewissenhafte Diagnose keine effektive Therapie. Im Zweifelfallsfall hilft hier unsere SEO Notaufnahme gerne weiter.

Wie unterscheidet sich eine manuelle Maßnahme von einem algorithmischen Filter?
Nomen est omen, manuelle Maßnahmen werden nach eingehender Prüfung händisch von Mitarbeitern des Google Webspam Teams verhängt. Algorithmische Filter wie Pinguin dagegen greifen vollkommen automatisch. Zur Aufhebung einer manuellen Maßnahme bedarf es eines Wiederaufnahmeantrags, auch Reinclusion Request oder Reconsideration Request (RR) genannt. Bei rein algorithmischen Rückstufungen dagegen läuft dieser Antrag ins Leere und wird mit dem Hinweis, daß keine manuellen Maßnahmen vorliegen beantwortet. Hier hilft es nur, das Problem zu beseitigen und auf einen neuen Durchlauf/ein neues Update des jeweiligen Algorithmus zu warten. Wichtig dabei zu wissen: Google berücksichtigt bei einem Update eines Algorithmus nicht notwendiger Weise alle Anstrengungen zur Problembeseitigung bis zum Stichtag, die Datenbasis ist oft schon einige Wochen alt. In letzter Zeit hat Google auch damit begonnen, Updates nicht mehr in einem Schwung an einem Tag, sondern über mehrere Tage gestreckt zu fahren, was z.B. bei Panda zunehmend die eindeutige Diagnose erschwert.

Die wichtigsten Penalties und Filter im tabellarischen Überblick:

Übliche Bezeichnung DeutschÜbliche Bezeichnung EnglischArtLokalisierungsschwerpunktRR möglich
Keyword StuffingKeyword StuffingManuellOnpageJa
Nutzergenerierter SpamUser-generated SpamManuellOnpageJa
Unnatürliche Links (ausgehend)Unnatural Links (from site)ManuellOnpageJa
Unnatürliche Links (eingehend)Unnatural Links (to site)ManuellOffpageJa
Versteckte TexteHidden TextManuellOnpageJa
Image MismatchImage MismatchManuellOnpageJa
Dünne InhalteThin ContentManuellOnpageJa, kaum Erfolgsaussichten
Reiner SpamPure SpamManuellOnpage und OffpageJa, kaum Erfolgsaussichten
Spammy Structured MarkupManuellOnpageJa
EMDEMDAlgorithmusOnpage und OffpageNein
PandaPandaAlgorithmusOnpageNein
PinguinPenguinAlgorithmusOffpageNein
Top Heavy/Page LayoutTop Heavy/Page LayoutAlgorithmusOnpageNein
DMCADMCAAlgorithmusOnpageNein, kaum Erfolgsaussichten

Welche Auswirkungen haben manuelle Maßnahmen und algorithmischen Filter?
Die Auswirkungen reichen von einer gezielten Abstrafung einzelner Keywords bis hin zur kompletten Deindizierung, also einer Entferung der Domain aus dem Google Index. Letztere ist aber nur eindeutigen Härtefällen vorbehalten, die primär in den Bereich „Pure Spam“ fallen. Reine SEO Linkschleudern oder mit extremen und teils sogar strafrechtliche relevanten Spammaßnahmen gepushte Seiten. Aktuell am häufigsten zu beobachten sind Penalties wegen unnatürlicher Links sowie Pinguin und Panda.

Google Penguin 2.1 Update

Mit Penguin oder im deutschen auch Pinguin hat Google ein Update geschaffen, das in unregelmäßigen Zeitintervallen immer wieder für Aufregung gesorgt hat. Es richtet sich vor allem gegen Links von Seiten niedriger Qualität: Social Bookmark Plattformen, Webkataloge, Artikelverzeichnisse und all jene Eintragslinks, die vor wenigen Jahren noch als „nicht schön, aber günstig und wirksam“ galten.

Google Penguin 2.1 Update
© Steve Young – Fotolia.com

Mit den inzwischen 5. Update dieser Art, offiziell Penguin 2.1, zielt Google nicht mehr nur auf Links von spammigen Seiten oder zu großen Mengen an Keywordlinks, sondern hat auch die vor allem im englischen Sprachraum sehr beliebten „Web 2.0 Properties“ im Auge.

Freeblogs, Unterseiten auf Autoritätsseiten und Wikis (nicht Wikipedia!), Autoren Communities, all jene Seiten auf denen jeder nach kostenloser Registrierung weitestgehend unkontrolliert Inhalte mit Links unterbringen kann. Genau um die Inhalte geht es erstmals auch beim Pinguin 2.1, alle bisher verfügbaren Daten deuten in eine klare Richtung: Links aus Seiten mit für menschliche Leser sinnfreien Inhalten, auch Spinning oder Shuffling Texte genannt, werden unabhängig von der Qualität der linkgebenden Domain und dem Linktext zuverlässig als Webspam erkannt. Zur Erstellung solcher Texte werden meist mehrere Quellen ausgelesen, daraus ein neuer Text gemischt und dieser dann noch zigfach über Synonyme variiert. So erhält man hunderte gleichartiger Texte, die zwar lesbar sind, aber keinen Sinn ergeben. Ebenfalls betroffen sind die typischen Artikelverzeichnistexte ohne echten Informationswert.

Besonders beliebt war derartige „Wortsuppe“ bei den vielfach auf Auktionsplattformen und in Foren für kleines Geld angebotenen Linkpyramiden oder Layered Links, von denen jeder der nicht schon bald eine böse Überraschung erleben will, die Finger lassen sollte.

Was das neue Pinguin Update so einzigartig macht, ist daß es Google erstmals zu gelingen scheint, auch innerhalb einer ansonsten starken Domain mit hochwertigen Inhalten einzelne Sinnlostexte zu erkennen und draus verlinkte Zielseiten gezielt zurückzustufen. Pinguin 2.1 arbeitet wesentlich granularer als bisher, nicht nur wie seit Pinguin 2.0 auf Ebene der verlinkten Seiten, sondern auch bei der linkgebenden Seite. Eine kleine Revolution, die eine der letzten bisher unberührten Bastionen im Blackhat SEO Bereich zumindest teilweise zum Einsturz bringt. All jene, die dachten diesen Methoden wären sicher, weil Google solche Seiten nicht wie Blognetzwerke einfach aus dem Index werfen kann, wurden am 4. Oktober 2013 eines besseren belehrt.

Verweildauer und Bounce Rate sind kein Rankingkriterium

Verweildauer und Bounce Rate, für viele die heiligen Kühe der Suchmaschinenoptimierung und angeblicher Rankingfaktor. Selbst den Aussagen von Google, diese Werte wären keine tauglichen Signale, wird kein Glauben geschenkt. Stattdessen wilde Theorien, wie sich Google diese Werte per Analytics, Chrome und Google Toolbar beschaffen könnte.

Woher kommt der starke Glaube an diese Werte, obwohl sich Matt Cutts und andere Google Mitarbeiter wie John Mueller mehrfach in ungewohnter Deutlichkeit zu diesem Thema geäußert haben? Die Antwort ist einfach und symptomatisch für viele Theorien im traditionell stark von Statistiken geprägten Gebiet Suchmaschinenoptimierung:

correlation
Thanks, Xkcd

Wir erklären, warum Google Recht hat, die von vielen beobachtete Korrelation eben nur eine Korrelation sein kann, und warum die Hüpfstange, die manche noch aus der Kindheit kennen, im Englischen Pogostick, des Rätsels Lösung ist…und Nutzerverhalten guter ein Rankingfaktor ist, nur in anderer Form als gemeinhin vermutet.

Verweildauer:

Aufenthaltsdauer auf einer einzelnen Seite. Hier gilt nach Meinung vieler: Je länger, je besser. Das sagt aber rein gar nichts über die Qualität der Inhalte der Zielseite aus, denn wie auch bei Content und Backlinks, Masse ist nicht Klasse. Muss ein Nutzer sich minutenlang durch einen Informationswust wühlen, um relevante Details zu finden, ist das alles andere als ein Qualitätskriterium.

Anders herum ist der Besucher beim Klick auf Platz 1 zu „Wie ist die Uhrzeit in los Angeles?“ nach Sekundenbruchteilen wieder weg, weil die genaue Uhrzeit in Los Angeles ganz prominent und direkt sichtbar erscheint. Sollte der Seitenbetreiber die Zeitanzeige unter 1000 Worten Artikeltext begraben? Sicher nicht. Schon alleine weil relevante Informationen ganz unterschiedlich aufbereitet sein können, weil nur ein direkter Vergleich extrem ähnlicher Seitentypen eine Einschätzung erlauben würde, wie gut oder schlecht Wert X ist, scheidet Verweildauer als sinnvolles Rankingkriterium aus.

Hinzu kommt, daß Analytics Werte leicht manipulierbar sind und die Messung ohne Analytics, durch Chrome und die Google Toolbar wie teils vermutet wird, datenschutzrechtlich problematisch und extrem aufwendig wäre. Viel Aufwand für einen schwammigen, wenig aussagekräftigen Wert der komplizierte Onpage Vergleiche erfordern würde und großen Mengen an Fehlsignalen liefert? Sicher nicht!

Bounce Rate/Absprungrate:

Anteil der Zugriffe bei denen der Nutzer die Einstiegsseite auf direktem Wege verläßt. Wohin? Überallhin, ein Blogartikel der auf eine spannende neue Seite verweist wird eine Bounce Rate nahe 100% haben, wenn die Nutzer alle zur vorgestellten externen Seite navigieren.

Somit würden Blogs oder Foren mit durchschnittlich mehr externen Links als z.B. Onlineshops wesentlich schlechter ranken müssen als Onlineshops, was aber nicht der Fall ist. DMOZ als führendes Webverzeichnis wäre eine der schlechtesten Seiten der Welt, weil sie praktisch nur aus externen Links besteht und die Bounce Rate über die gesamte Domain betrachtet nahe 100% liegt.

Spannender ist die kleine Schwester SERPs Return Rate, alle Absprünge zurück auf die Suchergebnisseite. Doch auch dieser Wert für sich genommen sagt nichts über die Qualität der verlassenen Seite. Hat der Nutzer genau das gefunden, was er sucht, sucht er jetzt vielleicht etwas anderes. Oder er kocht Kaffee und läßt die Suchergebnisseite offen. Oder er schließt den Browser. Viele Optionen, die alle in eine andere Richtung deuten. Die Rückkehr alleine läßt schlicht keinerlei Rückschluss zu, wie positiv die Erfahrung mit der besuchten Seite war.

„Wer die Bounce Rate oder SERPs Return Rate als Rankingfaktor sieht, glaubt auch daß alle die das Kino durch die Eingangstür verlassen, den Film schlecht fanden.“

Pogosticking Benchmark/Sprungverhalten:

Manche Google Patente werden heiß diskutiert, andere so gut wie nie in Fachmedien erwähnt, dabei hätte das Patent US 20080275882 A1 von Google eigentlich einen Platz ganz vorne auf der Liste der meisterwähnten Suchpatente verdient. Das ursprünglich schon 2007 von Yahoo angemeldete Patent beschreibt, wie aus der SERPs Return Rate zusammen mit einer Beobachtung des Nutzerverhaltens auf den Suchergebnisseiten ein Schuh bzw. Rankingfaktor wird.

Es wird erfasst welches Ergebnis in welcher Position wie oft geklickt wird, welche Ergebnisse davor und danach geklickt wurden und welche anderen Aktionen der Nutzer durchführt, etwa eine verfeinerte Suche, eine ähnliche Suche. Pogosticking beschreibt also das Sprungverhalten von und zur Suchergebnisseite im zeitlichen Verlauf einer Session, eines Suchvorgangs.

Auch wenn das Patent noch lange keine Kausalität begründet und garantiert als Rankingfaktor zu sehen ist, zumindest erhöht diese Messung die Aussagekraft des Nutzerverhaltens bezüglich der Qualität der Zielseite drastisch.

Die Suche ist wieder „Wie ist die Uhrzeit in los Angeles?“ der Nutzer klickt ein Resultat, findet aber nur einen allgemeinen Text zu Los Angeles auf einer Reiseseite, in dem der Begriff  „Uhrzeit“ auch erwähnt wird. Er durchforstet die Seite nach einer Zeitangabe, findet sie nicht, kehrt nach Minuten entnervt zur Suchergebnisseite zurück. Dann klickt er ein anderes Suchergebnis, findet die Zeit sofort, kehrt zur Suchergebnisseite zurück und sucht jetzt die Nummer eines Geschäftspartners in Los Angeles um ihn anzurufen.

Würde sich Google in diesem Beispiel auf die Verweildauer verlassen, würde die wenig passende Seite ein positives Rankingsignal erhalten. Würde sich Google auf die Return To SERPs Rate verlassen, würden beide Seiten ein negatives Rankingsignal erhalten. Würde man beide kombinieren wäre das negative Signal bei der passenden Seite stärker. Das Sprungverhalten dagegen schränkt den Interpretationsspielraum beim Vergleich einer statistisch relevanten Anzahl solcher Sprungmuster zu einem Begriff maximal ein.

Ein direkt über die SERPs messbarer Wert, aussagekräftig, frei von Fehlsignalen, nicht manipulierbar, ganz nach dem Geschmack von Google. Wer jetzt denkt, das klingt ein bischen nach dem berüchtigten Panda Algorithmus, liegt aller Wahrscheinlichkeit nach nicht ganz verkehrt. Im Gegensatz zu einer ungleich komplexeren Textanalyse entlarvt das Pogosticking nämlich Seiten mit schwachen Inhalten, unabhängig von deren Umfang.