Realistische Kosten für Suchmaschinenoptimierung

In kaum einer anderen Branche geht die Preisschere so weit auseinander wie bei SEO. Von billigen Eintragspaketen für wenige Euro bis hin zu Agenturen die bereits auf der Homepage warnen: Kein Kunde unter 2500€ Monatsbudget! Etwas Licht ins Dunkel bringt eine Befragung des renommierten US Branchenportals Moz.com (ehemals SEOmoz.org):

seo pricing
Infographik von Moz & AYTM
Die deutschen/kontinentaleuropäischen Stundensätze liegen mit durchschnittlich ca. 100€ geringfügig über den US und UK Werten, die monatlichen Kundenbudgets (ohne projektbasierte Budgets) sind dafür aber im Mittel kaum über dem Niveau von Indien. Die große Diskrepanz erklärt sich vor allem daraus, daß SEO Kosten und Nutzen für den Laien nicht so eindeutig greifbar und einfach berechenbar sind wie etwa Adwords und das Potential das in Suchmaschinenoptimierung steckt oft weit unterschätzt wird.

Was darf, soll, muss wirklich effektive und nachhaltige Suchmaschinenoptimierung kosten? Nicht viel, niemand muß Unsummen für gute Ergebnisse ausgeben, aber die Erwartungshaltung muß realistisch sein. Am einfachsten errechnet sich ein realistisches monatliches Budget anhand von Adwords, wo pro Klick an Google bezahlt wird, denn der Wettbewerb im SEO und SEM Bereich ist weitestgehend identisch.

Die Faustregel, auch „Adwords Formel“ genannt, basiert auf den statistischen Mittelwerten über die Klickverteilung auf den Suchergebnisseiten. Etwa 89% aller Nutzer klicken keine Anzeige, sondern ein organisches Ergebnis. Ungefähr 36,4% der Nutzer die auf ein organisches Ergebnis klicken, klicken auch auf Platz 1. Zusammen mit dem über den Google Keyword Planner ermittelten Suchvolumen (SV) sowie dem durchschnittlichen Klickpreis (CPC) erhält man folgende Rechnung:

SV x 0,324 x CPC = ungefährer Wert einer Top Platzierung in den organischen Suchergebnissen von Google pro Monat für diesen einen Suchbegriff.

Dieser Wert ist sicher nicht ganz fehlerfrei, hat sicher aber als Branchennorm etabliert, weil es trotz aller Abweichungen der genaueste Ansatz zur Berechnung ist. Die 89% stammen aus einer Moz  Studie, die 36,4% aus einer groß angelegten Erhebung von Optify. Eine Studie von Nielsen aus England spricht gar von 94% aller Klicks auf organische Ergebnisse und nur 6% auf Anzeigen.

Eines läßt sich aber eindeutig sagen: Wer nicht auf SEO setzt, sondern nur Adwords schaltet, verschenkt mindestens 89% des Potentials seiner Webseite.

Google Penalties und Filter im Überblick

Oft wird erst bemerkt, daß etwas auf der eigenen Internetpräsenz  oder den Backlinks der selbigen nicht mehr dem aktuellen Standard entspricht, wenn plötzlich die Besucherzahlen und die Sichtbarkeit einbrechen. Billige Eintragslinks in Massen, spammige Texte mit hoher Keyworddichte, versteckte Links, versteckter Text, zu offensichtlich eingekaufte Verlinkungen von reinen SEO Seiten, dünne Inhalte ohne Mehrwert, offensiver Linkverkauf, Cloaking, Verwendung von Spamsoftware zur automatischen Erstellung von Links, es gibt viele Gründe warum eine Internetseite bei Google in Ungnade fallen kann.

Wichtig ist, das Problem oder die Probleme genau zu identifizieren, ohne gewissenhafte Diagnose keine effektive Therapie. Im Zweifelfallsfall hilft hier unsere SEO Notaufnahme gerne weiter.

Wie unterscheidet sich eine manuelle Maßnahme von einem algorithmischen Filter?
Nomen est omen, manuelle Maßnahmen werden nach eingehender Prüfung händisch von Mitarbeitern des Google Webspam Teams verhängt. Algorithmische Filter wie Pinguin dagegen greifen vollkommen automatisch. Zur Aufhebung einer manuellen Maßnahme bedarf es eines Wiederaufnahmeantrags, auch Reinclusion Request oder Reconsideration Request (RR) genannt. Bei rein algorithmischen Rückstufungen dagegen läuft dieser Antrag ins Leere und wird mit dem Hinweis, daß keine manuellen Maßnahmen vorliegen beantwortet. Hier hilft es nur, das Problem zu beseitigen und auf einen neuen Durchlauf/ein neues Update des jeweiligen Algorithmus zu warten. Wichtig dabei zu wissen: Google berücksichtigt bei einem Update eines Algorithmus nicht notwendiger Weise alle Anstrengungen zur Problembeseitigung bis zum Stichtag, die Datenbasis ist oft schon einige Wochen alt. In letzter Zeit hat Google auch damit begonnen, Updates nicht mehr in einem Schwung an einem Tag, sondern über mehrere Tage gestreckt zu fahren, was z.B. bei Panda zunehmend die eindeutige Diagnose erschwert.

Die wichtigsten Penalties und Filter im tabellarischen Überblick:

Übliche Bezeichnung DeutschÜbliche Bezeichnung EnglischArtLokalisierungsschwerpunktRR möglich
Keyword StuffingKeyword StuffingManuellOnpageJa
Nutzergenerierter SpamUser-generated SpamManuellOnpageJa
Unnatürliche Links (ausgehend)Unnatural Links (from site)ManuellOnpageJa
Unnatürliche Links (eingehend)Unnatural Links (to site)ManuellOffpageJa
Versteckte TexteHidden TextManuellOnpageJa
Image MismatchImage MismatchManuellOnpageJa
Dünne InhalteThin ContentManuellOnpageJa, kaum Erfolgsaussichten
Reiner SpamPure SpamManuellOnpage und OffpageJa, kaum Erfolgsaussichten
Spammy Structured MarkupManuellOnpageJa
EMDEMDAlgorithmusOnpage und OffpageNein
PandaPandaAlgorithmusOnpageNein
PinguinPenguinAlgorithmusOffpageNein
Top Heavy/Page Layout Top Heavy/Page LayoutAlgorithmusOnpageNein
DMCADMCAAlgorithmusOnpageNein, kaum Erfolgsaussichten

Welche Auswirkungen haben manuelle Maßnahmen und algorithmischen Filter?
Die Auswirkungen reichen von einer gezielten Abstrafung einzelner Keywords bis hin zur kompletten Deindizierung, also einer Entferung der Domain aus dem Google Index. Letztere ist aber nur eindeutigen Härtefällen vorbehalten, die primär in den Bereich „Pure Spam“ fallen. Reine SEO Linkschleudern oder mit extremen und teils sogar strafrechtliche relevanten Spammaßnahmen gepushte Seiten. Aktuell am häufigsten zu beobachten sind Penalties wegen unnatürlicher Links sowie Pinguin und Panda.

Google Penguin 2.1 Update

Mit Penguin oder im deutschen auch Pinguin hat Google ein Update geschaffen, das in unregelmäßigen Zeitintervallen immer wieder für Aufregung gesorgt hat. Es richtet sich vor allem gegen Links von Seiten niedriger Qualität: Social Bookmark Plattformen, Webkataloge, Artikelverzeichnisse und all jene Eintragslinks, die vor wenigen Jahren noch als „nicht schön, aber günstig und wirksam“ galten.

Google Penguin 2.1 Update
© Steve Young – Fotolia.com

Mit den inzwischen 5. Update dieser Art, offiziell Penguin 2.1, zielt Google nicht mehr nur auf Links von spammigen Seiten oder zu großen Mengen an Keywordlinks, sondern hat auch die vor allem im englischen Sprachraum sehr beliebten „Web 2.0 Properties“ im Auge.

Freeblogs, Unterseiten auf Autoritätsseiten und Wikis (nicht Wikipedia!), Autoren Communities, all jene Seiten auf denen jeder nach kostenloser Registrierung weitestgehend unkontrolliert Inhalte mit Links unterbringen kann. Genau um die Inhalte geht es erstmals auch beim Pinguin 2.1, alle bisher verfügbaren Daten deuten in eine klare Richtung: Links aus Seiten mit für menschliche Leser sinnfreien Inhalten, auch Spinning oder Shuffling Texte genannt, werden unabhängig von der Qualität der linkgebenden Domain und dem Linktext zuverlässig als Webspam erkannt. Zur Erstellung solcher Texte werden meist mehrere Quellen ausgelesen, daraus ein neuer Text gemischt und dieser dann noch zigfach über Synonyme variiert. So erhält man hunderte gleichartiger Texte, die zwar lesbar sind, aber keinen Sinn ergeben. Ebenfalls betroffen sind die typischen Artikelverzeichnistexte ohne echten Informationswert.

Besonders beliebt war derartige „Wortsuppe“ bei den vielfach auf Auktionsplattformen und in Foren für kleines Geld angebotenen Linkpyramiden oder Layered Links, von denen jeder der nicht schon bald eine böse Überraschung erleben will, die Finger lassen sollte.

Was das neue Pinguin Update so einzigartig macht, ist daß es Google erstmals zu gelingen scheint, auch innerhalb einer ansonsten starken Domain mit hochwertigen Inhalten einzelne Sinnlostexte zu erkennen und draus verlinkte Zielseiten gezielt zurückzustufen. Pinguin 2.1 arbeitet wesentlich granularer als bisher, nicht nur wie seit Pinguin 2.0 auf Ebene der verlinkten Seiten, sondern auch bei der linkgebenden Seite. Eine kleine Revolution, die eine der letzten bisher unberührten Bastionen im Blackhat SEO Bereich zumindest teilweise zum Einsturz bringt. All jene, die dachten diesen Methoden wären sicher, weil Google solche Seiten nicht wie Blognetzwerke einfach aus dem Index werfen kann, wurden am 4. Oktober 2013 eines besseren belehrt.