Valides HTML ist kein Ranking Faktor

Auch wenn es sicher gute Gründe gibt, den Code einer Internetseite möglichst sauber und fehlerfrei zu gestalten, etwa um eine einwandfreie Darstellung in möglichst vielen Browsern sicherzustellen, W3C Konformität spielt für Google keine Rolle. Das hat Matt Cutts von Google nun, nach mehr oder minder eindeutigen Andeutungen die bis in das Jahr 2005 zurückreichen, unmißverständlich bestätigt. Auch sehr eigenwilliger und nicht valider HTML Code führt keinesfalls zu einer Abstrafung oder schlechteren Rankings. Der genannte Grund ist simpel und einleuchtend: Würde Google diesen Faktor berücksichtigen, würde die Qualität der Suchergebnisse erheblich leiden, da auch viele hochwertige Seiten mit wertvollen Informationen nicht W3C konform erstellt sind. Der sich stetig haltende und selbst auf Fachforen oft ins Feld geführte SEO Mythos, valide Programmierung eines Internetauftritts wäre eine unabdingbare Voraussetzung für gute Platzierungen bei Google, ist damit nach vielen Jahren (hoffentlich) endgültig vom Tisch.


Es wird erneut deutlich: Internetseiten sollen Menschen begeistern und keine Bots durch technische Perfektion überzeugen, kleine technische Fehler sind absolut verzeihlich, solange die Nutzererfahrung dadurch nicht beeinträchtigt wird.

Links aus bezahlten Branchenbucheinträgen potentiell toxisch

Der Blogbeitrag eines Kollegen aus Australien, Jason Mun, erhitzt aktuell die Gemüter in der SEO Branche. Seitdem Google Anfang 2012 begonnen hat, verstärkt gegen zweifelhafte Techniken beim Linkaufbau vorzugehen, stehen jetzt offensichtlich bezahlte Branchenbucheinträge im Kreuzfeuer.

Mun beschreibt inklusive Screenshot, wie ein Eintrag mit Verlinkung auf den australischen Yellow Pages, vergleichbar mit den Gelben Seiten in Deutschland, von Google explizit als unnatürlicher Link gewertet wurde und zumindest mitverantwortlich für eine manuelle Abstrafung der betreffenden Webseite im Google Index war.

Bei http://www.yellowpages.com.au handelt es sich um das größte australische Branchenverzeichnis, die Seite besitzt einen Pagerank von 8.  Auch wenn Pagerank heute sicher nur noch begrenzte Aussagekraft hat, ein kleiner Vergleich: PR8 haben in Deutschland z.B. die  offizielle Homepage deutsche Bundesregierung und des Nachrichtenmagazins Spiegel. Das australische Branchenbuch ist keine zweifelhafte Linkschleuder, sondern ein echtes Schwergewicht im Suchindex.

Noch ein Einzelfall, sollte Google diese Politik aber konsequent weiterverfolgen, bedeutet das: Jegliche bezahlte Branchenbuch- oder Webkatalogeinträge mit dofollow Link, insbesondere wenn Keywords und nicht nur der Brandname/Firmenname und/oder die URL zur Verlinkung genutzt werden, könnten zu einer manuellen Abstrafung führen und sind als toxische Links zu sehen.

Wir setzen derartige dofollow Verlinkungen mit harten Keywords (Moneykeys) in Branchenbüchern seit jeher nicht ein, überraschend ist dieser Schritt von Google aber allemal. Gerade Einträge bei den Marktführern im Bereich Branchenbücher werden kaum über SEO Agenturen angeboten, sondern von den jeweiligen Unternehmen selbst initiiert und das sicher nicht mit der Absicht, die eigenen Rankings im Google Index zu manipulieren.

Der Fall zeigt, daß „Do It Yourself“ SEO und Linksetzungen, ohne Betreuung durch eine Agentur mit aktuellem Wissensstand, zunehmend riskanter wird. Gerade im Offpage Bereich zieht Google schon seit einiger Zeit die Zügel strammer, was einen SEO Audit auch für Seiten ohne bestehende Abstrafung  empfehlenswert macht, wenn in der Vergangenheit selbst Links geschaltet wurden.

 

Standardchecks bei Ranking- und Indizierungsproblemen

Fallen Rankings abrupt ab, können diverse Google Updates und Algorithmen die Ursache sein. Teils sind es aber Probleme eher technischer Art, die zu einem plötzlichen abrutschen der eigenen Rankings auf den Suchergebnisseiten von Google führen. Gleiches gilt für Probleme bei der Indizierung, der Aufnahme und dem Verbleiben im Google Index:

1. .htaccess: Diese Datei regelt serverseitig die Zugriffsrechte auf einer Webseite. Sind innerhalb dieser Datei bestimmte Bereiche der Webseite gesperrt, tauchen sie auch nicht im Index auf bzw. werden, wenn bereits indiziert, nachträglich aus dem Index entfernt. Oft wird während der Entwicklungsphase die Webseite bereits live gestellt, aber für Google gesperrt, damit keine unfertigen Inhalte ins Netz gelangen. Wird am Ende vergessen die Sperre aufzuheben, taucht die Seite auch nicht in Google auf, selbst wenn Backlinks vorhanden sind über die der Bot/Crawler die Internetpräsenz finden kann.

2. Robots.txt: Ähnlich wie die .htaccess, allerdings keine Sperre, lediglich Empfehlungen für Suchmaschinencrawler. Alle großen Suchmaschinen wie Google halten sich an diese Vorgaben, falsche Vorgaben sorgen für ein annähernd gleiches Ergebnis wie bei einer echten Sperre via .htaccess.

3. Noindex: Ein Noindex Tag im Head Bereich einer Webseite verhindert die Aufnahme in den Google Index, zweckmäßig um etwa doppelt vorhandene Inhalte innerhalb eine Domain (z.B. Druckversionen und Archive) von der Indizierung auszuschließen. In Zeiten moderner CMS Systeme sind derartige Tags schnell und komfortabel mit ein paar Klicks für Teile der Webseite oder die gesamte Internetpräsenz gesetzt, ein einziger falsch gesetzter Reiter kann so große Wirkung haben.

4. Canonicals: Canonical Tags geben an, unter welchen URLs genau Inhalte indiziert werden sollen, ideal um bei unter verschiedenen URLs aufrufbare identische Inhalte einer einzigen URL zuzuordnen, die bei Google sichtbar sein soll. Beliebter Fehler: Die Canonicals für alle Unterseiten verweisen auf die Hauptseite, dementsprechend fallen alle Unterseiten sobald Google den Tag erfasst aus dem Index.

5. Hacking: Open Source CMS wie WordPress erlauben es mit wenig Aufwand professionelle Webseiten zu erstellen, bieten aber v.a. im Bereich Plugins und Themes Hackern viele Angriffmöglichkeiten, wenn Sicherheitslücken bekannt werden und auf der einigen Webseite nicht regelmäßig die aktuellen Fixes/Updates eingespielt werden. Gekaperte Webseiten werden gerne dazu genutzt, Schadsoftware aller Art zu verbreiten. Bemerkt Google derartiges, wird die betreffende Webseite gesperrt, um zu verhindern, daß Nutzer sich mit dieser Schadsoftware infizieren. Diese löbliche Schutzfunktion führt aber auch dazu, daß die Besucherzahlen der gehackten Seite schlagartig einbrechen.

6. Downtimes: Ist eine Webseite für mehr als 48h nicht für den Google Bot erreichbar, etwa weil Wartungsarbeiten am Server vorgenommen werden, degradiert Google die Webseite so lange, bis wieder einer reibungsloser Zugriff für Crawler und Nutzer möglich ist. Je nach Popularität der Webseite kann eine Erholung der Rankings einige Tage in Anspruch nehmen. Gleiches gilt für Webseiten, die zwar erreichbar sind, aber sehr schlechte Ladezeiten aufweisen, die die Nutzererfahrung in erheblichem Maße negativ beeinflussen.

Im Rahmen unserer Notaufnahme für Webseiten mit Ranking- und Indizierungsproblemen prüfen wir diese Faktoren immer vorab. Für technisch versierte Webseitenbetreiber mögen diese Problemquellen banal klingen, doch die Praxis zeigt, daß sie genau aus diesem Grund gerne übersehen werden.