Fallen Rankings abrupt ab, können diverse Google Updates und Algorithmen die Ursache sein. Teils sind es aber Probleme eher technischer Art, die zu einem plötzlichen abrutschen der eigenen Rankings auf den Suchergebnisseiten von Google führen. Gleiches gilt für Probleme bei der Indizierung, der Aufnahme und dem Verbleiben im Google Index:
1. .htaccess: Diese Datei regelt serverseitig die Zugriffsrechte auf einer Webseite. Sind innerhalb dieser Datei bestimmte Bereiche der Webseite gesperrt, tauchen sie auch nicht im Index auf bzw. werden, wenn bereits indiziert, nachträglich aus dem Index entfernt. Oft wird während der Entwicklungsphase die Webseite bereits live gestellt, aber für Google gesperrt, damit keine unfertigen Inhalte ins Netz gelangen. Wird am Ende vergessen die Sperre aufzuheben, taucht die Seite auch nicht in Google auf, selbst wenn Backlinks vorhanden sind über die der Bot/Crawler die Internetpräsenz finden kann.
2. Robots.txt: Ähnlich wie die .htaccess, allerdings keine Sperre, lediglich Empfehlungen für Suchmaschinencrawler. Alle großen Suchmaschinen wie Google halten sich an diese Vorgaben, falsche Vorgaben sorgen für ein annähernd gleiches Ergebnis wie bei einer echten Sperre via .htaccess.
3. Noindex: Ein Noindex Tag im Head Bereich einer Webseite verhindert die Aufnahme in den Google Index, zweckmäßig um etwa doppelt vorhandene Inhalte innerhalb eine Domain (z.B. Druckversionen und Archive) von der Indizierung auszuschließen. In Zeiten moderner CMS Systeme sind derartige Tags schnell und komfortabel mit ein paar Klicks für Teile der Webseite oder die gesamte Internetpräsenz gesetzt, ein einziger falsch gesetzter Reiter kann so große Wirkung haben.
4. Canonicals: Canonical Tags geben an, unter welchen URLs genau Inhalte indiziert werden sollen, ideal um bei unter verschiedenen URLs aufrufbare identische Inhalte einer einzigen URL zuzuordnen, die bei Google sichtbar sein soll. Beliebter Fehler: Die Canonicals für alle Unterseiten verweisen auf die Hauptseite, dementsprechend fallen alle Unterseiten sobald Google den Tag erfasst aus dem Index.
5. Hacking: Open Source CMS wie WordPress erlauben es mit wenig Aufwand professionelle Webseiten zu erstellen, bieten aber v.a. im Bereich Plugins und Themes Hackern viele Angriffmöglichkeiten, wenn Sicherheitslücken bekannt werden und auf der einigen Webseite nicht regelmäßig die aktuellen Fixes/Updates eingespielt werden. Gekaperte Webseiten werden gerne dazu genutzt, Schadsoftware aller Art zu verbreiten. Bemerkt Google derartiges, wird die betreffende Webseite gesperrt, um zu verhindern, daß Nutzer sich mit dieser Schadsoftware infizieren. Diese löbliche Schutzfunktion führt aber auch dazu, daß die Besucherzahlen der gehackten Seite schlagartig einbrechen.
6. Downtimes: Ist eine Webseite für mehr als 48h nicht für den Google Bot erreichbar, etwa weil Wartungsarbeiten am Server vorgenommen werden, degradiert Google die Webseite so lange, bis wieder einer reibungsloser Zugriff für Crawler und Nutzer möglich ist. Je nach Popularität der Webseite kann eine Erholung der Rankings einige Tage in Anspruch nehmen. Gleiches gilt für Webseiten, die zwar erreichbar sind, aber sehr schlechte Ladezeiten aufweisen, die die Nutzererfahrung in erheblichem Maße negativ beeinflussen.
Im Rahmen unserer Notaufnahme für Webseiten mit Ranking- und Indizierungsproblemen prüfen wir diese Faktoren immer vorab. Für technisch versierte Webseitenbetreiber mögen diese Problemquellen banal klingen, doch die Praxis zeigt, daß sie genau aus diesem Grund gerne übersehen werden.