Die Google Penalty besiegt

Das Schwierigste an einer Google Filter Penalty ist, zu erkennen, in welche man getappt ist. Die Wochen dazwischen werden zu Zerreißprobe.

Die Google Penalty besiegt

Aber mal auf Anfang zurück.
Worum geht es? Um eine Projekt, das vor 9 Monaten startete. Geplant und umgesetzt als non-profit Support Projekt für ein anderes noch in Entwicklung befindliches Webprojekt. Schlicht einfach nur erstmal als Datensammler gedacht aber schon mit Onpage Seo ausgestattet. Es sollten User Agent Strings gesammelt und kategorisiert werden. Also schon eine automatisierte Form der Datensammlung. Das Projekt war auch relativ schnell umgesetzt und online gestellt. Dabei ging es zu der Zeit weder um tiefgreifende Analyse der Daten und so hatte die Webseite nur Listen mit den gesammelten User Agent Strings was über die Zeit gesehen weniger als 300 Unterseiten produzierte.


Der Langsame Aufstieg


Und dann? Dann lief die Seite, lief und lief und geriet in Vergessenheit. Gegen Ende November 2013 dann ein kleiner Schock. Beim Blick in die Webmastertools und auch Analytics wurde sichtbar, dass sich die Seite einige Top 10 Positionen erarbeitet hatte, was plötzlich und völlig unerwartet zu Traffic auf der Seite führte, der stetig wuchs. Mit ein paar Handgriffen wurden ein paar Änderungen an der Seite vorgenommen, um dem Nutzer doch mehr Informationen zur Verfügung zu stellen und einen Mehrwert zu schaffen. Ausserdem kam Adsense zum Einsatz, um zumindest ein wenig von dem Traffic profitieren zu können.


The Rise


Der erhöhte Traffic auf der Seite hatte so seine Vor- und Nachteile. Zum einen glaubt man gar nicht, was für Müll als User Agent Strings gesendet wird. Das fängt bei komischen Konstrukten von Internet Explorer 10 unter Windows 95 an, geht bei Crawlern weiter und hört bei User Agent Strings auf, die HTML senden um Links zu platzieren. Zum anderen kommt hinzu, dass der erhöhte Traffic natürlich jede Menge neue automatisierte Inhalte generiert. Und spätestens hier hätten eigentlich schon alle Alarmglocken angehen müssen, sind sie aber nicht, und es kam wie es kommen musste.


The Fall


Nach etwa einem Monat, Anfang Januar 2014 gab es nochmal einen kräftigen Schub nach oben, der am 9. Januar, genau 6 Monate nach dem Start der Seite und  statt 300 Seiten einen Monat zuvor, mit nun über 6000 Seiten im Google Index ein jähes Ende fand. Von einem auf den anderen Tag waren etwa 70% des Traffics weg. Der Fall in den Webmaster Tools war noch deutlicher. Hier waren von einem Tag auf den anderen alle Platz 2-10 Rankings weg. Eine noch unbedeutende Anzahl an Top 1 Platzierungen war noch da, die für die nächsten 3 Monate auch die einzigen Platzierungen sein sollten. 


Die Kater-Phase


Ernüchterung machte sich breit und was noch viel schlimmer war, der Grund war zu jenem Zeitpunkt komplett unbekannt. Das große Rätselraten ging los. War es eine Layout Penalty, war es eine Low Content Penalty oder war es was anderes. Da der Content teilweise doch recht dünn war, wurde damit begonnen den Content aufzuwerten und detailliertere Beschreibungen zu liefern. Nach einem Monat, Anfang Februar 2014 schien dies alles aber nicht zu helfen. Also wurde noch ein wenig am Layout gedreht, per responsive dafür gesorgt, dass die Seite auch auf mobilen Geräten besser dargestellt wurde. Wieder warten ... und weiterhin sanken die Besucherzahlen. Letzter Ausweg war dann, alle Seiten automatisch auf noindex zu setzten, ausgenommen Seiten, die bereits inhaltlich gecheckt und freigegeben wurden. Zu dem Zeitpunkt hatte die Seite etwa 10000 Seiten im Index. Es dauerte etwa 2 Wochen, bis man in den Webmastertools das Sinken der indizierten Seiten sah. Die Impressions in den Google Suchergenissen in den Webmaster Tools waren auf unter 200 pro Tag gesunken. Die Seite war faktisch tot. Selbst eine Unterseite die komplett per Hand erstellt wurden, und auf einen ganz bestimmten Longtail abzielte, war nicht in den Index zu bekommen.


Die Phönix Phase


Am Karfreitag 2014 dann ungläubiges Augenreiben. Plötzlich schossen die Besucherzahlen wieder nach oben. Die Longtail Seite rangierte plötzlich auf Position 2, wo sie auch hingehörte, auch andere Keywords, die Google langsam nach hinten geschoben hatte, waren wieder auf Seite 1 zu finden. Kurzum, die Seite lief wieder. Die Webmastertools zeigten einen Indexierungsstatus von unter 6000 Seiten an. Damit hatte die Seite ein zweites mal die 6000er Marke geknackt und löste damit ein AHA-Erlebnis aus. Damit war klar, dass die Seite in einen Google Filter gerauscht war, der einen zu schnellen Aufbau an Unterseiten verhindert, also ein Spamfilter. Das war ehrlich gesagt auch nie die Absicht Google mit zu vielen neuen Seiten zuzuspammen, aber gut dass man jetzt die Grenze kennt.


Fazit


Autmatisierte Seiten sind tatsächlich evil und Google mag das überhaupt nicht. Durch die default noindex Einstellung wurden zwar kollateral Schäden bei vermutlich noch gut rankenden Seiten in Kauf genommen, gleichzeitig aber ein deutliches Zeiches Richtung Google gegeben, dass es sich nicht mehr um rein automatische Inhalte handelt und die Do-Index Seiten inhaltlich betreut werden.


Da weder in den Webmastertools eine Nachricht zu sehen war, noch von Google irgendeine Mitteilung kam, was mit der Seite falsch war, ist es umso schwieriger auch zu reagieren. Einen Panda kann man wohl ausschliessen, da schnell nach dem Absturz Inhalte aufgebaut wurden, Google das aber nicht interessiert hat und es gut rankende, vergleichbare Seiten mit noch dünnerem Inhalt gibt. Einen Pinguin kann man wohl auch ausschließen, da kein Linkaufbau betrieben wurde.


Komischerweise hatte man immer von Donnerstag auf Freitag das Gefühl, dass es wieder schlechter wird, weil hier die Besucherzahlen immer weiter runter gingen, von Woche zu Woche.


Die Seite wird jetzt weiterlaufen, und darf organisch langsam weiter wachsen. Und vielleicht hört auch irgendwann der User Agent String Spam mal auf.


Vielleicht helfen ja die Informationen auch dabei, dass andere Projekte nicht über den selben Google Filter stolpern.