Penguin 2.0 – Googles langer Schnabel (Pardon: Atem) gegen Webspam

, zuletzt aktualisiert: 13. August 2014

Jetzt ist es also so weit: Google hat ein neues Penguin Update herausgebracht, Penguin 2.0 ist live und beeinflusst weltweit die Suchergebnisse. Was für die meisten Nutzer relativ unspektakulär und unbemerkt abläuft, versetzt einen Teil der SEO-Szene mal wieder in Angst und Schrecken. Besonders natürlich all diejenigen, die häufiger gegen die Webmaster-Richtlinien verstoßen und unlautere Methoden bei ihrer Suchmaschinenoptimierung (Black Hat SEO) anwenden.

Das Update hatte Matt Cutts, Sprachrohr des Google Webspam Teams, schon vor über einer Woche in seinem Blog angekündigt.

Hier das entsprechende Video dazu:

Was ist Penguin 1.0?

Penguin ist ein Algorithmus-Update, das zum Ziel hatte, gegen unlautere Methoden der On- und Offpage Optimierung vorzugehen. Die Ankündigung des Penguin 1.0 geschah im April 2012.

Überprüft wurden unter anderem:

  • – Unregelmäßigleiten im Backlink Schema
  • – Cloaking
  • – Keyword stuffing

Es gab im vergangenen Jahr 2 Updates des Penguin (1.1 und 1.2), die jeweils nur kleinere Anpassungen waren (Matt Cutss spricht von „data refresh“, in Abgrenzung zum Begriff Update). Jetzt aber wurden wohl wesentliche Neuerungen des Algorithmus eingeführt, daher die Bezeichnung 2.0.

Hier noch eine hübsche Infografik über den Pinguin und gleichzeitig eine Abgrenzung zum anderen bekannten Update, dem Panda:
The difference between Google Panda & Penguin Infographic

Was ist der Unterschied zwischen Penguin 1.0 und Penguin 2.0 ?

Eine der wenigen öffentlich bekanntgemachten Änderungen des Updates 2.0 ist die Tiefe, mit der der Algorithmus nun die Webseite untersucht. Bisher wurde vor allem die Homepage (Startseite) der Webseite untersucht, nun werdem wohl auch Unterseiten unter die Lupe genommen.

Siehe dem Video hier:

Demnach sind 2,3% der englischen Suchabfragen sind vom Update betroffen (eine Auflistung der prozentuale Änderungen durch frühere Updates gibt es bei searchengineland).

Sobald weitere Informationen publik werden, ergänze ich sie hier.

Wen betrifft das aktuelle Penguin Update?

Die Frage ist natürlich so pauschal nicht zu beantworten. Sie haben Angst, dass Sie mit Ihrer Seite betroffen sein könnten oder bei einem zukünftigen Update getroffen werden? Folgende Praktiken könnten Sie in Gefahr bringen:

– Automatischer Linkaufbau (z.B. zu viele Links in zu kurzer Zeit)
– Schlechte Backlinks (Links von minderwertigen Seiten)
– Keine Link-Diversität (nur Links aus einer Quelle, z.B. Blogkommentare; nur wenige verschiedene Ankertexte)
– Überoptimierung Ihres Contents (z.B. das massenhafte Einbringen von Keywords – Keywordstuffing)

Beeinflussung des deutschen Markts durch das Algorithmus Update

Richtig spannend finde ich die Betrachtung, wer in den deutschen Suchergebnissen besonders stark von dem neuen Update betroffen ist. Hierzu liefert Sistrix eine erste Analyse.

Untersucht wurde der Sichtbarkeitsindex. Sicherlich ist die Aussagekraft dieser Maßzahl eher umstritten. Fraglich ist z.B., ob die für die Anfertigung des Index verwendeten Keywords überhaupt für die betreffende Seite relevant sind, oder ob für wirklich relevante Begriffe (die nicht überwacht werden) vielleicht sogar eine positive Veränderung stattgefunden hat.

Zumindest sind demnach die ganz großen Verlierer die Seiten lasik-koeln.info, fewo-von-privat.de und travelantis.de mit jeweils 60% oder mehr Einbußen am Sichtbarkeitsindex.

Aufruf zu manueller Spam-Report zur Verbesserung des Algorithmus

Der folgende Punkt wird für die meisten Leser weniger relevant sein, aber sollten Sie eine Spam-Webseite entdecken, dann können Sie unter dem folgenden Link einen Penguin Spam Report an Google senden. Matt Cutts ruft über Twitter offiziell dazu auf, alle vom Pinguin Update nicht erkannten Seiten zu melden.
Aufruf zum Spam Report einsenden

In einschlägigen Foren wird nun schon abgelästert, die Mitarbeiter von Google würden Ihrem Penguin Update nicht vertrauen. Allerdings ist es normal, dass in den Tagen nach einem Algorithmus Update noch an den Stellschrauben gedreht wird. Und es liegt in der Natur der Sache, dass auch die neueste Anpassung der Suchmaschine nicht alle schlechten Seiten erfassen kann. Irgendwo muss ein Schwellenwert (threshold) gesetzt werden, ab dem eine Seite als Webspam eingestuft wird. Zu niedrig kann er nicht angesetzt werden, da sonst auch zu viele unschuldige bzw. grenzwertige Seiten, die eigentlich sehr guten Content bieten, betroffen wären.

Was ich mich noch frage: Ob da der ein oder andere versuchen wird, seine Konkurrenz zu belasten? Negatives SEO ist ja, wenn man den „Medien“ glaubt, ein zunehmendes Phänomen, warum dann nicht gleich persönlich anschwärzen? Die Frage ist ja, wie eng der Filter dann angelegt wird, denn wenn man lange genug sucht, wird man immer den ein oder anderen unnatürlich wirkenden Link oder eine vielleicht etwas überoptimierte Seite finden.

Meine Situation mit dem überarbeiteten Penguin Algorithmus

Ich konnte von gestern auf heute nur positive Rankingveränderungen feststellen – für mich wieder eine Bestätigung, dass sich saubere Arbeit für langfristige Ziele bezahlt macht. Natürlich kann man kurzfristig mit unlauteren Methoden Erfolge vorweisen, aber früher oder später rächt sich solch ein Vorgehen dann. Auch für meine Kunden verwende ich nur regelkonforme Techniken – so weit das Setzen eines Links überhaupt konform sein kann.

Mich würde interessieren, wie sind Ihre Erfahrungen mit dem Update und wie halten andere SEOs das mit ihren Kundenprojekten? Vielleicht bekomme ich ja ein paar interessante (zur Not anonyme) Kommentare dazu?

Ein Kommentar

  • Freetagger sagt:

    Nachdem es mich letztes Jahr mit einer Seite krass erwischt hat und meine Einnahmen dadurch in den Keller gewandert sind, habe ich meine Strategie grundlegend geändert und seitdem damit auch Erfolg. 🙂

Trackbacks und Pingbacks

    Kommentieren


    Die Kommentare werden moderiert !

    Blog
    Über den Autoren
    Autorenfoto
    Thomas Merkel unterstützt kleine Unternehmen und Selbstständige im Bereich Online Marketing. Er steht ein für eine ganzheitliche Betrachtung, bei der Design, Psychologie und Analytik eng verzahnt zusammenarbeiten: der clevere Webdesign Prozess.
  • Letzte Beiträge

  • Kategorien