Der Suchmaschinen-Algorithmus von Google ist komplex und kompliziert. Niemand außer Google selbst weiß, wie er genau funktioniert, wonach Websites bewertet werden und wie die Suchmaschine darüber entscheidet, wer ganz vorn gelistet sein darf. Einige Kniffe sind bekannt, doch durch Updates gibt es immer wieder Veränderungen und Strafen für minderwertige Websites.
Was passiert bei Panda 4.1?
So auch wieder seit Anfang dieser Woche. Wie Google-UK-Mitarbeiter Pierre Far nun über Google+ mitteilte, hat Google den Panda Algorithmus verbessert und anhand von User- und Webmaster-Feedback einige Signale mehr zu seinen Kriterien hinzugefügt, über die minderwertiger Content identifiziert wird. Dadurch sollen auch kleinere und mittelgroße Seiten mit höherer Qualität besser gerankt werden. Far zufolge sollen 3-5% aller Suchanfragen betroffen sein.
Somit verkleinert Google mit dem Panda 4.1 Update sein Raster für minderwertige Websites und bietet kleineren Seiten Chancen für ein besseres Ranking und belohnt sie für ihren guten Content. Nächste Woche soll das Update vollständig ausgerollt worden sein.
Auch Matt Cutts bestätigte inzwischen das Update, welches von vielen Usern positiv begrüßt wurde:
Google just mentioned that a new Panda update is slowly rolling out: https://t.co/7ZbRZDfvri
— Matt Cutts (@mattcutts) 26. September 2014
Was tun, wenn der Panda zuschlägt?
Sollte man als Webseitenbetreiber feststellen, dass der Traffic auf der Seite plötzlich abgefallen ist oder in den nächsten Tagen noch fällt, wird es mit hoher Wahrscheinlichkeit am neuen Panda 4.1 Update liegen. Seit Februar 2011 wird das damals gelaunchte Update des Algorithmus‘ von Google immer wieder mit Änderungen gefüttert und stellt Webseitenbetreiber vor neue Herausforderungen.
Im September 2013 gab Matt Cutts dann tatsächlich per Youtube-Video einige Tipps, wie Webseitenbetreiber reagieren sollten, wenn sie vom Panda Update betroffen sind. Die Antwort ist simpel: einfach qualitativ besseren Content produzieren, Dinge wie nicht originären oder duplizierten Content vermeiden und keinen Content von anderen Seiten „stehlen“.
Die Frage ist natürlich, was als „qualitativ hochwertiger Content“ angesehen wird und auch da gab Google bereits vor drei Jahren Einblicke auf seinem Google Webmaster Central Blog. Um also die Qualität einer Website zu bestimmen, fragt Google sich unter anderem „Würde man die Informationen auf einer Seite als glaubwürdig einstufen?“, „Wurde der Artikel von einem Experten oder gut informierten Enthusiasten geschrieben oder ist er eher oberflächlich?“ oder „Bietet diese Seite einen Mehrwert gegenüber anderen Seiten in den Suchergebnissen?“ und vieles mehr.
Daher sollten Betreiber glaubwürdiger und ernsthafter Webseiten diese Punkte überdenken und wenn nicht für dieses dann doch für das nächste Update gewappnet sein.
Google nimmt auch private Blognetzwerke ins Visier
Momentan wirkt es auch als unternehme Google einen Rundumschlag gegen schlechten Content im Web. Wie erst vor ein paar Tagen zu lesen war, soll der Suchmaschinen-Riese private Blognetzerwerke deindexiert und bereits hunderte oder sogar tausende Seiten abgestraft haben. Die Aktion wurde nach den Angaben von t3n manuell durchgeführt, richtete sich aber ebenfalls gegen Seiten, deren „Inhalte von geringer Qualität mit geringem oder gar keinem Mehrwert“ sind.
Google-Update soll nur die Schuldigen erwischen
Das Google Panda Update zielt also nur auf qualitativ schlechte Websites ab, um Usern möglichst guten Content zu bieten, nach dem sie auch gesucht haben. Ist man sich als Webseitenbetreiber sicher, dass man Content mit Mehrwert liefert, kann man daher ruhigen Gewissens sein. Sollte man doch Auswirkungen verspüren, ist nicht alles verloren, es gibt Maßnahmen, die einen gegen das nächste Update (welches mit Sicherheit kommt) wappnen.
Kommentar schreiben