Im fünften und letzten Teil der Serie Suchmaschinenoptimierung selbst gemacht, geht es um Hosting- und Serverprobleme und damit um einen Bereich, der abseits der Website liegt. Vor diesem Bereich verschließen viele die Augen, weil er sehr techniklastig ist, aber nichtsdestotrotz nimmt er einen wichtigen Stellenwert für SEO ein.
Beginnen wir mit der Problematik von Server-Timeouts. Server-Timeouts treten dann auf, wenn eine Suchmaschine eine Seite aufrufen will, diese Seite aber nicht – oder nicht innerhalb eines bestimmten Zeitlimits – erreichbar ist. Das sieht man natürlich bei Google & Co. gar nicht gerne, weil der Suchende gewohnt ist, dass sich Suchergebnisseiten in Windeseile öffnen lassen. Kommen solche Server-Timeouts beim Crawlen oder allgemein öfter vor, kann es sein, dass die betreffende Seite erst gar nicht in den Index aufgenommen wird oder wieder herausgenommen wird.
Zeit ist Geld – auch für Suchmaschinen
Time is money – Zeit ist Geld. Das gilt auch für Suchmaschinen und die Ergebnisse, die sie liefern. Google investiert nicht selbst in riesige Serverparks, um dann Suchergebnisseiten zu liefern, die eine Minute benötigen, um sich zu öffnen. Lange Reaktionszeiten sind daher auf Dauer ein K.O.-Kriterium. Niemand hat die Geduld länger auf das Öffnen einer Seite zu warten. Hinweise auf lange Ladezeiten findet man bei Google Page Speed. Dort kann man die eigene Website kostenlos checken lassen und erhält direkt Tipps, wie man die Ladegeschwindigkeit verbessern kann.
Teilt man sich mit anderen Websites auf einem Server die IP-Adresse kann das zu nachteiligen Ergebnissen führen. Liegen auf dem Server Seiten mit spammigem Inhalt und man teilt sich die IP-Adresse, geht die Suchmaschine erst einmal davon aus, dass alle Inhalte unter einem Dach verwaltet werden. Das kann sich unter Umständen negativ auf das eigene Ranking auswirken. In einigen wenigen Fällen sperrt die Suchmaschine die IP und Sie sind mitbetroffen.
Keine Trafficbeschränkung!
Der nächste Punkt betrifft nur relativ wenige Website-Besitzer, aber wenn der Fall eintritt, ist es besonders ärgerlich. Viele Server besitzen eine Schranke, die nur eine bestimmte Menge an Traffic auf eine Website zulässt. Das ist in der Regel unproblematisch, aber in der heutigen Zeit kann es schon einmal passieren, dass durch das Schneeballsystem der sozialen Netzwerke in kürzester Zeit sehr viele Besucher auf die Website strömen. Ist sie dann nicht aufrufbar, verliert man den Traffic, von dem man bis dahin nur geträumt hat. Möglicherweise hält der Andrang auch weiter an und wenn dann die Seite – auch für den Crawler – länger nicht erreichbar ist, wird sie nicht indexiert.
Und last but not least sollte man auch auf den Serverstandort achten. Da Google sich immer lokaler ausrichtet, wird auch die Position des Webservers herangezogen, wenn es darum geht, ob eine Seite für eine bestimmte Region rankt oder nicht. Der Webserver sollte grundsätzlich immer im Zielland stehen.
Kommentar schreiben
Antworten
Ihre Antwort schreiben