In einer fünfteiligen Serie wollen wir uns intensiv dem Thema der Suchmaschinenoptimierung (SEO) widmen. Wie optimiert man die eigene Website so, dass man bei Google im Ranking steigt? Welche Stolperfallen gibt es? Und wo liegen versteckte Potenziale der Suchmaschinenoptimierung? Im ersten Teil der Serie geht es unter anderem um Usability, Crawler und Duplicate Content.

Die Usability einer Website fällt in den Bereich der Onsite-Optimierung. Dies ist der einfachere Teil der Suchmaschinenoptimierung, denn man ist hierbei nicht auf die Gunst von Backlinks oder Google angewiesen, sondern kann selbst Hand anlegen und Voraussetzungen für ein besseres Ranking sorgen. Grundsätzlich gilt: Onsite-Optimierungen sind immer Offsite-Optimierungen vorzuziehen. Die Usability einer Website ist deshalb so wichtig für SEO, weil damit die Verweildauer, die Absprungrate und die Konversionsrate verknüpft sind und dies Faktoren im Suchmaschinen-Ranking sind. Zudem verlinken andere viel lieber auf eine gut bedienbare Seite.

Um eine gute Usability zu gewährleisten, kann man sich ein paar erfolgreiche Shops im Internet suchen und analysieren, wie sie es schaffen, das zu liefern, was der Besucher verlangt. Diese Frage ist auch Ausgangspunkt der eigenen Usability-Ausrichtung. Was biete ich? Was ist für den Besucher wichtig auf den ersten Blick? Sind alle Abläufe nachvollziehbar und möglichst kurz gehalten? Findet man schnell Produkte oder Informationen zu Versand, Lieferzeiten und so weiter?

Der nächste Punkt der SEO ist die Crawlbarkeit. Wie gut lässt sich die eigene Website von einem Crawler (auch Robot oder Spider) lesen? Ein Crawler ist ein Programm der Suchmaschinen, das im Internet Inhalte von Seiten scannt. Die Liste der möglichen Hürden für einen Crawler ist lang. Daher an dieser Stelle nur einige Hinweise. Inhalte und Navigation auf Basis von Flash ist für einen Crawler problematisch oder gar nicht zu lesen. Gleiches gilt für JavaScript-Inhalte. Wichtige Inhalte hinter einem Login zu verbergen, ist auch ein häufig auftretendes Problem sowie kryptische Session-IDs. Anhand der vielen Fachausdrücke merkt man schnell, dass dieses Thema etwas für jemanden mit viel technischem Verständnis ist. Die Google Webmaster-Tools bieten aber auch Anfängern schon wichtige Hinweise, was man an der eigenen Site verändern kann, um besser gecrawlt zu werden.

Der letzte Punkt des ersten Teils der Serie ist dem Duplicate Content gewidmet. Gerade für Shop-Betreiber ist das ein heißes SEO-Thema. Zunächst einmal sollte eine Website nicht unter zwei URLs zu finden sein. Bestes Beispiel: https://meineseite.de und www.meineseite.de. Das passiert häufig. Per 301-Weiterleitung sollte man dabei von der einen Domain auf diejenige verweisen, die man indexiert haben möchte. So weiß die Suchmaschine, welche der beiden Seite auf der Suchergebnisseite auftauchen soll. Man spricht dabei von einem Canonical Redirect. Mehr zum Thema Canonical im nächsten Teil der Serie.