Welche Probleme verursachen Session-IDs in URLs ?
Session-Tracking ist sehr praktisch und in vielen Fällen sogar unverzichtbar (z.B. für die Nachverfolgung von Werbekampagnen). Wenn IDs in URLs verwendet werden, stellt das jedoch ein großes Problem dar.
Denn bei jedem neuen Besuch wird eine neue Session gestartet und zu jeder URL wird ein Parameter mit einer neuen Session-ID hinzugefügt. Der Inhalt der Seite ändert sich natürlich nicht.
So erhalten wir potenziell Tausende von verschiedenen URLs für den gleichen Inhalt – und mit jedem Besuch finden Suchmaschinen neue URLs und damit ebenso viele Duplikationen.
Nun wollen aber immer mehr Suchmaschinen ihre Server nicht mit identischen Daten verstopfen (Stichwort „doppelte Inhalte“). Wenn eine Website also nicht „Google-freundlich“ ist, bereinigen die Suchmaschinen doppelte Inhalte selbst und investieren weniger Zeit, um die Architektur der betroffenen Website abzutasten.
Eine der goldenen Regeln, die man sich merken muss, ist die folgende:
Ein Inhalt = eine (indizierte) URL
Glücklicherweise gibt es mehrere Lösungen, um dieses Problem zu umgehen:
- Nutzen Sie nicht die URL zum Speichern der Sessions, sondern setzen Sie Cookies ein (können von Bots nicht erfasst werden).
- Erstellen Sie keine Session für Suchmaschinen.
- Öffnen Sie eine Session nur dann, wenn ein Besucher (privat, nicht SEO-relevant) sich eingeloggt und nicht beim ersten Aufruf.
- Ändern Sie das Verhalten der URLs Ihrer Website, sobald ein Bot erkannt wird (Cloaking).
- Bei IIS-Servern (Microsoft) kann das Problem manchmal direkt durch die richtige Konfiguration gelöst werden. Ein sorgfältiges Vorgehen und Tests sind jedoch unumgänglich!