Neues Parameter Handling in den Webmaster Tools

Vielleicht erinnert ihr euch ja an das URL Parameter Handling Tool in den Google Webmaster Tools, dass nie so richtig funktioniert hat. Im Grunde genommen konnte man Google mitteilen, wie sie bestimmte Parameter in der URL behandeln sollen. Entweder ignorieren oder eben nicht. Vor ein paar Monaten kam dann die Möglichkeit dazu, nur bestimmte Werte der Parameter zu behandeln. Leider stand das aber auch nicht immer zur Verfügung. Kurz gesagt, eigentlich war das Parameter Handling nicht wirklich brauchbar.

Seit Freitag gibt es nun aber Neues vom Webmaster Tools Team. Der komplette Punkt Parameter wurde überarbeitet und ist in die Hauptnavigation aufgestiegen. Die alten Einstellungen wurden übernommen und werden dort wie gewohnt ausgegeben. Das wars aber auch schon mit den Ähnlichkeiten. Die Neuerungen erkläre ich anhand eines XT:Commerce Shops mit den Shopstat SEF-URLs.

Google hat die alten Einstellungen übernommen und zeigt mir eine Reihe von Parametern an, die ich in der Vergangenheit schon mal eingetragen habe.

products_id existiert ab der Umstellung auf die SEF URLs nicht mehr. Es handelt sich dabei um alte Produktseiten, die nicht mehr existieren oder im schlimmsten Fall Duplicate Content hervorrufen. Deshalb sollten die Seiten mit diesem Parameter in der URL auch nicht mehr gecrawlt werden.
Zu allererst wird gefragt, ob der Parameter Einfluß auf den Inhalt hat. Bei einer Produkt ID kann man die Frage natürlich nur mit Ja beantworten. Wählt man das aus, bekommt man neue Möglichkeiten zur Behandlung.

Wie wirkt sich dieser Parameter auf den Seiteninhalt aus? Man bekommt gleich mehrere Antwortmöglichkeiten (Wählen, Sortieren, Eingrenzung, Präzisierung, Übersetzung, Seitenauswahl und Sonstiges). Da keine der Punkte passt, nehme ich „Sonstiges“.

Welche URLS mit diesem Parameter soll der Googlebot Crawlen? Auch hier gibt es wieder mehrere Punkte (Entscheidung dem Bot überlassen, Jede URL, Nur URLs mit dem Wert X*, keine URLs). In unserem products_id Fall wähle ich natürlich „keine URLs“

* Hier kann man einen Wert aussuchen, bei dem der Bot die Seite crawlen soll. Interessant ist das zum Beispiel bei Sprachparametern oder wenn man eine bestimmte Sortierreihenfolge bevorzugt

Wie ihr an dem Screenshot ganz oben seht, habe ich viele Parameter vom Crawlen ausgeschlossen. Diese weisen auf alte oder unnötige URLs hin, die man nicht (mehr) braucht.

Die Möglichkeiten in der neuen Version sind richtig gut, wir werden sehen, ob das dann auch tatsächlich funktioniert. Das war bisher ja leider nur mäßig der Fall. Gerade bei Shops, die viele Filter, Sortierfunktionen, Session IDs etc. haben, könnte man einige Seiten mit doppelten Inhalten vermeiden.

Verfasst von Ferdinand v. Seggern