Tip:
Highlight text to annotate it
X
Hallo, ich bin Maile Ohye vom Google Webmaster Support Team.
Ich möchte Ihnen heute zeigen, wie man die URL-Parameter in den Webmaster-Tools
optimal nutzt.
Die URL-Parameter sind eine ausgefeilte Funktion. Deswegen sind die folgenden Informationen
für Sie vielleicht komplexer als erwartet. Sehen Sie sich also zuerst die Seite
zu den URL-Parametern an, um zu prüfen, ob Google Ihnen schon mitgeteilt hat,
dass Ihre Website gut erfasst wird und deswegen keine Änderungen nötig sind.
Die Mitteilung von Google lautet: "Der Googlebot hat derzeit keine Probleme
mit dem Crawlen Ihrer Website, daher müssen Sie keine URL-Parameter konfigurieren.
Falsch konfigurierte Parameter können bewirken, dass Seiten Ihrer Website aus unserem Index
entfernt werden, daher empfehlen wir, dieses Tool nur bei Bedarf einzusetzen."
Wenn Sie diese Nachricht erhalten haben, ist alles in Ordnung, und Sie können hier abschalten.
Haben Sie die Nachricht aber nicht bekommen, dann sehen Sie weiter zu.
Am wichtigsten ist: Eine fehlerhafte Verwendung der URL-Parameter kann dazu führen,
dass Ihre Seiten nicht mehr in der Suche erscheinen. Wie gesagt: Diese Funktion ist komplex.
Die Einstellungen in den URL-Parametern werden von Google beim Crawlen als nützlicher Hinweis verwendet.
Für stärkere Anweisungen sollten Sie etwa Blockierregeln in der robots.txt-Datei
oder das Meta-Tag "noindex" verwenden. Aber die URL-Parameterhinweise sind trotzdem nützlich.
2010 verkaufte der Google Store nur ca. 160 Produkte. Das ist eigentlich schnell gecrawlt.
Allerdings wurden für diese 160 Produkte sage und schreibe 380.000 URLs generiert.
Und zwar etwa aufgrund unterschiedlicher·Navigationsarten.
Deswegen überprüft der Googlebot beim Crawlen Ihrer Website nicht nur 200 eindeutige URLs,
sondern er muss erst einmal feststellen, welche der 380.000 erstellten URLs er prüfen muss.
Sehen wir uns exemplarisch zwei URLs an, um festzustellen, wie effizient der Googlebot ist.
Die erste besagt: "category=YouTube". Angenommen, diese URL ruft 20 separate Artikel
auf der Seite auf. Die zweite URL lautet: "category=YouTube&size=M".
Es werden also dieselben Artikel gefunden, aber es bleiben nur fünf Artikel übrig –
wegen des Parameters "Size=M". Also crawlt Google nur die erste URL,
denn so werden alle 20 Artikel gefunden. Es müssen also nicht alle URLs verarbeitet werden,
weil die Ergebnisse redundant wären.
Im Wesentlichen helfen Sie uns mit Ihren URL-Parametern, Ihre Website besser zu verstehen.
Das Crawlen wird also effizienter. Und deswegen werden beim Crawlen nicht so viele Duplikate erfasst.
Das wiederum spart Bandbreite und hilft uns dabei, den Schwerpunkt auf eindeutige Inhalte zu legen,
statt doppelt vorhandene Informationen doppelt zu crawlen. Wenn Sie URLs entfernen möchten,
tun Sie dies mit den Webmaster-Tools. Noch einmal: Bei den URL-Parametern
geht es um wirksameres Crawlen, nicht um das Entfernen oder explizite Blockieren mit der robots.txt-Datei.
Eine weitere wichtige Hintergrundinformation ist, dass Auszeichnungen auf Seitenebene weiterhin
neben den URL-Parametern berücksichtigt werden. Wenn Sie also mit solchen Auszeichnungen arbeiten –
z. B. 'rel, "canonical"', 'rel, "next"', 'rel "prev"' oder 'rel, "hreflang"', dann ist das in Ordnung:
Sie werden weiterhin auch dann von Google verarbeitet, wenn Sie URL-Parameter verwenden.
Achten Sie nur darauf, dass wir Ihre Seite weiterhin crawlen können.
Sie darf also nicht durch die robots.txt-Datei oder über die URL-Parameter blockiert sein.
Wenn Ihre Seite gecrawlt werden kann, werden Mark-ups auf Seitenebene auch verarbeitet.
Nach diesen Hintergrundinformationen wollen wir jetzt über die Arten von URLs sprechen,
die für diese Funktion infrage kommen. Hier ist eine URL aus dem Google Store:
"category=office". Andere URLs könnten Parameter wie "category=wearables" oder
"category=wearables&size=M" enthalten. Solche URLs kommen für diese Funktion infrage,
denn sie enthalten Schlüssel-Wert- oder Name-Wert-Paare. Das Schema lautet:
"Schlüssel=Wert", dann folgt unter Umständen ein "&" und dann "Schlüssel2=Wert2".
Werden solche URLs erkannt, dann behandelt Google sie als gleichwertig,
weil die Sortierung in den Parametern keine Rolle spielt.
Nicht für diese Funktion verwendet werden können URLs, die dieses Schema nicht aufweisen,
d. h. zur Trennung von Parametern Pluszeichen, eine Verzeichnisstruktur
oder eine eigene Codierung verwenden. Solche URL-Arten können nicht verwendet werden,
weil das Name-Wert-Schema erforderlich ist.
So weit, so gut. Nach dieser langen Einleitung wollen wir uns die Funktion nun genauer ansehen.
1. Schritt: Sie müssen Parameter angeben, die den Seiteninhalt nicht verändern.
Stellen Sie sich also die Frage, ob Sie solche Parameter verwenden: etwa eine Sitzungs-ID,
eine Partner-ID oder eine Tracking-ID. Hierdurch werden Seiteninhalte nicht verändert.
Solche IDs können Sie als nicht inhaltsverändernd kennzeichnen. Sobald Sie das getan haben, wird in Webmaster-Tools
eine repräsentative URL als Einstellung festgelegt, und der Googlebot agiert entsprechend.
Ist der 1. Schritt für alle Parameter abgeschlossen, durch die Seiteninhalte nicht verändert werden,
folgt der 2. Schritt. Er umfasst zwei Phasen: Erstens müssen Sie die Parameter angeben,
mit denen Seiteninhalte verändert werden. Sie legen also fest, dass Seiteninhalte verändert,
umsortiert oder eingegrenzt werden. Dazu geben Sie die Wirkung an,
d. h., ob hiermit sortiert, präzisiert oder eingegrenzt wird usw. Wir sehen uns das gleich genauer an.
Im nun folgenden ***2b benennen wir das bevorzugte Verhalten des Googlebot:
Wie soll er diese URLs auf der Basis angegebener Parameter crawlen?
Auch darauf gehen wir gleich genauer ein.
Der erste Parameter ist der Sortierparameter. Auch wenn ich ihn als ersten Parameter beschreibe,
ist es ein ziemlich komplexer Parameter. Ein solcher Parameter könnte etwa so aussehen:
"sort=price_ascending" oder "rankBy=bestSelling". Ein Parameter also, der die Reihenfolge ändert,
in der die Inhalte angezeigt werden. Dies sind Sortierparameter.
Wenn Sie einen oder mehrere Sortierparameter auf Ihrer Website ausmachen, müssen Sie danach angeben,
wie der Googlebot reagieren soll, wenn er URLs mit einem solchen Parameter vorfindet.
Das kann recht kompliziert werden. Dazu möchte ich zwei Szenarios beschreiben. Hier das erste:
Fragen Sie sich, ob der Sortierparameter auf Ihrer gesamten Website optional ist,
d. h. nie standardmäßig, sondern nur nach manueller Auswahl angezeigt wird.
Trifft dies zu, ist der Parameter also auf der gesamten Website optional,
dann kommen wir zur zweiten Frage: Kann der Googlebot alles Relevante auch dann finden,
wenn der Sortierparameter nicht angezeigt wird, d. h. nicht in den URLs vorhanden ist?
Können Sie beide Fragen mit "Ja" beantworten,
dann können Sie für Ihren Sortierparameter höchstwahrscheinlich "Keine URLs crawlen" angeben.
Achten Sie bei Verwendung dieser Einstellung darauf, dass die in den Webmaster-Tools gezeigten URLs
tatsächlich keine kanonischen URLs, sondern wirklich nur Duplikate sind,
und dass die zu crawlenden und zu indexierenden kanonischen URLs über die normale Navigation erreichbar sind.
Wenn die erste Empfehlung für Sortierparameter für Ihre Website nicht galt, dann tut dies
hoffentlich die zweite Empfehlung. Sie lautet:
Verwenden Sie dieselben Sortierwerte konsequent auf Ihrer gesamten Website?
Ein Negativbeispiel, bei dem diese Frage mit "Nein" beantwortet werden müsste,
läge etwa vor, wenn Sie Webmaster einer Website wären, auf der Münzen und Münzalben verkauft werden.
Für Ihre Münzen haben Sie vielleicht "sort=" mit dem Wert "year-issued" angegeben.
Allerdings gilt "sort=year-issued" nicht für den Verkauf der Alben, ist also nicht konsistent.
Wenn Sie Frage 1 mit "Ja" beantworten können, stellen Sie sich gleich die zweite Frage:
Bleibt die Gesamtzahl der Artikel unverändert, wenn ein Nutzer den Sortierwert ändert?
Falls Sie diese Frage ebenfalls bejahen, können Sie mit Ihrem Sortierparameter wahrscheinlich
"Nur URLs mit Wert x" angeben, wobei x ein auf der gesamten Website verwendeter Sortierwert ist.
Falls für Ihren Sortierparameter keine der Empfehlungen gilt,
wählen Sie "Entscheidung dem Googlebot überlassen" aus.
Der zweite hier beschriebene Parameter ist der Parameter "Eingrenzung".
Hiermit wird der Inhalt der Seite gefiltert und nur eine Teilmenge der Artikel angezeigt.
So etwas gibt es auf E-Commerce-Websites, wo der Nutzer sich beispielsweise nur Artikel
im Wert von unter 25 US-Dollar oder im Bereich zwischen 25 - 49,99 US-Dollar anzeigen lassen kann.
So wird die Gesamtzahl der Artikel eingegrenzt.
Beispiele für den Eingrenzungsparameter sind "size=M", "less_than=25" oder "color=blue".
Wenn der Eingrenzungsparameter weniger relevante Inhalte anzeigt, also etwa Inhalte,
die nur eine Teilmenge einer relevanteren URL darstellen, die den Eingrenzungsparameter nicht enthalten,
dann können Sie "Keine URLs crawlen" angeben.
Ein Beispiel für eine relevante URL ist "category=YouTube", weniger relevant wäre
"category=YouTube&size=M".
Hier stellt "size" einen eingrenzenden Parameter dar, und weil er weniger relevante Inhalte enthält,
kann "Keine URLs crawlen" angegeben werden. Zuvor aber sollten wir noch ein paar Punkte überprüfen.
Zunächst müssen Sie sicherstellen, dass der Eingrenzungsparameter
keine relevanten Inhalte filtert, die eigentlich gecrawlt werden müssen.
Marken- und Kategorieseiten, die in den Ergebnissen erscheinen sollen,
müssen auch dann gecrawlt werden, wenn "Keine URLs crawlen" ausgewählt wurde.
Zweitens müssen Sie prüfen, ob die in den Webmaster-Tools gezeigten Beispiel-URLs verglichen mit der übergeordneten URL
tatsächlich nur zu nicht relevanten Inhalten führen. Wenn also Inhalte wie "category=YouTube&size=M"
angezeigt werden, dann wissen Sie, dass "size=M" eine Eingrenzung und dieser Parameter schlicht
nicht relevant ist.
Wenn das Verhalten von "Keine URLs crawlen" bei Ihrer Website nicht optimal ist,
weil viele wichtige Marken- oder Kategorieseiten betroffen wären, dann sollten Sie den Googlebot entscheiden lassen.
Der nächste Parameter ist "Präzisierung". Hiermit ermitteln Sie den Inhalt auf einer Seite.
Beispiele sind "itemid=android-t-shirt" oder "SKU=495". Die Präzisierung ist zuständig für die tatsächlichen Inhalte.
Deswegen werden Sie wohl auch "Jede URL crawlen" auswählen.
Damit kommen wir zu "Übersetzung".
Wenn Sie nicht gerade bestimmte Sprachen – etwa automatisch generierte Übersetzungen –
vom Crawlen und aus den Suchergebnissen ausschließen möchten, wählen Sie wahrscheinlich
"Jede URL crawlen" aus.
Übrigens: Ich möchte Ihnen, auch wenn das keinesfalls zwingend ist, dringend empfehlen,
übersetzte Inhalte nicht in einem URL-Parameter, sondern in einem Unterordner abzulegen.
Der Grund hierfür ist, dass Google Ihre Website-Struktur
auf diese Weise besser verstehen kann. Das gilt für übersetzte Inhalte ebenso
wie für regionale Inhalte.
Der letzte Parameter ist die "Seitenauswahl". Hierbei wird eine Seite angezeigt,
die Teil einer Folge mehrerer Seiten ist. Beispiele sind "page=3", "viewItems=10-30" oder "start-index=20".
Bei der Seitenauswahl werden Sie fast immer "Jede URL crawlen" auswählen,
weil so alle relevanten Artikel erreicht werden können.
Glückwunsch: Wir kommen zum Ende der Beschreibung verschiedener Parameter
und des gewünschten Googlebot-Verhaltens. Rufen Sie Ihre Website jetzt wieder auf
und wiederholen Sie den Vorgang für Ihre verschiedenen Parameter.
Das ist nicht für jeden Parameter notwendig.·Mit den richtigen Parametern und dem erwünschten Googlebot-Verhalten
können Sie die Effizienz beim Crawlen aber steigern.
Das war es beinahe. Aber vielleicht fragen Sie sich gerade, wie es mit mehreren Parametern
in derselben URL aussieht. Etwa "SKU=234page=3&sortBy=price" usw.
Wie funktionieren die URL-Parameter, wenn es mehrere Parametereinstellungen gibt?
Nun, Sie dürfen nicht vergessen, dass es bei URL-Parametern um effizienteres Crawlen geht.
Stellen Sie sich also alle URLs vor, die wir für Ihre Website kennen. Beim Google Store etwa
kämen anfangs alle 380.000 URLs für das Crawlen infrage. Wir beginnen dann,
URLs auszuschließen – nicht einzuschließen. Wir nutzen unser Wissen über Ihre Website in Verbindung mit
Ihren Einstellungen in den URL-Parametern, um nach und nach irrelevante URLs auszuschließen.
Am Ende steht dann eine sehr viel kleinere Anzahl relevanter URLs.
Fazit: Wenn Sie mit dem Konzept der URL-Parameter zurechtkommen, nutzen Sie es,
damit Ihre Website effizienter gecrawlt wird. Sie können zunächst die Parameter angeben,
durch die Seiteninhalte nicht verändert werden. Das ist anfangs einfacher. Und wenn das klappt,
geben Sie Parameter an, die den Seiteninhalt verändern. Und vergessen Sie nicht:
Falls Sie nicht genau Bescheid wissen, raten Sie nicht. Lassen Sie den Googlebot entscheiden.
Dann zum Sortierungsparameter: Wenn dieser Parameter auf Ihrer Website normalerweise
nicht in einer URL vorhanden ist, dann crawlen Sie keine URLs. Wenn er für die gesamte Website vorhanden ist,
dann wählen Sie "URLs crawlen mit Wert x". Bewirkt Ihr Eingrenzungsparameter eine für die Suche
irrelevante Filterung (etwa nach Größe oder Preis), dann können Sie "Keine URLs crawlen" auswählen.
Vergewissern Sie sich aber in jedem Fall, dass keine wichtigen Seiten betroffen sind.
Bei "Präzisierung" gilt normalerweise "Jede URL crawlen", ebenso bei "Übersetzung"
und "Seitenauswahl".
Sie haben jetzt schon eine Menge über URL-Parameter erfahren. Hier noch einige
weiterführende Links, falls Sie sie brauchen. Vielen Dank und bis bald.