Tip:
Highlight text to annotate it
X
Hallo zusammen!
Ich bin's, Matt Cutts.
Heute möchte ich euch etwas
über das Thema Cloaking erzählen.
Viele haben dazu Fragen:
Was genau ist Cloaking?
Wie definiert Google Cloaking?
Warum ist Cloaking riskant?
Und so weiter.
Es gibt zwar ausführliche HTML-Dokumentation
und wir haben viele Blogposts darüber veröffentlicht,
aber ich möchte das Thema noch einmal kurz und prägnant in einem Video behandeln.
Dabei beantworte ich einige der Fragen und nenne euch
ein paar Faustregeln, damit ihr mit eurer Website immer
auf der sicheren Seite seid.
Zunächst also zur Frage: Was ist Cloaking?
Cloaking bedeutet im Grunde, dass den Nutzern anderer Content
gezeigt wird als dem Googlebot.
Wenn ihr zum Beispiel einen Webserver habt
und ein Nutzer will eine Seite aufrufen,
dann wird dem Nutzer
die Seite angezeigt.
Soweit alles wunderbar.
Nun kommt der Googlebot und fordert
ebenfalls eine Seite an.
Ihr stellt dem Googlebot eine Seite zur Verfügung.
In den allermeisten Fällen erhält der Googlebot
denselben Content wie die Nutzer.
Soweit passt alles.
Falls jedoch dem Googlebot anderer Content angezeigt wird
als den Nutzern, liegt Cloaking vor.
Das wäre auf jeden Fall riskant für eure
Webseite, denn es verstößt gegen unsere Qualitätsrichtlinien.
Wenn ihr einmal in Google nach "Qualitätsrichtlinien" sucht,
findet Ihr eine ganze Liste der Kriterien.
Es gibt viele Hilfedokumente, in denen Ihr genau nachlesen könnt,
ob ein Risiko für eure Webseite besteht.
Ich will kurz auf das Wichtigste eingehen.
Warum halten wir bei Google Cloaking für etwas Schlechtes,
das vermieden werden soll?
Die Antwort geht weit zurück, in die Anfangsphase der Suchmaschinen.
Damals haben viele Betreiber von Webseiten Cloaking als Mittel zur
Täuschung und Irreführung eingesetzt.
Das lief dann zum Beispiel so ab: Gegenüber dem Googlebot gab der
Webserver, der Cloaking nutzte, eine Webseite über Zeichentrickfilme zurück,
vielleicht Walt Disney-Filme oder Ähnliches.
Wenn dagegen ein Nutzer die Seite besuchte,
gab der Webserver *** oder Ähnliches zurück.
Wenn man also in Google nach Disney-Filmen suchte,
wurde man zu einer Seite geführt, die scheinbar Zeichentrickfilme beinhaltet -
wenn man auf den Link klickte, erschienen aber ***.
Das kann eine sehr unangenehme Erfahrung sein.
Viele Nutzer haben sich darüber beschwert.
Es ist alles andere als benutzerfreundlich.
Daher haben wir beschlossen, dass alle Arten von Cloaking gegen unsere
Qualitätsrichtlinien verstoßen.
Es gibt also kein "gutes" Cloaking.
Wenn jemand Cloaking in besonders irreführender oder täuschender Weise
verwendet, setzen wir uns am meisten ein.
Dann wird das Webspam-Team aktiv.
Aber jede Form von Cloaking verletzt unsere Richtlinien.
Okay.
Kommen wir als Nächstes zu einigen Faustregeln, mit denen ihr
immer auf der sicheren Seite bleibt.
Man kann sich Cloaking so vorstellen: Eine Seite wird abgerufen,
zum Beispiel mit Wget oder cURL.
Von der abgerufenen Seite wird ein Hash-Wert erzeugt.
Dabei wird der gesamte Content der Seite in einem
einzigen Zahlenwert ausgedrückt.
Nun kommt der Googlebot ins Spiel, und zwar in Form eines
Googlebot-User-Agents.
In den Webmaster-Tools gibt es sogar eine Funktion namens
"Abruf wie durch Googlebot".
Damit ruft Ihr eine Webseite wie mit dem Googlebot ab und
erzeugt davon ebenfalls einen Hash-Wert.
Falls die beiden Hash-Werte unterschiedlich sind, könnte es
ein Problem geben.
Dann besteht vielleicht ein
Risiko für Eure Webseite.
Natürlich werden manche Seiten dynamisch erzeugt.
Das betrifft zum Beispiel die Zeitstempel oder wechselnde
Werbeanzeigen. Daher gilt die Regel nicht immer wie in Stein gemeißelt.
Als weitere einfache Methode könnt ihr überprüfen, ob
der Code eures Webservers Elemente enthält, mit denen
gezielt nach einem User-Agent von Googlebot
oder nach der IP-Adresse des Googlebots
gesucht wird.
Denn wenn ihr einen besonderen oder sehr ungewöhnlichen Vorgang
bezüglich des Googlebots ausführt -
egal ob für dessen User-Agent oder dessen IP-Adresse -
könnte das bedeuten, dass ihr potenziell dem Googlebot und den Nutzern
unterschiedlichen Content präsentiert.
Und genau das soll ja vermieden werden.
Diese Punkte solltet ihr also im Hinterkopf behalten.
Viele Webmaster, die keine schlechten Absichten verfolgen,
mit Cloaking also nichts zu tun haben wollen und kein Risiko
eingehen möchten, stellen uns die Frage:
Was ist mit Geotargeting und mobilen User Agents,
also mit Handys z.B.?
Da habe ich gute Nachrichten für euch:
Darüber müsst ihr euch keine Sorgen machen.
Lasst mich kurz erklären, warum bei Geotargeting und
bei der Seitenverarbeitung für Mobiltelefone kein Cloaking vorliegt.
Okay.
Bisher waren wir von einem einzigen Nutzer ausgegangen.
Nehmen wir nun einmal an,
der Nutzer kommt aus Frankreich.
Außerdem gibt es einen zweiten Nutzer,
sagen wir aus Großbritannien.
Im Idealfall ist euer Content unter den
Domains ".fr" und ".uk" in verschiedenen Sprachen verfügbar,
da ihr die Webseiten übersetzen lassen habt.
Es ist wirklich hilfreich für einen Nutzer mit einer französischen IP-Adresse,
den Content auf Französisch angezeigt zu bekommen.
Das ist viel benutzerfreundlicher.
Beim Geotargeting wird bei jeder Anfrage an den Webserver überprüft,
aus welchem Land die zugehörige IP-Adresse stammt,
zum Beispiel aus Frankreich.
Dem Nutzer wird dann die französische Version gesendet
oder er wird zur ".fr"-Version der Domain weitergeleitet.
Wenn die Browsersprache des Nutzers dagegen Englisch ist
oder die IP-Adresse zum Beispiel aus den USA oder
Kanada stammt, dann ist die englische Version wahrscheinlich
am besten geeignet. Es sei denn natürlich, der Nutzer kommt aus dem
französischen Teil Kanadas.
Es wird also eine Entscheidung
auf der Grundlage der IP-Adresse getroffen.
Solange ihr euch nicht ein bestimmtes Land ausdenkt,
zu dem der Googlebot gehört -
etwa Googlandia oder Ähnliches -
führt ihr keine besondere oder ungewöhnliche Aktion
für den Googlebot aus.
Zurzeit, das heißt zum Zeitpunkt dieses Videodrehs,
führt der Googlebot das Crawling von den USA aus durch.
Der Googlebot würde also von eurer Webseite genau wie ein Besucher
aus den USA gehandhabt.
Der Content würde auf Englisch dargestellt.
Gewöhnlich empfehlen wir, den Googlebot genau wie einen
normalen Desktop-Browser zu behandeln - also wie Internet Explorer 7
oder einen anderen für eure Website häufig verwendeten
Desktop-Browser.
Geotargeting -
also das Ermitteln der IP-Adresse und eine entsprechend angepasste Reaktion -
ist völlig in Ordnung, solange ihr nicht speziell auf die
IP-Adresse des Googlebots reagiert,
also auf diesen sehr engen IP-Bereich.
Es geht stattdessen nur darum, abhängig von der IP-Adresse eine möglichst
hohe Benutzerfreundlichkeit zu erzielen.
Ähnlich ist es, wenn jemand eure Webseite
über ein Mobiltelefon abruft,
zum Beispiel mit einem
iPhone oder Android-Gerät.
Dann stellt eure Webseite fest, dass es sich um einen ganz anderen
User Agent handelt.
Er besitzt ganz andere Funktionen.
Es ist völlig in Ordnung, auf diesen User Agent zu reagieren und
ihm eine kompaktere Version eurer Website zu liefern,
die für den kleinen Bildschirm besser geeignet ist.
Auch hier gilt: Das Entscheidende ist, ob ihr den Googlebot wie einen
Desktop-Nutzer behandelt, das heißt es erfolgt keine
besondere oder ungewöhnliche Reaktion speziell auf diesen User Agent.
Dann ist alles okay mit eurer Website.
Es wird also entsprechend den Funktionen des Mobiltelefons
eine angepasste Seite zurückgegeben,
aber ihr versucht nicht, den Googlebot oder den Nutzer zu täuschen
oder irrezuführen.
Ihr behandelt den Googlebot nicht irgendwie anders aufgrund
dessen User Agents.
Dann ist alles in Ordnung.
Eine letzte Sache möchte ich noch erwähnen - quasi für die
"Power User" unter euch:
Einige Webmaster treffen die Entscheidung nicht anhand der genauen
User Agent-Zeichenfolge oder anhand des genauen IP-Adressbereichs des
Googlebots, sondern zum Beispiel,
indem sie die Cookies überprüfen.
Wenn ein Nutzer nicht auf Cookies reagiert oder mit
JavaScript anders umgeht,
behandeln sie dies als Sonderfall.
Die Nagelprobe lautet auch hier: Verwendet ihr das als
Ausflucht, um den Googlebot
anders zu behandeln, also ihn auszusondern
und dann eine ganz andere Aktion auszulösen?
In all diesen Fällen ist die grundlegende Frage also:
Behandelt ihr die Nutzer genauso wie den Googlebot?
Unser Ziel ist es, eure Webseite im Wesentlichen so zu erfassen und wiederzugeben,
wie sie die Nutzer sehen.
Wir möchten, dass die Endnutzer dasselbe Ergebnis erhalten,
egal ob sie auf ein Google-Ergebnis klicken oder
die eigentliche Webseite aufrufen.
Daher gilt: Der Googlebot darf nicht anders behandelt werden.
Cloaking bedeutet eine schlechte Erfahrung für Nutzer und verstößt gegen
unsere Qualitätsrichtlinien.
Diese Sache ist uns wichtig.
Es gibt kein "gutes" Cloaking.
Wir möchten wirklich sichergehen, dass die Nutzer eine Webseite so sehen,
wie sie der Googlebot gesehen hat.
Okay. Ich hoffe, das war hilfreich für euch.
Ich hoffe, es ist etwas klarer geworden, was Cloaking ist, und ich konnte euch
einige Faustregeln vermitteln.
Im Grunde solltet ihr aus diesem Video einfach die Frage mitnehmen:
Enthält meine Webseite besonderen Code, der
spezifisch nach dem User Agent "Googlebot" oder nach der IP-Adresse
des Googlebots sucht und diesen irgendwie anders behandelt?
Wenn ihr den Googlebot genau wie alle anderen Nutzer behandelt,
also eine Version der Webseite sendet, die an den Standort oder
mobile User Agents angepasst ist,
ist das in Ordnung.
Nur wenn ihr speziell nach dem Googlebot Ausschau haltet und
dann etwas anderes ausführt als sonst,
geht ihr für eure Webseite ein Risiko ein.
Weitere Dokumentationen dazu findet ihr auf unserer Website.
Wahrscheinlich enthalten auch die Metadaten dieses Videos
entsprechende Links.
Ich hoffe, es ist etwas klarer geworden, was wir über Cloaking denken,
warum wir es ernst nehmen
und wie wir bei unserer Entscheidung darüber, wann Cloaking vorliegt,
die Auswirkungen in ihrer Gesamtheit berücksichtigen.
Das Entscheidende ist für uns letztlich die Benutzerfreundlichkeit.
Wenn euer Code also irgendetwas enthält,
das den Googlebot deutlich anders behandelt als die Nutzer,
dann wird das wahrscheinlich
Probleme aufwerfen.
Ich hoffe, das hilft euch weiter.