Tip:
Highlight text to annotate it
X
Hallo, allemaal.
Mijn naam is Matt Cutts.
En vandaag wil ik het met u hebben
over cloaking.
We krijgen hierover veel vragen, zoals:
Wat is cloaking precies?
Hoe wordt het gedefinieerd door Google?
Waarom kan het schadelijk zijn?
Enzovoorts.
Hierover is veel HTML-documentatie beschikbaar,
en we hebben ook blogberichten geplaatst.
Maar ik wilde graag de ultieme video over cloaking maken,
waarin ik de genoemde vragen beantwoord
en een paar vuistregels geef waarmee u
de risico's kunt vermijden.
Dus ten eerste: wat is cloaking?
Cloaking is in feite andere inhoud laten zien
aan gebruikers dan aan Googlebot.
Stel dat u hier een webserver heeft.
Een gebruiker vraagt om een pagina.
Dus hier is uw gebruiker.
U laat hem een pagina zien.
Iedereen is tevreden.
En nu komt Googlebot ook vragen
om een pagina.
U laat ook Googlebot een pagina zien.
Nu wordt in de meeste gevallen dezelfde inhoud
aan Googlebot en aan gebruikers getoond.
Iedereen is tevreden.
Maar bij cloaking laat u andere inhoud aan gebruikers zien
dan aan Googlebot.
En dat is zeker risicovol,
en een schending van onze kwaliteitsrichtlijnen.
Als u zoekt naar kwaliteitsrichtlijnen op Google, vindt u
een overzicht van alles:
veel extra informatie
om te bepalen of u risico loopt.
Maar laten we dit verder bespreken.
Waarom zijn we tegen cloaking, of waarom is Google
tegen cloaking?
Voor het antwoord moeten we terug naar de begindagen van zoekmachines,
toen veel mensen oneerlijke
of misleidende dingen deden met cloaking.
Wanneer Googlebot bijvoorbeeld kwam, kon de webserver
met cloaking een pagina retourneren over tekenfilms,
van Disney bijvoorbeeld.
Terwijl een gebruiker die dezelfde pagina bezocht
een pornopagina te zien kreeg.
Als u dus op Google zocht naar tekenfilms van Disney,
dan vond u op het oog een pagina met tekenfilms,
maar klikte u op de pagina dan kreeg u *** te zien.
Dat is niet bepaald een goede gebruikservaring.
Mensen klagen erover.
Het is een bijzonder vervelende ervaring voor gebruikers.
Daarom zijn alle vormen van cloaking in strijd zijn met onze kwaliteitsrichtlijnen.
Er is dus geen acceptabele vorm van cloaking.
Wanneer iemand iets doet dat erg oneerlijk
of misleidend is, ondernemen we actie,
en schakelen we het webspamteam in.
Maar elke vorm van cloaking is in strijd met onze richtlijnen.
Dus welke vuistregels kan ik geven
om u uit de problemen te houden?
Cloaking kunt u beschouwen
als het ophalen van een pagina met Wget of cURL.
U haalt de pagina op en maakt een hash van die pagina.
Dus u neemt alle content en vat deze
kort samen tot één getal.
En dan doet u alsof u Googlebot bent, met een bijbehorende
user-agent.
We hebben zelfs de functie 'Fetchen als Googlebot'
in de Webmasterhulpprogramma's.
Dus u haalt een pagina op als Googlebot en u hasht die
pagina ook.
En als die getallen verschillen, kan dat
enigszins lastig zijn.
Dat kan een situatie zijn
met hoog risico.
Pagina's kunnen dynamisch zijn.
U kunt dingen als tijdstempels hebben, de advertenties kunnen veranderen,
dus dit is geen vaste regel.
U moet ook rekening houden met het volgende:
als u de code van uw webserver zou bekijken, zou u dan
iets vinden dat doelbewust controleert op een user-agent
van Googlebot of het IP-adres
van Googlebot?
Want als u iets heel anders
of iets speciaals of ongebruikelijks doet voor Googlebot,
de user-agent of het IP-adres,
bestaat de kans dat u misschien andere content
aan Googlebot laat zien dan aan gebruikers.
En die dingen vormen een hoog risico.
Dus houd dat in gedachten.
Een vraag die we krijgen van mensen
die niet oneerlijk zijn en niet betrokken willen zijn bij cloaking
en die dat willen vermijden, is:
hoe zit het met geolocatie en mobiele user-agents,
telefoons en dergelijke?
Kort gezegd is het goede nieuws
dat u zich daar niet echt zorgen over hoeft te maken.
Laten we het even hebben over waarom geolocatie en het verwerken
van mobiele telefoons geen cloaking is.
Goed.
Tot nu toe hebben het over één gebruiker gehad.
Laten we zeggen dat deze gebruiker
uit Frankrijk komt.
Stel dat we ook nog een andere gebruiker hebben,
bijvoorbeeld uit het Verenigd Koninkrijk.
In een ideale wereld is uw content beschikbaar
op een .fr-domein of .uk-domein of in verschillende talen,
omdat u de moeite heeft genomen om uw content te vertalen.
Dan is het veel handiger als iemand met een Frans IP-adres
de inhoud in het Frans te zien krijgt.
Zo'n gebruiker heeft daar veel meer aan.
Wat geolocatie doet, is wanneer er een verzoek binnenkomt
bij de webserver, u het IP-adres bekijkt en zegt:
"Dit is een Frans IP-adres.
Ik ga deze persoon de Franstalige versie tonen
of ik stuur hem door naar de .fr-versie van mijn domein."
Als iemand uw site bezoekt en zijn browsertaal is Engels,
of het IP-adres komt uit Amerika of Canada,
dan zegt u: "Engels is
waarschijnlijk de beste keuze" tenzij die persoon
uit het Franstalige gedeelte van Canada komt, natuurlijk.
Wat u doet, is deze beslissing nemen
op basis van het IP-adres.
En zolang u niet een speciaal land maakt
met Googlebot als inwoner,
Googlandia of zo iets,
doet u niets speciaals of anders
voor Googlebot.
Op het moment dat we deze video maken,
crawlt Googlebot vanuit de Verenigde Staten.
U zou Googlebot dus net zo moeten behandelen als een bezoeker
uit de Verenigde Staten.
U zou uw inhoud weergeven in het Engels.
We raden u meestal aan Googlebot net zo te behandelen
als een gewone desktopbrowser, dus Internet Explorer 7
of een andere veelgebruikte desktopbrowser
voor uw site.
Dus geolocatie,
het IP-adres bekijken en daarop reageren,
is gewoon toegestaan, als u maar niet
specifiek op het IP-adres van Googlebot reageert, alleen
dat kleine bereik.
In plaats daarvan kijkt u wat de beste gebruikerservaring is
op basis van het IP-adres.
Op dezelfde manier, als iemand binnenkomt,
stel dat die persoon binnenkomt
via een mobiele telefoon,
dus hij opent de site via een iPhone of een Android-telefoon.
En u ziet dat dit een volledig andere
user-agent is.
Deze heeft volledig andere mogelijkheden.
Het is prima om op die user-agent te reageren
en een kleinere versie van de website weer te geven
of iets dat beter op een klein scherm past.
Ook hier geldt dat als u Googlebeot behandelt
als een desktopgebruiker, dus als u voor die user-agent
niet iets speciaals of anders heeft ingesteld,
alles gewoon in orde is.
Als u naar de mogelijkheden van de mobiele telefoon kijkt,
geeft u een correct aangepaste pagina weer,
maar probeert u niet iets oneerlijks of misleidends
te doen.
U behandelt Googlebot niet echt anders, op basis
van de user-agent.
En dat is prima.
Het laatste dat ik wil noemen,
meer voor gevorderde gebruikers,
is dat sommige mensen geen onderscheid maken
op basis van de exacte user-agent-string of het IP-adresbereik
voor Googlebot, maar dat ze misschien wel
controleren op cookies.
En als iemand niet reageert op cookies of als ze
JavaScript niet op dezelfde manier behandelen, worden ze apart gezet
en op een andere manier behandeld.
De lakmoesproef is: gebruikt u dit eigenlijk als excuus
om een manier te vinden om Googlebot anders te behandelen
om Googlebot te segmenteren
en er iets volledig anders mee te doen?
Het principe achter cloaking is: behandelt u gebruikers
op dezelfde manier als u Googlebot behandelt?
We willen ongeveer dezelfde pagina evalueren en retourneren
als de gebruiker te zien krijgt.
We willen dat de ervaring van eindgebruikers wanneer ze op een Google-resultaat klikken
hetzelfde is als wanneer ze de pagina
zelf hadden bezocht.
Dat is de reden waarom u Googlebot niet op een andere manier moet behandelen.
Dat is waarom cloaking een slechte ervaring oplevert, waarom het een schending is
van onze kwaliteitsrichtlijnen.
En dat is de reden waarom we erop letten.
Er is geen nette of correcte vorm van cloaking.
We willen er echt voor zorgen dat de pagina die de gebruiker ziet,
dezelfde pagina is die Googlebot zag.
Ik hoop dat dit duidelijkheid schept,
en wat meer inzicht in cloaking geeft,
enkele vuistregels voor het gebruik.
Als u niets anders onthoudt van deze video,
moet u zich afvragen: heb ik speciale code die zoekt
naar de user-agent van Googlebot of het specfieke IP-adres
van Googlebot en behandel ik die anders?
Als u Googlebot behandelt zoals u iedereen behandelt,
u baseert zich op geolocatie, u kijkt
naar de user-agent voor telefoons,
dan bent u prima bezig.
Het is alleen als u specifiek naar Googlebot zoekt
en daar iets anders voor doet,
dat u risico loopt.
Op onze website is meer documentatie beschikbaar.
Er staan waarschijnlijk links
in de metadata van deze video.
Ik hoop dat ik hiermee een beetje heb uitgelegd
waarom we zo denken over cloaking, waarom we het serieus nemen
en hoe we naar het totale effect kijken wanneer we proberen te beoordelen
of iets cloaking is.
We kijken uiteindelijk naar het effect op de eindgebruiker.
Dus ongeacht wat uw code is, als er iets wordt weergegeven
dat wezenlijk anders is voor Googlebot dan voor gebruikers,
dan is dat waarschijnlijk iets waar we ons
zorgen over maken.
Ik hoop dat deze video nuttig was.