Google Webmaster Central: Det er slut med at blokere CSS og javascripts

 

 

Googles retningslinjer er blevet opdateret og det betyder højst sandsynligt, at du bør opdatere din robots.txt fil.

Webmaster Tools fraråder nemlig at du blokere CSS og javascripts i robots.txt, da Googles robotter ikke længere ser nettet som rent tekstbaseret, men også tager ”oplevelsen af siden” med i deres betragtninger. Mange CMS systemer (Også Joomla!), de blokerer ofte mapper som indeholder javascripts og CSS filer.

 

Robots.txt – hvad er det for noget?

Robots.txt er en simpel tekstfil som ligger i roden af domænet, altså domæne.dk/robots.txt. Filen bruges til at fortælle ”robotter” som eksempelvis Googles søgerobotter, hvad de må og ikke må kigge på.

Et eksempel på en robots.txt fil:

User-agent: *

Disallow: /administrator/

Disallow: /cache/

Disallow: /components/

I eksemplet, der fortæller robots.txt at alle robotter ikke må kigge i de 3 overstående mapper (Og dermed ikke indeksere dem i Googles tilfælde).

 

Hvordan opdaterer jeg robots.txt?

Først og fremmest, så bør du teste om du har en robots.txt på din side. Det er bare at skrive dit domæne.dk/robots.txt – Hvis der ikke loades en tekstfil, så har du ikke nogen.

Men langt de fleste har en robots.txt fil i roden af deres domæne, da de bliver installeret automatisk ved langt de fleste CMS systemer.

Det næste du bør gøre, det er at tjekke din side i Webmaster Tools. Hvis du ikke har dine side tilknyttet Webmaster Tools, så kan det kun gå for langsomt. Det er et genialt værktøj til at holde styr på driften af din side og opdage fejl og andre problemstillinger.

Du kan oprette en konto her: https://www.google.com/webmasters/tools/

I Webmaster Tools der kan du via menuen ”Gennemgang -> Googlebot-simulator” teste om du blokerer nogle filer.

Det kan være en god idé både at teste forsiden, men også lidt undersider, da der kan være forskellige CSS/JS filer som loades afhængigt af hvor på siden man er.

Google fortæller dig, hvis du har filer som er blokeret.

Eksempel:

blokeret

Hvis du har filer som bliver blokeret af robots.txt, så er det bare at loade sin ynglings FTP klient, f.eks. Filezilla. Hent robots.txt ned og rediger den og upload filen igen. Så er problemet ude af verden.

Du kan enten vælge at slette de disallow som blokerer vigtige filer, eller du kan angive en ”Allow”, hvis du gerne vil blokere enkelte mapper, men samtidigt gerne vil have åbnet op for undermapper. 

Eksempel:

Disallow: /components/

Allow: /components/js/assets/images/

Allow: /images/

Disallow: /includes/

Disallow: /installation/

Disallow: /plugins/

Disallow: /templates/

Allow: /templates/css/

Det kan dog stadig være fornuftigt at blokere mapper som indeholder følsomme data, f.eks. administrationsdelen.

 

Hvad hvis jeg ikke gør?

Så sker der nok ikke det store (endnu). Det er en relativ stor ændring og Google går nok ikke ud og straffer hjemmesider fra dag 1. Men det vil helst sikkert være dumt ikke at være forberedt bedst muligt og da det er ændringer som tager 5-10 minutter at opsætte, så kan man lige så godt få det gjort.

Du kan læse mere omkring opdateringen på Webmaster Central: http://googlewebmastercentral.blogspot.dk/2014/10/updating-our-technical-webmaster.html

Jesper Sølund Hansen
SEO / SEM

Er du interesseret i at vide mere?


Tlf. 60 254 009
jesper@redweb.dk

Google+

Bliv kontaktet

Indtast dine kontaktinformationer herunder, så kontakter vi dig.

Telefon
Mail

Udbyg din online viden