| Si
vous souhaitez que certaines de vos pages ne soient pas indexées
:
Vous devez créer un fichier robots.txt, et le placer
à la racine de votre site. Ce fichier va donner des indications
aux moteurs sur ce qu'ils peuvent faire ou ne pas faire. Dès
que le spider d'un moteur arrive sur un site (par exemple, http://www.monsite.net/),
il recherche le robots.txt à l'adresse http://www.monsite.net/robots.txt,
et s'il le trouve, il suit les indications qui y sont inscrites.
Si ce fichier n'existe pas, il explore tout le site.
Le nom du fichier (robots.txt) doit toujours être écrit
en minuscules. Il est composé ainsi :
User-agent: *
Disallow: /images/
Disallow: /articles/
Disallow: /perso/fiche.html
Explications :
L'étoile (*) signifie que la commande est valable pour
tous les moteurs.
User-agent: * signifie que l'accès est accordé
à tous les moteurs.
mais qu'ils ne peuvent explorer les répertoires
/images/
/articles/
ni le fichier
/perso/fiche.html. |