|
|
||
|
|
Naturalmente si può usare questo sistema anche per inviare dati a chi sa dove cercare. Occorre caricare sullo spazio destinato al sito stesso un particolare file di testo che si chiamerà robots.
Un file robots.txt consiste di queste due regole:
User-agent: *Nel primo caso si dice di bloccare a tutti i bot, nel secondo soltanto a Googlebot, ossia allo spider che usa Google per trovare le pagine sulla rete. L'utilità del file robots, (da caricare sullo spazio web, nella cartella principale del sito, dove c'è anche il file index, per capirci), consiste nel nascondere non soltanto una certa cartella dentro la quale qualcuno potrebbe curiosare, (e ci può riuscire se sa che cosa potrebbe contenere e provando a indovinare i relativi nomi dei file), ma proprio per inserire una seconda altra cartella dentro la prima che, naturalmente, non apparirà nemmeno nella visualizzazione del solo file robots. Difatti ognuno potrebbe, in rete, digitare il nome del file robots facendolo precedere dall'indirizzo del dato sito. Ma vedrebbe soltanto ciò che abbiamo indicato come codice, le due righe, per esempio, e a nulla varrebbe cercare di introdursi nella cartella indicata se in essa, come abbiamo detto, ce ne fossero di altre che non appaiono nel proprio nome. Questo metodo nasconde definitivamente ogni cartella compresa in quella che abbiamo indicato nel file robots, ossia cartella_da_bloccare (o come la chiameremo, nel caso). Cioè, se carichiamo nel sito una cartella dentro un'altra che abbiamo disabilitato ai motori di ricerca, sappiamo con certezza che i dati di questa seconda cartella non saranno visti da nessuno. Sempre che si scelga un nome non facile da individuare: basta chiamarla wx67h91 o qualcosa di simile. Torna all'indice della sezione di web e pc per visualizzare altre importanti pagine relative alla tua ricerca. |
|