whitehouse.gov/robots.txt
È di ieri la notizia che il sito della Casa Bianca
impedirebbe, tramite l’uso del file robots.txt, l’indicizzazione sui motori di ricerca di molti contenuti riguardanti l’Iraq.
Andando a sbirciare un po’ nel file incriminato e verificando le URL escluse dall’indicizzazione, mi sono accorto che questi contenuti
sul sito della Casa Bianca non ci sono più. Sono tutti Error 404, File Not found. Non capisco, il webmaster vuole impedire l’indicizzazione dei contenuti perchè si tratta di materiale obsoleto rimosso dal sito? Perchè questo materiale sarebbe obsoleto? Mah? Mi pare strano che si tratti di un atto di censura, sarebbe davvero ridicolo, eppure…
Se questi signori credono che basti rimuovere i contenuti dal sito e un file robots.txt a impedire agli utenti di Internet di rendersi conto delle cazzate che hanno fatto e che continuano a fare, sono ben degni compagni di merende dei nostri governanti.
Spero solo che… ma cosa vuoi sperare?