La maison blanche cache-t-elle des choses aux internautes?

Depuis quelques semaines de nombreux sites Internet outre-atlantique se sont fait l'écho d'une histoire assez étrange. Un internaute a découvert sur le site de la maison blanche - http://www.whitehouse.gov/robots.txt  - des éléments troublant dans le fichier robots.txt, ce dernier permettant d'interdire l'indexation de certaines pages par les moteurs de recherche comme Google.

En effet dans ce fichier figurent de nombreuses adresses de pages contenant le mot 'iraq':

# robots.txt for http://www.whitehouse.gov/

User-agent: *
Disallow: /cgi-bin
Disallow: /search
Disallow: /query.html
Disallow: /help
Disallow: /360pics/iraq
Disallow: /360pics/text
Disallow: /911/911day/iraq
Disallow: /911/911day/text
Disallow: /911/heroes/iraq
Disallow: /911/heroes/text
Disallow: /911/iraq
Disallow: /911/patriotism/iraq
Disallow: /911/patriotism/text
Disallow: /911/patriotism2/iraq
Disallow: /911/patriotism2/text
Disallow: /911/progress/iraq
Disallow: /911/progress/text

La maison blanche ne voudrait-elle donc pas que les moteurs de recherche indexent les contenus publiés se rapportant à l'Irak? Pas si sûr. En effet la grande majorité de ces adresses n'existent tout simplement pas et mènent à une page d'erreur. L'explication la plus plausible est donc une simple erreur de manipulation du webmaster qui en utilisant la fonction 'remplacer' de son éditeur de texte aurait remplacé une partie des adresses par le mot 'iraq'.

En tout cas ce dernier contacté par plusieurs medias en ligne n'a pas souhaité répondre. Et alors même que cette histoire a fait la une de sites très populaires comme slashdot - http://yro.slashdot.org/article.pl?sid=03/10/27/2052228&mode=thread&tid=103&tid=126&tid=95&tid=99 - , l'erreur n'a toujours pas été corrigée à ce jour.