ZerosquareLe 06/02/2009 à 18:58
Mouais, de bonnes choses, mais aussi des âneries.
Le concept de décentralisation d'Internet, c'est/c'était la décentralisation du routage (faire que l'information passe même si une grande partie de l'infrastructure réseau est inopérante), pas des serveurs. Depuis le début du Web, les serveurs ont toujours été massivement centralisés, que ce soit chez des hébergeurs, chez des universités ou chez des enterprises. C'est bien beau de dire que chacun devrait pouvoir diffuser ses propres données depuis chez lui, mais c'est pas réaliste : faut des infrastructures adaptées (et le choix ADSL à la place de SDSL n'a pas été une "simple décision", ça n'aurait eu aucun sens de dépenser du fric pour implémenter de la bande passante que quasiment personne n'aurait utilisé) ; faut que le serveur soit dimensionné en conséquence (regardez l'effet d'un slashdotting, même sur un site hébergé professionnellement) ; faut quelqu'un pour faire la maintenance en permance, gérer la sécurité, ... (les sites persos avec du PHP se font déjà pirater, imaginez ce qu'il se passerait si en plus ils étaient hébergés chez leur auteur.)
Le concept de verrouillage est aussi très relatif : tous les système de protections ont été crackés en relativement peu de temps ; les infos et les données font tâche d'huile très rapidement sur Internet ; et à chaque fois que quelqu'un a essayé de censurer quelque chose, y'a tout plein de sites miroirs/torrents/etc. qui sont apparus dans les quelques heures qui suivent. Il y a maintenant toute une génération qui a grandi avec le concept de l'information qu'on recopie sans vergogne et sans limite, ça va être difficile de faire faire machine arrière aux gens.
Et les tentatives de filtrage d'Internet en France... ben je leur souhaite bien du courage. Ils n'auront jamais de moyens à la hauteur pour faire un filtrage efficace, et même s'il y arrivaient, ça ne ferait que précipiter la création de mesure de contournement.