Yoshi NoirLe 27/01/2006 à 09:56
Oui, on le sait, des fois on a eu un comportement paternaliste, mais le colonialisme c'était surtout pour asseoir sa domination dasns une région du globe toussa
Sinon, le rôle "positif" de la colonisation française... Bah ça va paraître con, mais je pense que la France a apporté l'éducation suffisante pour leur faire prendre conscience de leur pays (Bah ué en cultivant les mecs, on les fait lire des textes genre charte de l'onu, droit des peuples à disposer d'eux-mêmes toussa) (ça reste que mon avis hein)