5Fermer7
Yoshi NoirLe 27/01/2006 à 09:56
Oui, on le sait, des fois on a eu un comportement paternaliste, mais le colonialisme c'était surtout pour asseoir sa domination dasns une région du globe toussa

Sinon, le rôle "positif" de la colonisation française... Bah ça va paraître con, mais je pense que la France a apporté l'éducation suffisante pour leur faire prendre conscience de leur pays (Bah ué en cultivant les mecs, on les fait lire des textes genre charte de l'onu, droit des peuples à disposer d'eux-mêmes toussa) (ça reste que mon avis hein)