J aimerai savoir si la France colonise encore des pays ? Pour moi je pensais que c était fini ou presque mais certaines personnes disent que des Français continuent encore a le faire
J attends vos témoignages dans la bonne entente bien-sûr
Est ce que la France colonise encore des pays ?
Bonjour @Anna011
Qu'entends-tu par colonisation d'autres pays ?
Définir ce qu'il y-a derrière ce terme me paraît important.
En effet, si on parle de colonisation territoriale, bien sur que non.
Si on parle de "colonisation" économique, pourquoi pas mais il va falloir pas mal étoffer.
Donc peux-tu préciser ton propos s'il te plaît ?
Est ce que la France colonise encore des pays ?
Ça me fait penser à ce clip (vidéo sur facebook, à partir de 20s)... Le mot à ne pas prononcer...
Est ce que la France colonise encore des pays ?
Il n'y a plus de colonies en tant que telles, mais des Territoires d'Outre-Mer.
Il y a plus ou moins selon les lieux des vélléités d'indépendance, le territoire le plus agité sur ce point dernièrement étant la Nouvelle Calédonie.
Ailleurs, on entend rarement parler d'indépendantistes, probablement et heureusement parce qu'il n'y a pas de terrorisme associé.