769 vistos
Colonialismo
Se refiere a cuando un grupo de políticos o militares de un país, vienen a otras tierras y la colonializan con el propósito de imponerse económicamente, cambiar su cultura y religión.
Deja una respuesta