
El imperialismo es la doctrina política que soporta la dominación de un Estado o comunidades sobre otros. Se ha dado a lo largo de toda la historia y actualmente suele referirse a la actitud de algunas potencias, principalmente europeas, desde la Edad Moderna hasta el proceso de descolonización tras la Segunda Guerra Mundial; y más específicamente, incluso con el nombre Era del Imperialismo, utilizado por la historiografía, al periodo que va de 1871 a 1919, en que se produjo una verdadera carrera para construir imperios, principalmente con el llamado reparto de África.
No hay comentarios:
Publicar un comentario