El Imperialismo

martes, 22 de diciembre de 2015



El término imperialismo hace referencia a la  actitud, doctrina o acción que conduce al dominio de un estado sobre otro u otros mediante el empleo de la fuerza militar, económica o política.
Durante el último tercio del siglo XIX las potencias europeas y algunas extraeuropeas (USA y más tarde Japón) desarrollaron una política de expansión colonial acelerada que ya venía gestándose desde comienzos del siglo. Esta nueva fase del colonialismo, que recibe la denominación de imperialismo, tendía a la formación de grandes imperios y constituyó una constante fuente de conflictos que desembocaron en la primera guerra mundial.


0 comentarios:

Publicar un comentario

Datos personales

Con la tecnología de Blogger.