Imperio (definición general)
Históricamente, el imperio es una entidad política, económica y cultural surgida de la dominación por parte un estado central de territorios y sociedades ajenos a su espacio original y propio mediante la guerra y la conquista. En cambio, a lo largo de la Edad Moderna, y especialmente desde el siglo XIX, la principal forma de ampliar los imperios no es ya la conquista militar, sino el desarrollo asimétrico de las relaciones económicas y culturales que le impone entre los estados y los pueblos y que, en definitiva, conduce a la dominación. Puede considerarse que los Estados Unidos de América han adquiroido el status de imperior mundial a lo largo del siglo XX, aunque la Unión Soviética también logró formar durante décadas una entidad política de tipo imperial. En la actualidad, sin embargo, la hegemonía absoluta de los Estados Unidos de América como imperio mundial se está diluyendo y han entrado nuevos actores geopolíticos en la pugna imperialista, especialmente China.
Como citar: Sarasola, Josemari (2024) en ikusmira.org
"Imperio (definición general)" (en línea) Enlace al artículo
Última actualización: 18/09/2024
¿Tienes preguntas sobre este artículo?
Envíanos tu pregunta e intentaremos responderte lo antes posible.
Apoya nuestro contenido registrándote en Audible, sigue aprendiendo gratis a través de este link!