IMPERIALIMO EN AMERICA
En America no se realizo en si un proceso de Imperialismo ya que gran parte de este continente no estaba descubierto, el unico pais Imperializado fue estados unidos quien conquisto e imperializo territorio de Asia, Oceania, Africa y Europa.
en realidad el lo que se vio en America fue el Imperio Yankee lo cual nose incluye en esta tematica.
No hay comentarios:
Publicar un comentario