miércoles, 24 de agosto de 2011

Imperialismo en America

IMPERIALIMO EN AMERICA

En America no se realizo en si un proceso de Imperialismo ya que  gran parte de este continente no estaba descubierto, el unico pais Imperializado fue estados unidos quien conquisto e imperializo territorio de Asia, Oceania, Africa y Europa.
en realidad el lo que se vio en America fue el Imperio Yankee lo cual nose incluye en esta tematica.




No hay comentarios:

Publicar un comentario