Respostas

2014-02-16T09:56:41-03:00
Brasil, América central foram umas das principais conquistas, o colonizadores acreditavam ser um terra que Deus os deu, desta forma todo território foi explorado e modificado por Portugal e Espanha que estabeleci o tratado de Tordesilhas, Que mais tarde seria desfeito, nesse caso as principal consequência foi a intervenção do homem civilizado em lugares não civilizados que ocasionou a escravidão dos índios trouxe doenças e um dos objetivos da igreja catequiza-los pelo fato dos mesmo serem pagoes e acreditarem nos deuses da natureza
1 4 1