Respostas

2013-08-18T21:55:17-03:00
Na verdade o Brasil foi colonizado puramente pelos produtos naturais que tinha,nunca foi intenção dos colonizadores ficar com o pais para formar uma sociedade de progresso. Não importava nada aqui alem das "estradas" que iam do interior até o litoral,(onde teriam seus ou melhor os nossos produtos embarcados para a Europa) E com isso o povo em geral foi vendo que o Brasil estava sendo devastado, enriquecendo a Europa e o povo aqui nunca teria uma vida descente.
Então, uma das principais razões foi o descaso em formar uma colonia com interesse visando o progresso local.