Respostas

2013-09-11T19:08:09-03:00
Com o fim do dominio de portugal o Brasil conquistou sua autonomia... E com isso a inglaterra começou a comercializar com o brasil já que não tinha mais o Pacto Colonial o Brasil começou a vender materia prima pra Inglaterra e em troca eles vendiam seus produtos =)
2 4 2