Respostas

2014-03-13T20:07:34-03:00
Sim, o Brasil é denominado país tropical porque grande parte do país encontra-se entre os trópicos (de câncer e de capricórnio), fazendo com que predomine o clima tropical. 

A região sul é exceção, pois é mais fria que as demais regiões. Espero ter ajudado !
2 3 2
2014-03-13T20:15:10-03:00
O Brasil é predominantemente tropical tem belezas naturais que não se esgotam
2 3 2