Respostas

2014-08-18T13:03:47-03:00
O fato do Brasil ser chamado de pais tropical não tem aver com seu clima e sim porque grande parte do país se encontra entre os tópicos de câncer e de capricórnio.
17 4 17