Respostas

2013-04-11T20:10:42-03:00

A palavra GEOGRAFIA vem do grego GEOGRAPHÍA, que significa "descrição da Terra".

É a ciência que estuda a relação entre a Terra e seus habitantes.

2013-04-11T20:10:49-03:00

A Geografia é a ciência que estuda o planeta Terra. Descreve as paisagens que resultaram da relação entre o homem e o natureza. Desde a mais alta antiguidade o homem se preocupava com o conhecimento do espaço em que vivia. Às vezes esse conhecimento era uma resposta desejada pela curiosidade. Outras vezes tais conhecimentos tinham objetivos econômicos ou políticos. O modo como é tratado sistematicamente o conhecimento da Terra é o objetivo específico da Geografia. A Geografia é uma disciplina que nasceu na própria origem humana. Mas só se tornou uma ciência somente depois que a civilização grega floresceu.