Respostas

2014-04-15T11:09:24-03:00
Bom, Não é a Importância do futebol em si e sim dos esportes. Pois ajudam na auto estima e a ser sociável( Não tem vergonha de fazer amigos ou coisas assim) Espero que tenha ajudado :)
2014-04-15T18:46:44-03:00
Especialmente no Brasil, o futebol  tem uma importância notável. Culturalmente e tradicionalmente é o esporte predileto de crianças e adultos, chegando, muitas vezes a ser chamado de “febre nacional”. Desde muito cedo as crianças começam a praticar o esporte apenas por diversão,e tambem para melhorar a saúde além de muitas pessoas têm levado a carreira a sério e investido no esporte. Os maiores jogadores de futebol do mundo são brasileiros, desde os mais antigos até os mais atuais. Espero ter Ajudado e sido a melhor resposta!!!!