Respostas

2014-06-23T10:47:55-03:00
A primeira Copa que o Brasil ganhou foi em 1958 na Suécia.
2014-06-23T11:20:07-03:00
O Brasil ergueu a sua primeira copa do mundo (acho que é disso que você está falando) em 1958, na Suécia.

;)