Respostas

2014-08-14T23:53:01-03:00
Os Estados Unidos passaram a ser colônia da Inglaterra! Inicialmente estes colonizaram a parte leste do país, o que corresponde ao litoral que é banhado pelo oceano Atlântico. Logo depois a parte central foi colonizada pela França e a parte sudeste e sudoeste pela Espanha. 
Os franceses se instalaram especialmente no Canadá e na região do Mississip 
e um menor numero de holandeses e suecos

Acho que é isso!