Respostas

2013-09-03T15:50:38-03:00
Colonialismo é a política de exercer o controle ou a autoridade sobre um território ocupado e administrado por um grupo de indivíduos com poder militar, ou por representantes do governo de um país ao qual esse território não pertencia, contra a vontade dos seus habitantes que, muitas vezes, são desapossados de parte dos seus bens (como terra arável ou de pastagem) e de eventuais direitos políticos que detinham.O termo colônia vem do latim, designando o estabelecimento de comunidades de romanos, geralmente para fins agrícolas, fora do território de Roma. Ao longo da história, a formação de colónias foi a forma como a raça humana se espalhou pelo mundoA exploração desenfreada dos recursos dos territórios ocupados — incluindo a sua população, quase totalmente aniquilada, como aconteceu nas Américas, ou transformada em escravos que espalharam pelo resto do mundo, como na África — levou a movimentos de resistência dos povos locais e, finalmente à sua independência, num processo denominado descolonização, terminando estes impérios coloniais em meados do século XX.
1 3 1
2013-09-03T15:59:04-03:00
Os séculos XV e XVI foram o período auge do colonialismo. Os europeus, principalmente portugueses e espanhóis, colonizaram o continente americano. Neste processo, o objetivo principal dos países colonizadores era a exploração de recursos naturais e minerais.

No século XIX também ocorreu um intenso processo de colonialismo. França, Inglaterra, Bélgica, Holanda e outros países europeus colonizaram várias regiões da África e da Ásia.

1 4 1