Respostas

2014-03-16T01:22:28-03:00
O positivismo foi um movimento ocorrido na Europa, e difundido pelo mundo mais tarde, que pregava o darwinismo social, ou seja, a ideia de que alguns povos são mais evoluídos que outros, e por isso os que estão no maior nível de desenvolvimento devem levar seus conhecimentos civilizados aos "bárbaros" atrasados.
1 3 1