Respostas

2014-07-05T20:28:54-03:00
Sim, o Brasil é um país capitalista, como quase todos os países do mundo.
2014-07-05T20:30:44-03:00
Sim  nossa nação é capitalista, desigual e de esquerda, assim o que importa é o dinheiro para os governantes muitas vezes e não o bem comum e a igualdade para a massa popular.