Respostas

2013-09-30T17:55:14-03:00
A Alemanha quando Hitler assumiu o poder era, em sua totalidade, nazista.
Hitler conseguiu consquistar o povo alemão com os seus grandes discursos. Após o poder, ele conseguiu melhorar a economia alemã. Quebrando o tratado de Versalhes, ele começou a investir na industria bélica e aumentar o exército alemão.
O país também viveu uma época de grande terror para quem não era de raça ariana.
Os judeus foram os mais prejudicados. Eles foram presos em campos de concentração e exterminados. A teoria mais crível é de que Hitler odiava eles por tererm sidos os únicos da população alemã que mantiveram suas riquezas após a 1° Guerra Mundial.