lunes, 4 de noviembre de 2013

Documental: Alemania después de la 1 guerra mundial

A partir de la derrota de Alemania las consecuencias inmediatas se muestran las relaciones europeas después del final de la 1 Guerra Mundial. Especial relevancia toma el Tratado de Versalles y sus repercusiones en las relaciones entre Francia y Alemania, además del ascenso de Adolfo Hitler con el Nazismo hasta su decadencia.


Hacer pagar a Alemania




La Alemania de Hitler


El camino a Berlín



No hay comentarios:

Publicar un comentario