La historia

Diccionario de historia


Tratado de Versalles

El Tratado de Versalles fue un tratado de paz firmado, luego de la Conferencia de Paz, entre Alemania y los Países Aliados al final de la Primera Guerra Mundial (junio de 1919) donde se definieron los términos de la rendición alemana, a saber, la restitución de regiones de Alsacia y Lorena a Francia, la pérdida de todas las colonias en el extranjero, las grandes indemnizaciones pagadas a los vencedores y la obligación de desmilitarizar a su ejército, condiciones que constituyeron una verdadera humillación para Alemania. Para muchos historiadores, fue esta humillación la que dio origen a la Segunda Guerra Mundial.

sepa mas

Otras sugerencias de palabras ...

República

Golpe de Estado

Secular

Trueque

Identidad cultural

Modernidad

Cortesano

Elite

Video: 08-06-2012. Serie Diccionario Biográfico de Historia de la Psicología. Wilhelm Wundt. (Julio 2020).