Le Traité de Versailles
Le Traité de Versailles est signé, mettant fin à la Première Guerre mondiale. La France, en tant que puissance victorieuse, impose de lourdes réparations à l'Allemagne, ce qui influence les relations internationales et la politique intérieure de La France entre deux guerres.