Deutsch-Französischer Krieg und die Auswirkungen auf das Imperialismus-Bewusstsein
Der Deutsch-Französische Krieg führte zur Gründung des Deutschen Kaiserreichs und verstärkte das imperialistische Bestreben Deutschlands, was zu einer Reihe von Konflikten in Afrika und Asien führte, die als Krisen im Imperialismus bezeichnet werden können.