Deutschland nach dem Krieg
Deutschland nach dem Krieg

Deutschland nach dem Krieg

Nach dem Ende des Zweiten Weltkriegs standen die Alliierten vor der Frage, wie und ob man Deutschland überhaupt rehabilitieren konnte. Ein Großteil der deutschen Industrieunternehmen war mehr oder minder an der Waffenproduktion, der Kriegsführung und dem Holocaust beteiligt gewesen. Die Ärzteschaft bestand zur Hälfte aus ehemaligen Mitgliedern der NSDAP. Und auch in allen anderen Bereichen des Staatsapparats fanden sich die Anhänger der Nationalsozialisten. Da dieser Konflikt nicht lösbar schien, entschied sich Konrad Adenauer für eine Strategie des Vergessens: Deutschland sollte in die Zukunft blicken und sich am Westen orientieren. Während der Berlin-Blockade durch die Sowjetunion entschied sich Adenauer, Bonn zur neuen Hauptstadt zu machen. Die Aufspaltung in Ost- und Westdeutschland wurde mit dem Bau der Berliner Mauer vollendet, die der vermehrten Ostflucht entgegenwirken sollte. In Zahlen bedeutete das, dass jedes Jahr 200.000 Deutsche in den Westen flohen. Bald etablierte sich die Staatssicherheit, die einerseits durch ihre 90.000 Festangestellten und andererseits durch die Hilfe von Denunzianten eine repressive Macht auf die Bevölkerung der DDR ausübte. Westdeutschland war hingegen bald Mitglied der NATO und Teil des europäischen Wirtschaftsbundes. Doch auch in Westdeutschland existierten politische Gruppierungen, die die Westpolitik kritisierten. Dazu gehörten vor allem linke Jugendbewegungen, die den Vietnam-Krieg verurteilten und insbesondere die Generation ihrer Eltern verachteten, zu der auch ehemalige Nazis gehörten.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert