

Deutschland im Dauer-Appeasement
Manchmal sind Binsenweisheiten der einfachste Weg zur Erkenntnis. Wer hat Nazi-Deutschland am Ende vom Tyrannen Adolf Hitler befreit? Richtig. Die Alliierten. Mit Waffengewalt. Das bescherte zumindest den Westdeutschen Jahrzehnte mit Wohlstand, Frieden und Wirtschaftswunder. Vereinfacht