Eine Einführung in die deutsche Kolonialgeschichte - jetzt im Taschenbuch
Deutschland - eine Kolonialmacht? Die Legende von der zaghaften kleinen Möchtegern-Kolonialmacht, die sich zivilisierter betragen hat als andere, kommt allmählich ins Wanken. Und das zu Recht, denn das deutsche Kaiserreich beutete kolonisierte Länder in Afrika, in China oder der Südsee nicht weniger gierig und gewalttätig aus als andere Kolonialmächte.