Blutiger Kampf: So endete die Kolonialzeit in Afrika

Die Geschichte der Kolonialzeit in Afrika ist lang und blutig. Viele indigene Völker werden von Europa unterdrückt und ausgebeutet. Ob in Tansania, Kamerun, Nigeria, Südafrika oder in anderen Teilen Afrikas. Doch wie endet die Kolonialzeit? Im Zweiten Weltkrieg kämpfen viele Menschen aus den Kolonien an der Seite der Alliierten. In der Regel unter Zwang. Das Deutsche Reich hat seine Kolonien bereits nach dem Ersten Weltkrieg an die siegreichen Nationen abtreten müssen. Die Kolonialmächte versprechen für die Zeit nach dem Zweiten Weltkrieg, das Selbstbestimmungsrecht der Völker zu achten. Doch sie halten ihre Versprechen nicht. Nach dem Krieg beuten besonders Frankreich und das Vereinigte Königreich ihre Protektorate weiter aus, vor allem wegen der üppigen Rohstoffvorkommen. Doch nach und nach erstarken antikoloniale Bewegungen auf dem afrikanischen Kontinent. Um die Proteste einzudämmen, setzen die Kolonialmächte teils auf politische Reformen,
Back to Top