Con Repubblica di Weimar si intende la Germania tra la fine della Prima Guerra Mondiale e l'ascesa del nazismo. Il dopoguerra tedesco é stato uno dei piú tragici: segnato dalla sconfitta, dai debiti di guerra imposti con il Trattato di Versailles, dagli scontri tra freikorps e militanti comunisti.