Die deutschen Universitäten waren bis zum Ende des 19. Jahrhunderts eine Männerdomäne. Erst mit dem beginnenden 20. Jahrhundert boten sich für Frauen immer mehr Möglichkeiten, zu studieren.
Die deutschen Universitäten waren bis zum Ende des 19. Jahrhunderts eine Männerdomäne. Erst mit dem beginnenden 20. Jahrhundert boten sich für Frauen immer mehr Möglichkeiten, zu studieren.