La politique en faveur des droits des femmes s'est imposée, en France, comme une politique de l'égalité entre les sexes. Il ne s'agit pas de reconnaître des droits spécifiques aux femmes mais, au contraire, de mettre fin aux discriminations dont elles sont victimes.