Wokisme : la France sera-t-elle contaminée ?
Rocher
Le wokisme, qui fait référence au terme woke, signifiant être éveillé en anglais, est né aux Etats-Unis dans les années 1960. Il s'agissait d'être conscient des violences et des discriminations subies par les Afro-Américains. Le mouvement a refait surface en 2013 puis en 2020, et s'est développé en s'attaquant à d'autres injustices. L'auteure pose la question de ce concept en France. ©Electre 2022