Krótka definicja
Przedstawianie seksualności jako czegoś z natury złego, wstydliwego lub niebezpiecznego.
Przedstawianie seksualności jako czegoś z natury złego, wstydliwego lub niebezpiecznego.
Demonizacja seksu utrudnia rzetelną edukację, buduje lęk i wzmacnia wstyd seksualny. To pojęcie ma w słowniku duże znaczenie kulturowe i edukacyjne, bo pomaga nazwać źródła wielu napięć wokół ciała, przyjemności i relacji.