キリスト教が入ってきてからというか
西洋の文化が入ってきてからって言う方がしっくりくるかもね
西洋文化が最先端!見習うべし!ってなって
どうやら男色とか野蛮らしい!やめろやめろ!となった…みたいな

いやまじ本当そんなことがなかったら今頃日本もどんな感じだったのかなと時々考えちゃう