画像生成AIの訓練に「児童ポルノ」が使用されていたことが発覚 
2024.01.06
>研究者たちは、公開された訓練データの中からCSAM(児童の性的虐待素材)の疑いがある画像を3000点以上発見したという。
>しかし、調査が行われたのが9月以降であることに加え、数十億ある画像の一部しか対象にしていないことを考慮すると、実際の量ははるかに多い可能性が高いと彼らは注意を促している。
https://forbesjapan.com/articles/detail/68355

使って大丈夫なのか?🥺