【米アップル】米国内のiPhoneなどスキャン!児童性的虐待画像を検出へ
米アップルは5日、アメリカ国内のiPhoneユーザーが画像をクラウドサービス「iCloud」に保存する際に、児童性的虐待コンテンツ(CSAM)かどうかを特定するシステムを導入すると発表した。アップルによると、画像がiCloud内に保存される前にCSAMかどうか検知するという。全米行方不明・被搾取児童センター(NCMEC)や、児童の安全に関連する団体が収集した、児童性的虐待画像のデータベースと、iPhoneユーザーが保存しようとしている画像を比較する仕組み。