Appleが8月上旬に発表したユーザーのiCloud監視機能は、Photoライブラリをスキャンして児童性的虐待コンテンツ(CSAM:Child Sexual Abuse Material)を検出するものです。監視はアルゴリズムが行うため写真を見ることなく振り分けができるほか、違法画像が一定数検知されるまでアカウント情報や写真について直接関知しない点をAppleは強調しましたが、多くのユーザーから批判や疑念が噴出しました。
結局icloudの監視やんけ
それ前からやってるんちゃうの?
ほんま汚いで
続きを読む
Source: http://himasoku.com/index.rdf
powered by Auto Youtube Summarize