中国小康网8月9日讯 老马 苹果公司宣布在美国的手机用户上排查儿童性虐材料(child sexual abuse material ,简称CSAM)新系统的细节。在图片被储存在云端图片库之前,这项技术将能搜寻与已知的CSAM图片匹配。
苹果将排查苹果手机中的儿童色虐照片
英国广播公司BBC报道,早在2020年1月,苹果高级隐私官员简·霍瓦特(Jane Horvath)就证实,苹果将扫描用户上传到云端的照片,寻找儿童性侵图片。
苹果表示,一旦发现儿童色虐图片,将把它交给后台的评审人员进行审核,然后把该手机用户上报给执法机关。
已经有人对担心这项技术可侵犯隐私权。一些专家甚至担心,这种技术有可能被集权政府用来监视其公民。他们担心技术可以被扩展到扫描一些保密的手机任容,甚至政治言论等。
苹果表示,将于晚些时候推出的iOS 和 iPadOS(平板电脑)新版操作系统将拥有“新的加密软件,以帮助限制CSAM的在线传播,同时其设计也考虑了保护用户隐私”。
BBC北美科技事务记者詹姆斯?克莱顿(James Clayton)说,该系统的工作原理是将用户手机的图片与美国国家失踪和受虐儿童中心( US National Center for Missing and Exploited Children 简称NCMEC)以及其他儿童安全组织汇总的已知儿童性虐图片数据库相比较。
这些图像然后被转换成散列(hashes,也有音译为哈希或杂凑)形式,即可以与苹果设备上图像“匹配”的数字代码。
苹果表示,该技术还将能捕捉到经过编辑、但相似版本的原图。