苹果重拳排查儿童色虐图,好!

苹果公司宣布在美国的手机用户上排查儿童性虐材料(Child sexual abuse material,简称CSAM)新系统的细节。在图片被储存在云端图片库之前,这项技术将能搜寻与已知的CSAM图片匹配。

早在2020年1月,苹果高级隐私官员简·霍瓦特(Jane Horvath)就证实,苹果将扫描用户上传到云端的照片,寻找儿童性侵图片。苹果表示,一旦发现儿童色虐图片,将把它交给后台的评审人员进行审核,然后把该手机用户上报给执法机关。已经有人对担心这项技术可侵犯隐私权。一些专家甚至担心,这种技术有可能被集权政府用来监视其公民。他们担心技术可以被扩展到扫描一些保密的手机任容,甚至政治言论等。苹果表示,将于晚些时候推出的iOS 和 iPadOS(平板电脑)新版操作系统将拥有“新的加密软件,以帮助限制CSAM的在线传播,同时其设计也考虑了保护用户隐私”。

工作原理
BBC北美科技事务记者詹姆斯‧克莱顿(James Clayton)说,该系统的工作原理是将用户手机的图片与美国国家失踪和受虐儿童中心(US National Center for Missing and Exploited Children 简称NCMEC)以及其他儿童安全组织汇总的已知儿童性虐图片数据库相比较。这些图像然后被转换成散列(hashes,也有音译为哈希或杂凑)形式,即可以与苹果设备上图像“匹配”的数字代码。苹果表示,该技术还将能捕捉到经过编辑、但相似版本的原图。

“准确度高”
苹果说,在图片被存储到云端之前,这种技术会自动把图片与已知的CSAM散列进行扫描处理对比。据悉,这一技术的准确性极高,并确保每一客户账户的出错率每年不超过万亿分之一。苹果表示,如果发现匹配他们将人工手动审核每一份报告,给与证实。之后将采取措施关闭有问题客户的账号,并报告给法律部门处理。据介绍,同现有技术相比,新技术提供了“显著的”隐私优势。苹果表示,只有当用户云端图片账户中有多张已知CSAM图片时才会引起关注,而这样做是为了更好的保护儿童。另据报道,包括微软、谷歌和脸书在内的其他科技公司也分享了已知的儿童性侵图片的散列清单。

隐私担忧
尽管这样,一些隐私专家仍对此发声表示担忧。美国约翰霍普金斯大学安全研究员格林表示,不论苹果的长远计划是什么,他们都发出了一个明确信号,即他们认为建立一个监测和扫描用户手机中违禁内容系统是安全的。他还表示,至于最后结果是对还是错几乎无关紧要。关键是这将打开闸门 – 各国政府将会要求每个人都这样做。(转载自BBC中文网)

发表回复