您现在的位置是:中部新闻网 > 百科
Apple因拒绝监测“儿童性虐待内容”被起诉,隐私底线再被挑战
中部新闻网2024-12-19 03:21:30【百科】6人已围观
简介近日,Apple收到一项关于CSAM儿童性虐待材料)的指控,指控对象是该公司2021年放弃实施的“CSAM监测”功能。受害人表示,Apple默许iCloud存储CSAM相关内容,并对自己造成二次伤害。
近日,因隐私Apple收到一项关于CSAM(儿童性虐待材料)的拒绝监测指控,指控对象是童性挑战该公司2021年放弃实施的“CSAM监测”功能。受害人表示,虐待内容Apple默许iCloud存储CSAM相关内容,起诉并对自己造成二次伤害。底线
此次案件的再被受害者是一名27岁的女性,她在儿童时期受到亲戚猥亵,因隐私并被记录下来,拒绝监测相关内容一直在网上分享,童性挑战其中一个重要载体就是虐待内容iCloud。她指控道,起诉Apple并没有识别并删除这些照片或视频,底线以至于她现在还能看到那些内容,再被并持续对她造成伤害。因隐私
诉讼称,“如果Apple实施其2021年的‘CSAM监测’技术,原告童年性虐待的图像和视频,将被识别并删除。”
这已经不是第一起相关起诉,今年8月,一名9岁女孩和她的监护人也起诉了Apple,理由是该公司未能解决CSAM在iCloud的传播问题。根据现有数据统计,可能有2680名潜在受害者将对Apple提出赔偿要求。
时间回到2021年,Apple当年宣布CSAM监测功能后,因为隐私隐患被迫叫停。该功能在当年引起巨大舆论压力,因为CSAM监测相当于植入一个官方“后门”,一旦被滥用将有巨大隐私泄漏风险,如今该风险又将卷土重来。
粗略统计,Apple全球用户多达20亿,存储在iCloud的图片及视频不计其数,它们现在都是加密状态存储。在CSAM监测功能加入后,相当于在所有加密内容中放入了一个“后门”,只要有需要,就可以随时解密这些数据。
现在的情况是,Apple已经明确表示,在iPhone、Mac或iPad中存储的内容,即使是Apple官方,在任何情况下都无法访问这些数据。也许正是由于端到端加密的特性,连Apple官方也无法查看并处理这些CSAM相关内容。
在回应CSAM相关起诉时,Apple发言人说道:“CSAM相关内容令人憎恶,我们致力于打击这类犯罪行为。我们正在加紧技术创新,积极打击犯罪行为,同时又不损害所有用户的安全和隐私。”最新消息,Apple拟定的初始计划是,在CSAM相关内容发送时发出警告,在传播开始前进行遏制,不过这个方案可能随时会改变。
无论如何,这个诉讼都将关系全体Apple用户,大家都应认真对待,因为加密存储的任何一环被打破,这个隐私壁垒就将彻底崩溃。
很赞哦!(2)
相关文章
- 跆拳道世界杯中国队获银牌
- 周润收《枪神》游戏上架GOG 卖价71元玩家评价劣良
- 《运气2》新赛季正式开启 迅游助您流畅体验
- 玩皮狗总裁讲PS5 更短的载进时候会窜改次世代游戏
- 挂锁:满足了现代人对便捷与安全并重的需求
- 更逝世:很苦愿问应继绝开辟《星球大年夜战》游戏 报告更多故事
- Steam上架韩国独立可骇保存游戏《Araha:Curse of Yieun Island》 正在烧誉病院中寻寻姐姐
- 《PUBG》开辟商新游《Prologue》没有是《PUBG2》 乃至没有是射击游戏
- 宣城绩溪:草莓采摘正当时,乡村振兴好“丰”景
- 《战神》系列游戏总监评特斯推“Cybertruck”:后启迪录季世保存必备