亚洲第一福利视频,欧美黑人粗大xxxxpp,国内精品一区二区三区,国产精品久久久久影院色

智快網 - 新科技與新能源行業網絡媒體

蘋果取消兒童色情檢測功能遭起訴,賠償或超12億美元

   發布時間:2024-12-09 07:10 作者:蘇婉清

近期,一起針對蘋果公司的訴訟案件引起了廣泛關注。這起案件涉及蘋果在2022年取消的兒童性虐待材料(CSAM)檢測計劃,該計劃原本旨在通過設備端哈希值系統掃描iCloud中的圖片,以檢測和阻止CSAM的傳播。

一位現年27歲的女性,曾在童年時期遭受性虐待,她以化名對蘋果公司提起了訴訟。原告聲稱,蘋果違背了其保護受害者的承諾,特別是在CSAM檢測功能被取消后,她遭受性虐待的圖片被上傳到iCloud并廣泛傳播。這一發現是在執法部門通知她后得知的,相關圖片是通過在佛蒙特州查獲的一臺MacBook上傳至iCloud的。

原告在訴訟中表示,蘋果取消CSAM檢測功能的決定,使其遭受性虐待的圖片得以繼續傳播,這等同于向消費者銷售了“有缺陷的產品”,對她這樣的用戶群體造成了嚴重傷害。為此,她要求蘋果改變其做法,并向可能多達2680名其他符合條件的受害者提供賠償。根據法律,這類受害者每人有權獲得至少15萬美元的賠償,如果全部受害者成功獲得賠償,蘋果將面臨超過12億美元(約87.28億元人民幣)的賠償金額。

類似的情況在北卡羅來納州也發生過。一名9歲的CSAM受害者指控蘋果,稱她通過iCloud鏈接收到了陌生人發送的非法視頻,并被誘導拍攝并上傳了類似內容。蘋果對此提出了一項駁回案件的動議,引用聯邦法規第230條,試圖免除其對用戶上傳到iCloud的材料的責任。然而,法院近期裁定,這一法律保護僅適用于積極內容審核的情形,這可能削弱了蘋果的抗辯理由。

面對新訴訟,蘋果發言人弗雷德·塞恩茲表示,蘋果認為兒童性虐待材料是極其惡劣的,公司一直致力于在不損害用戶隱私和安全的前提下,積極打擊相關犯罪。他提到,蘋果已經擴展了信息應用中的裸露內容檢測功能,并允許用戶舉報有害材料。然而,原告及其律師瑪格麗特·馬比認為,蘋果的措施還遠遠不夠,未能充分履行其保護受害者的責任。

 
 
更多>同類內容
全站最新
熱門內容
本欄最新
 
智快科技微信賬號
微信群

微信掃一掃
加微信拉群
電動汽車群
科技數碼群