大公產品

首页 > 新闻 > 正文

邁出一步/iPhone新偵測功能 檢舉兒童色情圖

時間:2021-08-07 04:24:30來源:大公报

  圖:近年來,網絡兒童性侵犯事件頻發。圖為兒童使用iPhone。\網絡圖片

  【大公報訊】綜合《每日郵報》、《華爾街日報》、CNBC報道:近年來,美國兒童色情犯罪氾濫,而網絡成為實施犯罪的主要工具之一,但相關調查總是會受到用戶「私隱權」的干擾。美國蘋果公司5日宣布,將推出新功能,檢測美國iPhone用戶是否在手機內存有涉及兒童性侵害的照片,並會在確認後將結果上報至相關組織和執法部門。有評論指,私隱並非犯罪的擋箭牌,美國前司法部長霍德爾也表示,蘋果的做法表明,保護兒童安全不必以犧牲私隱為代價。

  多年以來,全球各地的執法官員都曾要求蘋果合作,削弱對iMessage和iCloud等其他軟件服務的加密等,協助調查兒童性虐待或恐怖主義等行為。

  發現違法情況停用iCloud賬戶

  蘋果公司5日終於宣布,將使用「哈希」(hashing)算法,對iPhone用戶手機中的「兒童性虐待材料」(CSAM)進行監測。在iOS 15系統發布後,美國iPhone用戶將開始使用這項技術。

  蘋果計劃在所有美國iPhone手機上安裝這套系統,它不會掃描手機中的圖片庫,而會在用戶上傳照片到iCloud Photos前,先自動將它們與「全國失蹤及剝削兒童中心」(NCMEC)提供的20萬張性虐待照片作比對,若偵測到用戶上傳的違規照片達到一定數量,軟件就會上傳一個檔案,允許蘋果公司解密手機,以人工方式審查用戶照片。若發現真的有違法情況時,相關用戶的iCloud賬號將被停用,蘋果並向NCMEC舉報,有需要時轉交執法部門跟進。蘋果公司的一位代表稱,如果用戶認為自己的賬號被誤判,則可向蘋果公司提出申訴。

  阻止用戶搜兒童色情內容

  蘋果公司還表示,該系統將只能審查與NCMEC已知內容相匹配的圖片,無法自行添加內容。舉例來說,該系統無法檢測父母拍攝的兒童裸體洗澡照片,因為這些圖片不在NCMEC數據庫內。

  蘋果公司亦針對兒童用戶開放新功能。當兒童接受或傳送可能包含色情內容的圖片,手機系統將自動進行模糊處理,用戶將被詢問是否繼續瀏覽。兒童用戶還將被告知,如果瀏覽色情內容,他們的父母將會收到系統發送的警報信息。

  此外,蘋果還將更新Siri和搜索功能,提供更多關於如何應對兒童色情的內容,並在用戶搜索兒童色情內容時予以阻止。

  專家盼可解救受害兒童

  不出所料,蘋果這一系列新措施掀起用戶私隱權的爭論。部分專家認為,蘋果系統的這些調整可能會讓裝置開「後門」,其他資料會被政府或其他組織取用並監視。

  不過,美國前司法部長霍德爾表示,美國網絡近年有關兒童性虐的材料出現歷史性地激增,必須通過技術人員的創新來應對。而蘋果公司檢測兒童性虐待材料的新措施代表了一個重要的里程碑,表明兒童安全不必以犧牲私隱為代價。

  兒童保護團體更是對蘋果的新措施拍手稱好,NCMEC總裁約翰遜.克拉克說,「有這麼多人使用蘋果的產品,這些新的安全措施對於那些在網上被引誘、照片在兒童性虐待材料中廣為流傳的兒童來說,可能會有救命的作用」。致力於解救性剝削受害兒童的非營利組織Thorn行政總裁科爾杜亞(Julia Cordua)表示,蘋果這項功能「在保障兒童安全與個人私隱間取得了平衡」。

最新要聞

最受歡迎