德國數(shù)字議程委員會主席認為CSAM計劃讓蘋果走上“危險的道路”

薛 晨 4年前 (2021-08-18)

德國議會數(shù)字議程委員會主席致信庫克,希望蘋果重新考慮CSAM計劃。

德國數(shù)字議程委員會主席認為CSAM計劃讓蘋果走上“危險的道路”

8月5日,蘋果公司宣布推出兒童性虐內(nèi)容(簡稱 CSAM)掃描功能,引發(fā)了很多爭議。德國議會數(shù)字議程委員會主席曼努埃爾-霍弗林(Manuel Hoferlin)表達了對蘋果大規(guī)模監(jiān)控的擔(dān)憂

據(jù)外媒Heise Online報道,霍弗林在給蘋果公司CEO庫克的一封信中提到,希望蘋果重新考慮其CSAM計劃,表示蘋果正在走“危險的道路”,同時在破壞“安全和保密的通信”。

霍弗林信中寫道,CSAM工具被認為是“自互聯(lián)網(wǎng)發(fā)明以來,我們所見過的通信保密堤壩上最大的漏洞”。沒有保密通信,互聯(lián)網(wǎng)將成為“歷史上最偉大的監(jiān)視工具”

德國數(shù)字議程委員會主席認為CSAM計劃讓蘋果走上“危險的道路”

盡管CSAM掃描功能目前僅宣布將在美國推出,但霍弗林在信中表示希望蘋果不要實施該系統(tǒng),這樣做既是為了保護社會數(shù)據(jù),也是為了避免蘋果公司陷入可預(yù)見的問題。無論蘋果是否堅持這一戰(zhàn)略,都可能使蘋果失去進入大型市場的機會。

據(jù)悉,目前CSAM工具用于完成兩個獨立的任務(wù)。第一個任務(wù)是iCloud Photos CSAM檢測,即將用戶上傳至iCloud的圖像與已知CSAM圖像的數(shù)據(jù)庫進行匹配。如果檢測到兒童性虐圖像,數(shù)據(jù)將發(fā)送給Apple進行人工驗證。

第二個任務(wù)是檢測兒童賬號綁定的設(shè)備,父母或監(jiān)護人帳戶啟用檢測功能后,當(dāng)兒童賬戶發(fā)送或接收色情圖片時,照片將被模糊化,兒童會被警告,家長也將接到通知。

德國數(shù)字議程委員會主席認為CSAM計劃讓蘋果走上“危險的道路”

關(guān)于CSAM掃描功能,蘋果公司一直對外解釋,CSAM掃描不會分析每個人iPhone上的照片,而只是對iCloud上照片特征數(shù)據(jù)進行比對。

蘋果上周還宣布CSAM系統(tǒng)將能夠接受第三方審計。另外蘋果還強調(diào),如果用戶不使用iCloud照片,則CSAM檢測過程就不會運行。

最后,記得關(guān)注微信公眾號:鎂客網(wǎng)(im2maker),更多干貨在等你!

鎂客網(wǎng)


科技 | 人文 | 行業(yè)

微信ID:im2maker
長按識別二維碼關(guān)注

硬科技產(chǎn)業(yè)媒體

關(guān)注技術(shù)驅(qū)動創(chuàng)新

分享到