為什么蘋果一定要“掃描”你的相冊?

韓璐 4年前 (2021-08-10)

蘋果想要保護兒童,但我們害怕蘋果做的太多……

“阿里員工遭性侵”事件中,因為不具備通話錄音功能,iPhone“意外”卷入輿論,遭到了各路網(wǎng)友的吐槽:

考慮到對隱私的保護,iPhone不提供通話錄音功能也無可厚非。

但意想不到的是,在另一個事件中,同樣是面對隱私問題,蘋果卻做了另外一個選擇。

蘋果“不聽勸”,鐵了心要“掃描”iPhone相冊,已有6500人聯(lián)名抵制

為了保護兒童,蘋果要“掃描”用戶相冊

這一次選擇源自幾天前蘋果官宣的一則消息。

蘋果表示,為了更好的保護兒童,公司將在iOS 15、watchOS 8、iPadOS 15和macOS Monterey的年底更新中推出3項全新的技術(shù):

第一項技術(shù)涉及Siri——當(dāng)用戶向Siri詢問“如何舉報兒童遭到剝削”等類似問題時,后者會提供相應(yīng)的舉報途徑;又或者用戶嘗試搜索關(guān)于兒童性虐內(nèi)容關(guān)鍵詞時,Siri會出面干預(yù);

第二項技術(shù)為“Messanges通信檢測”——Messages 應(yīng)用的可選通信安全功能,可以在接收或發(fā)送色情照片時警告兒童及其父母;

第三項技術(shù)涉及照片和iCloud——系統(tǒng)“neuralMatch”將能夠檢測存儲在iCloud照片中的已知兒童性虐內(nèi)容(CSAM)圖像,從而使Apple能夠?qū)⑦@些情況報告給國家失蹤和受虐兒童中心(NCMEC)。

蘋果“不聽勸”,鐵了心要“掃描”iPhone相冊,已有6500人聯(lián)名抵制

其中,引起最大爭議的就是第二、三項技術(shù)。

比如第三項技術(shù),依據(jù)蘋果所對外公布的文件公告,CSAM檢測的應(yīng)用過程中,在用戶將張照片上傳至iCloud之前,系統(tǒng)會在設(shè)備端將本地照片與NCMEC和其他兒童安防組織提供的已知兒童性虐圖像的哈希數(shù)據(jù)庫進行匹配。

一旦發(fā)現(xiàn)相關(guān)內(nèi)容,相關(guān)材料會交由人工進行二次審核。

若審核結(jié)果確認(rèn)違法,蘋果將會禁用公司賬戶,并聯(lián)系執(zhí)法部門。

在知乎,有網(wǎng)友@AntDock張哲涵將以上原理畫了出來:

蘋果“不聽勸”,鐵了心要“掃描”iPhone相冊,已有6500人聯(lián)名抵制

圖 | 源自:知乎網(wǎng)友@AntDock張哲涵的回答

從圖像我們可以清楚意識到,一旦該技術(shù)被用在iPhone、iPad等設(shè)備中,當(dāng)用戶將iCloud功能開啟,所有的照片都會被系統(tǒng)“掃描”一遍,可能有些還會進行二次人工審核。

這么一套操作下來,雖然看起來iPhone的出發(fā)點是好的,但是用戶還有“隱私”可言嗎?

6000+人簽名反對新技術(shù):這是給蘋果的安全“開后門”

蘋果這邊宣布完消息沒多久,那邊就有人在網(wǎng)上寫了一公開信。

蘋果“不聽勸”,鐵了心要“掃描”iPhone相冊,已有6500人聯(lián)名抵制

信中寫道,蘋果的意圖是善意的,但它的提議是在系統(tǒng)中引入“后門”,而這個行為可能會破壞對所有蘋果產(chǎn)品用戶的基本隱私保護。

截至目前,這封公開信已經(jīng)得到了近6500名個人或組織的支持,其中不乏知名安全和隱私專家、密碼學(xué)家、研究人員、教授、法律專家等。

比如霍普金斯大學(xué)教授、密碼學(xué)家Matthew Green,他表示:

這種工具能夠可以幫助查找手機中的兒童色情內(nèi)容,但想象一下,如果掌握權(quán)力的公司或機構(gòu)獲得了這種系統(tǒng),會發(fā)生什么?

又比如社會組織“民主與技術(shù)中心(CDT)”表示:

蘋果公司的變化在事實上是給兒童和所有用戶帶來新的風(fēng)險,這嚴(yán)重背離了蘋果從長期持有的隱私和安全協(xié)議。

甚至斯諾登也出來針對此事發(fā)表觀點,稱:

不管用意有多好,蘋果都在通過這種方式向全世界輸出大規(guī)模監(jiān)控。如果他們今天可以掃描兒童色情內(nèi)容,那么明天就可以掃描任何東西。他們毫無征兆地將價值1萬億美元的設(shè)備變成了監(jiān)控設(shè)施。

同時,他還在推特上發(fā)文呼吁大家去聯(lián)名抵制蘋果。

蘋果“不聽勸”,鐵了心要“掃描”iPhone相冊,已有6500人聯(lián)名抵制

在這封公開信的最后,專家們也對蘋果提出兩點要求:

· 蘋果立即停止嘗試部署所提議的內(nèi)容監(jiān)控技術(shù);

· 蘋果發(fā)表聲明重申他們對端到端和用戶隱私的承諾。

針對業(yè)內(nèi)的質(zhì)疑,蘋果也作了新回應(yīng),包括系統(tǒng)僅適用于上傳到iCloud的照片,以及會堅定拒絕來自政府的擴展該技術(shù)的要求

而依據(jù)這份回應(yīng),我們也能夠看出,蘋果是鐵了心要實施這幾項技術(shù)。

更甚者,蘋果還明確,將在未來向第三方應(yīng)用程序開放這三項新技術(shù)。

不過,Facebook旗下即時通訊應(yīng)用WhatsApp負責(zé)人Will Cathcart在接受媒體采訪時已經(jīng)明確拒絕在平臺上采用類似系統(tǒng),更是在推特上連發(fā)數(shù)條進行“譴責(zé)”,表示:

該方法給世界帶來了以些非常讓人擔(dān)憂的東西,因為它是由蘋果構(gòu)建和運營的一套監(jiān)控系統(tǒng),能夠被輕易地用于掃描私人內(nèi)容,以查找由該公司、或政府決定控制的任何內(nèi)容。

蘋果“不聽勸”,鐵了心要“掃描”iPhone相冊,已有6500人聯(lián)名抵制

蘋果高空走繩

回頭再來看整個事件,核心問題在于“科技向善”與“隱私安全”之間的矛盾。

用科技賦能是值得受到認(rèn)可的,因為它真的能夠做到人工所不能做到的。

比如同樣是兒童性虐照片檢測,谷歌就曾在2018年推出一款名為Content Safety API的內(nèi)容排查工具包,能夠大規(guī)模地識別和報告網(wǎng)絡(luò)上兒童性虐待信息材料(CSAM),減輕了分析師的工作負擔(dān),以及將這個工作變得更加有效率。

又比如在國內(nèi),基于AI人臉尋人技術(shù),不少被拐兒童得以在十?dāng)?shù)年,甚至更長時間之后找到回家的路。

但可以注意到,以上兩個案例過程中,并未過多涉及個人用戶的隱私安全,也達到了當(dāng)初項目啟動的目的。

事實上,為了隱私安全,蘋果也進行了一系列保護措施,比如使用哈希算法進行加密。

但過程中依舊存在被攻破的危險,尤其對于本就沒有設(shè)置端到端加密的iCloud而言。屆時,一旦被攻破,黑客就完全可以獲取到用戶的隱私照片。

而即便沒有泄露,一旦出現(xiàn)誤報,就意味著負責(zé)二次審核的人工將能夠看到用戶的照片,并且還是無關(guān)兒童性虐的照片,這也相當(dāng)于侵犯用戶隱私了。

不可否認(rèn),蘋果這一技術(shù)的背后是善意的、是值得被認(rèn)可的,能夠找出更多潛伏在冰山下、不為人知的兒童性虐惡性事件,但是它現(xiàn)在更需要思考的是,如何在執(zhí)行“科技向善”的同時,做好與隱私安全之間的平衡。

這就相當(dāng)于高空走繩,只有找到那個平衡點,蘋果才能把CSAM項目很好地繼續(xù)實施下去。

最后,記得關(guān)注微信公眾號:鎂客網(wǎng)(im2maker),更多干貨在等你!

鎂客網(wǎng)


科技 | 人文 | 行業(yè)

微信ID:im2maker
長按識別二維碼關(guān)注

硬科技產(chǎn)業(yè)媒體

關(guān)注技術(shù)驅(qū)動創(chuàng)新

分享到