為什么蘋果一定要“掃描”你的相冊?
蘋果想要保護(hù)兒童,但我們害怕蘋果做的太多……
“阿里員工遭性侵”事件中,因?yàn)椴痪邆渫ㄔ掍浺艄δ埽琲Phone“意外”卷入輿論,遭到了各路網(wǎng)友的吐槽:
考慮到對(duì)隱私的保護(hù),iPhone不提供通話錄音功能也無可厚非。
但意想不到的是,在另一個(gè)事件中,同樣是面對(duì)隱私問題,蘋果卻做了另外一個(gè)選擇。
為了保護(hù)兒童,蘋果要“掃描”用戶相冊
這一次選擇源自幾天前蘋果官宣的一則消息。
蘋果表示,為了更好的保護(hù)兒童,公司將在iOS 15、watchOS 8、iPadOS 15和macOS Monterey的年底更新中推出3項(xiàng)全新的技術(shù):
第一項(xiàng)技術(shù)涉及Siri——當(dāng)用戶向Siri詢問“如何舉報(bào)兒童遭到剝削”等類似問題時(shí),后者會(huì)提供相應(yīng)的舉報(bào)途徑;又或者用戶嘗試搜索關(guān)于兒童性虐內(nèi)容關(guān)鍵詞時(shí),Siri會(huì)出面干預(yù);
第二項(xiàng)技術(shù)為“Messanges通信檢測”——Messages 應(yīng)用的可選通信安全功能,可以在接收或發(fā)送色情照片時(shí)警告兒童及其父母;
第三項(xiàng)技術(shù)涉及照片和iCloud——系統(tǒng)“neuralMatch”將能夠檢測存儲(chǔ)在iCloud照片中的已知兒童性虐內(nèi)容(CSAM)圖像,從而使Apple能夠?qū)⑦@些情況報(bào)告給國家失蹤和受虐兒童中心(NCMEC)。
其中,引起最大爭議的就是第二、三項(xiàng)技術(shù)。
比如第三項(xiàng)技術(shù),依據(jù)蘋果所對(duì)外公布的文件公告,CSAM檢測的應(yīng)用過程中,在用戶將張照片上傳至iCloud之前,系統(tǒng)會(huì)在設(shè)備端將本地照片與NCMEC和其他兒童安防組織提供的已知兒童性虐圖像的哈希數(shù)據(jù)庫進(jìn)行匹配。
一旦發(fā)現(xiàn)相關(guān)內(nèi)容,相關(guān)材料會(huì)交由人工進(jìn)行二次審核。
若審核結(jié)果確認(rèn)違法,蘋果將會(huì)禁用公司賬戶,并聯(lián)系執(zhí)法部門。
在知乎,有網(wǎng)友@AntDock張哲涵將以上原理畫了出來:
圖 | 源自:知乎網(wǎng)友@AntDock張哲涵的回答
從圖像我們可以清楚意識(shí)到,一旦該技術(shù)被用在iPhone、iPad等設(shè)備中,當(dāng)用戶將iCloud功能開啟,所有的照片都會(huì)被系統(tǒng)“掃描”一遍,可能有些還會(huì)進(jìn)行二次人工審核。
這么一套操作下來,雖然看起來iPhone的出發(fā)點(diǎn)是好的,但是用戶還有“隱私”可言嗎?
6000+人簽名反對(duì)新技術(shù):這是給蘋果的安全“開后門”
蘋果這邊宣布完消息沒多久,那邊就有人在網(wǎng)上寫了一公開信。
信中寫道,蘋果的意圖是善意的,但它的提議是在系統(tǒng)中引入“后門”,而這個(gè)行為可能會(huì)破壞對(duì)所有蘋果產(chǎn)品用戶的基本隱私保護(hù)。
截至目前,這封公開信已經(jīng)得到了近6500名個(gè)人或組織的支持,其中不乏知名安全和隱私專家、密碼學(xué)家、研究人員、教授、法律專家等。
比如霍普金斯大學(xué)教授、密碼學(xué)家Matthew Green,他表示:
這種工具能夠可以幫助查找手機(jī)中的兒童色情內(nèi)容,但想象一下,如果掌握權(quán)力的公司或機(jī)構(gòu)獲得了這種系統(tǒng),會(huì)發(fā)生什么?
又比如社會(huì)組織“民主與技術(shù)中心(CDT)”表示:
蘋果公司的變化在事實(shí)上是給兒童和所有用戶帶來新的風(fēng)險(xiǎn),這嚴(yán)重背離了蘋果從長期持有的隱私和安全協(xié)議。
甚至斯諾登也出來針對(duì)此事發(fā)表觀點(diǎn),稱:
不管用意有多好,蘋果都在通過這種方式向全世界輸出大規(guī)模監(jiān)控。如果他們今天可以掃描兒童色情內(nèi)容,那么明天就可以掃描任何東西。他們毫無征兆地將價(jià)值1萬億美元的設(shè)備變成了監(jiān)控設(shè)施。
同時(shí),他還在推特上發(fā)文呼吁大家去聯(lián)名抵制蘋果。
在這封公開信的最后,專家們也對(duì)蘋果提出兩點(diǎn)要求:
· 蘋果立即停止嘗試部署所提議的內(nèi)容監(jiān)控技術(shù);
· 蘋果發(fā)表聲明重申他們對(duì)端到端和用戶隱私的承諾。
針對(duì)業(yè)內(nèi)的質(zhì)疑,蘋果也作了新回應(yīng),包括系統(tǒng)僅適用于上傳到iCloud的照片,以及會(huì)堅(jiān)定拒絕來自政府的擴(kuò)展該技術(shù)的要求。
而依據(jù)這份回應(yīng),我們也能夠看出,蘋果是鐵了心要實(shí)施這幾項(xiàng)技術(shù)。
更甚者,蘋果還明確,將在未來向第三方應(yīng)用程序開放這三項(xiàng)新技術(shù)。
不過,Facebook旗下即時(shí)通訊應(yīng)用WhatsApp負(fù)責(zé)人Will Cathcart在接受媒體采訪時(shí)已經(jīng)明確拒絕在平臺(tái)上采用類似系統(tǒng),更是在推特上連發(fā)數(shù)條進(jìn)行“譴責(zé)”,表示:
該方法給世界帶來了以些非常讓人擔(dān)憂的東西,因?yàn)樗怯商O果構(gòu)建和運(yùn)營的一套監(jiān)控系統(tǒng),能夠被輕易地用于掃描私人內(nèi)容,以查找由該公司、或政府決定控制的任何內(nèi)容。
蘋果高空走繩
回頭再來看整個(gè)事件,核心問題在于“科技向善”與“隱私安全”之間的矛盾。
用科技賦能是值得受到認(rèn)可的,因?yàn)樗娴哪軌蜃龅饺斯に荒茏龅降摹?/p>
比如同樣是兒童性虐照片檢測,谷歌就曾在2018年推出一款名為Content Safety API的內(nèi)容排查工具包,能夠大規(guī)模地識(shí)別和報(bào)告網(wǎng)絡(luò)上兒童性虐待信息材料(CSAM),減輕了分析師的工作負(fù)擔(dān),以及將這個(gè)工作變得更加有效率。
又比如在國內(nèi),基于AI人臉尋人技術(shù),不少被拐兒童得以在十?dāng)?shù)年,甚至更長時(shí)間之后找到回家的路。
但可以注意到,以上兩個(gè)案例過程中,并未過多涉及個(gè)人用戶的隱私安全,也達(dá)到了當(dāng)初項(xiàng)目啟動(dòng)的目的。
事實(shí)上,為了隱私安全,蘋果也進(jìn)行了一系列保護(hù)措施,比如使用哈希算法進(jìn)行加密。
但過程中依舊存在被攻破的危險(xiǎn),尤其對(duì)于本就沒有設(shè)置端到端加密的iCloud而言。屆時(shí),一旦被攻破,黑客就完全可以獲取到用戶的隱私照片。
而即便沒有泄露,一旦出現(xiàn)誤報(bào),就意味著負(fù)責(zé)二次審核的人工將能夠看到用戶的照片,并且還是無關(guān)兒童性虐的照片,這也相當(dāng)于侵犯用戶隱私了。
不可否認(rèn),蘋果這一技術(shù)的背后是善意的、是值得被認(rèn)可的,能夠找出更多潛伏在冰山下、不為人知的兒童性虐惡性事件,但是它現(xiàn)在更需要思考的是,如何在執(zhí)行“科技向善”的同時(shí),做好與隱私安全之間的平衡。
這就相當(dāng)于高空走繩,只有找到那個(gè)平衡點(diǎn),蘋果才能把CSAM項(xiàng)目很好地繼續(xù)實(shí)施下去。
最后,記得關(guān)注微信公眾號(hào):鎂客網(wǎng)(im2maker),更多干貨在等你!
硬科技產(chǎn)業(yè)媒體
關(guān)注技術(shù)驅(qū)動(dòng)創(chuàng)新
