大模型的安全問題正在悄悄逼近。
就在全球都在因大模型而狂歡時(shí),大模型的安全問題也隨之來臨。
不過,科技發(fā)展向來是一個(gè)不可逆的過程。
即便在GPT-4發(fā)布后不久,就有上千位科學(xué)家、科技大佬在去年3月簽署了警惕AI發(fā)展的公開信,之后又有OpenAI、DeepMind、Anthropic三大大模型團(tuán)隊(duì)掌門人聯(lián)合300多位科學(xué)家再度署名發(fā)布警惕AI發(fā)展的公開信,但這并沒有改變AI大勢(shì)。
2023年全球科技領(lǐng)域的關(guān)鍵詞是“百模大戰(zhàn)”,2024年這一關(guān)鍵詞已經(jīng)是“大模型降價(jià)”。
前者揭示了關(guān)于大模型的技術(shù)競爭水深火熱,后者則預(yù)示著大模型產(chǎn)業(yè)落地已經(jīng)正式啟航。
然而,就在科技巨頭大模型產(chǎn)品發(fā)布最集中、連在大模型領(lǐng)域研究略顯滯后的蘋果也上車了大模型的這個(gè)月里,大模型奔向市場(chǎng)時(shí)的安全問題悄然顯現(xiàn)。
01
微軟“延畢”AI核心功能
還記得在前不久的微軟Build大會(huì)上,微軟用來硬剛蘋果Mac的“Copilot+PC”嗎?
當(dāng)時(shí)在發(fā)布會(huì)上關(guān)于人工智能最亮眼的一項(xiàng)功能是一個(gè)名為“Recall”的,查找你之前在電腦上的任意操作的功能。
Recall的工作原理是,在用戶授權(quán)后,PC通過本地的端側(cè)大模型以快照形式記憶用戶每天電腦的使用情況,并在你想要回溯的時(shí)候,通過滾動(dòng)時(shí)間軸找到當(dāng)時(shí)的操作頁面。
有點(diǎn)類似辦公軟件中的歷史版本回溯功能,不同之處在于,基于大模型,現(xiàn)在你可以對(duì)任意軟件、任意時(shí)間點(diǎn)進(jìn)行快速回溯。
從后來微軟官方博客中公布和外媒曝出的消息來看,微軟這一功能此前是在內(nèi)部秘密研發(fā),正式發(fā)布時(shí)甚至只在微軟內(nèi)部進(jìn)行了測(cè)試,沒有在Windows Insider進(jìn)行公測(cè)。
Windows Insider計(jì)劃是微軟2014年10月為Windows 10推出的一個(gè)公測(cè)計(jì)劃,這一計(jì)劃一直被微軟沿用至今,發(fā)展成了微軟Windows系統(tǒng)功能更新的一個(gè)公測(cè)社區(qū)。
或許是AI PC勢(shì)頭太猛,微軟有些著急,本該先在Windows Insider公測(cè)的Recall功能,在今年的Build大會(huì)上直接被微軟拿來做壓軸功能,甚至官宣了要在6月18日隨“Copilot+PC”一并上線。
微軟Build大會(huì)舉辦于今年5月,意外發(fā)生在6月13日。
這一天,美國眾議院國土安全委員會(huì)召開了一場(chǎng)關(guān)于網(wǎng)絡(luò)安全的聽證會(huì),微軟是出席單位之一,微軟總裁Brad Smith稱,“微軟安全未來計(jì)劃(SFI)是比公司在人工智能布局更重要的工作?!?/span>
值得注意的是,微軟SFI計(jì)劃的提出是在2023年11月,而Recall立項(xiàng)是在微軟安全改革計(jì)劃SFI提出之前,這就讓Recall陰差陽錯(cuò)地跳過了SFI,秘密研發(fā)了下去,直到最終發(fā)布。
不過,人工智能的安全問題早在2023年年初就已經(jīng)在硅谷得到了重視,甚至已經(jīng)上升為一個(gè)重要的社會(huì)議題,Recall功能在官宣發(fā)布后,外媒關(guān)于Recall帶來的隱私安全問題進(jìn)行了頗多質(zhì)疑。
這就有了微軟6月13日在官方博客上表示,Recall將不會(huì)隨“Copilot+PC”在6月18日上線,而是先進(jìn)入到Windows Insider公測(cè)階段。
微軟推遲Recall正式上線,嚴(yán)格意義上來說,算是微軟一次在功能上線前的緊急叫停,而接下的公測(cè),一方面可以讓微軟看到這一功能是否存在安全漏洞,另一方面也可以通過公測(cè)看到社會(huì)層面對(duì)于這一功能的真實(shí)反饋。
要知道,在Recall出現(xiàn)之前,AI PC稱得上“大模型”的功能還是智能語音、協(xié)同辦公,以及系統(tǒng)層面的改善,沒有一個(gè)拿得出手、顛覆用戶觀感的新功能。
美國社會(huì)和政府層面給微軟的壓力,讓微軟對(duì)這一功能的隱私安全問題再次有了擔(dān)憂,“延畢”Recall,成了緩解壓力的一個(gè)折中的手段。
02
蘋果AI不敢進(jìn)歐盟
同樣遭受到質(zhì)疑的,還有美國另一家科技巨頭,蘋果。
蘋果原本在大模型的領(lǐng)域研發(fā)上并不激進(jìn),甚至略顯滯后,在今年WWDC 2024上官宣啟用大模型,搞出一個(gè)Apple Intelligence時(shí),還是借了OpenAI的助力。
與微軟類似的是,蘋果也是在大模型上線之前,官宣拿到緊急撤退自查。
就在蘋果對(duì)外發(fā)布iOS 18及Apple Intelligence后不久,有消息傳出,Apple Intelligence今年或?qū)⒉粫?huì)在歐盟地區(qū)上線。
隨后,蘋果證實(shí)了這一消息,并稱,之所以如此,是因?yàn)閷?duì)歐盟DMA要求蘋果允許第三方公司與其服務(wù)可以進(jìn)行互聯(lián)互通、互操作的擔(dān)憂。
這就意味著,要想進(jìn)入歐盟,蘋果就無法完全將Apple Intelligence的隱私安全性掌握在自己的手中,這是蘋果所不能容忍的。
這里值得一提的是歐盟的DMA。
DMA,即《數(shù)字市場(chǎng)法案》,是歐盟在2024年3月7日正式落地生效的、用于狙擊科技巨頭壟斷問題的一項(xiàng)法案。
該項(xiàng)法案將蘋果、谷歌、微軟、亞馬遜等一眾科技巨頭定義為“gatekeeper”,要求這些科技巨頭在數(shù)據(jù)訪問、數(shù)據(jù)共享、隱私保護(hù)在內(nèi)的22項(xiàng)核心產(chǎn)品與服務(wù)上進(jìn)行整改。
蘋果此前曾允許將第三方瀏覽器設(shè)置為默認(rèn)瀏覽器,正是為了應(yīng)對(duì)這一法案做出的調(diào)整。
嚴(yán)格意義上來說,DMA針對(duì)的是科技巨頭的壟斷問題,但蘋果一直賴以維系的是閉環(huán)生態(tài)為硬件產(chǎn)品帶來的干凈體驗(yàn),類似默認(rèn)瀏覽器這類權(quán)限的逐步開放,意味著蘋果閉環(huán)生態(tài)在歐盟將被打開一個(gè)缺口。
尤其是今年蘋果將大模型提上日程,Apple Intelligence進(jìn)入落地階段,在首限D(zhuǎn)MA的同時(shí),歐盟還有著全球最嚴(yán)格的數(shù)據(jù)保護(hù)條例GDPR。
在此之前,包括蘋果、谷歌、微軟等一眾科技巨頭,都曾在歐盟因數(shù)據(jù)安全和隱私問題遭受過數(shù)億,乃至數(shù)十億歐元的巨額罰款。
就在今年3月,谷歌就曾在法國因違規(guī)使用當(dāng)?shù)匦侣労统霭鏅C(jī)構(gòu)的數(shù)據(jù)訓(xùn)練大模型,拿到了一張2.5億歐元(約19.7億元)的罰單。
Apple Intelligence今年不進(jìn)歐盟,除了受限D(zhuǎn)MA法案,顯然也有著隱私安全因素的考量。
03
高效、安全難兼得
一個(gè)全新業(yè)態(tài)到來之時(shí),初期的野蠻生長往往是一種必然,大模型當(dāng)然也不例外。
從以深度學(xué)習(xí)為計(jì)算范式的人工智能,到如今以生成式AI、大模型為計(jì)算范式的人工智能,我們看到了人工智能已經(jīng)是一個(gè)不可逆的趨勢(shì)。
然而,隨著大模型進(jìn)入產(chǎn)業(yè),尤其是在進(jìn)入消費(fèi)市場(chǎng)時(shí),面對(duì)數(shù)億十億計(jì)、沒有專業(yè)的隱私安全分析能力的普通消費(fèi)者,如何在標(biāo)準(zhǔn)、規(guī)范,乃至政策監(jiān)管層面為普通消費(fèi)者擋去這一時(shí)代洪流下的安全隱患,就成了一個(gè)最具挑戰(zhàn)的任務(wù)。
從這個(gè)角度來看,無論是微軟Recall在美國社會(huì)層面遭受到的安全質(zhì)疑,還是蘋果Apple Intelligence進(jìn)入歐盟受到的阻力,都算是一件好事。
最近還有另外兩件事兒,鋅產(chǎn)業(yè)從中看到了企業(yè)對(duì)于大模型的隱私安全在技術(shù)側(cè)和產(chǎn)品側(cè)的主動(dòng)防御。
其一是前OpenAI聯(lián)合創(chuàng)始人、首席科學(xué)家Ilya Sutskever最近離職創(chuàng)業(yè)了,做了一家名為Safe Super intelligenceinc(SSI)的公司。
此前,OpenAI內(nèi)部一直分為激進(jìn)派和保守派兩大派系,激進(jìn)派認(rèn)為應(yīng)該通過資本手段全力推進(jìn)大模型產(chǎn)品迭代演進(jìn),保守派則認(rèn)為更應(yīng)關(guān)注大模型的安全性和可解釋性。
Ilya是OpenAI保守派的代表人物,在去年那場(chǎng)宮斗大戲后,Ilya最終在今年5月官宣離職,隨后如愿拉團(tuán)隊(duì)單獨(dú)成立了一個(gè)聚焦大模型安全的公司,Ilya稱,新團(tuán)隊(duì)將只關(guān)注安全的超級(jí)智能。
由這一理念驅(qū)動(dòng)的大模型技術(shù)研究路徑,以及未來可能由SSI或受SSI影響的其他團(tuán)隊(duì)創(chuàng)造出的、將隱私安全貫徹到超級(jí)智能體中的方法論,將會(huì)成為大模型未來產(chǎn)業(yè)化過程中的一項(xiàng)配套基礎(chǔ)設(shè)施。
其二是在今年HDC 2024上,華為官方提到了搭載盤古大模型的純血鴻蒙系統(tǒng)的一個(gè)安全理念——從以往的授權(quán)應(yīng)用權(quán)限,調(diào)整為授權(quán)數(shù)據(jù)權(quán)限。
以某個(gè)APP注冊(cè)時(shí)需要使用用戶的圖庫權(quán)限,現(xiàn)在在純血鴻蒙上則只需要提供某一張圖片的權(quán)限,提供這張圖片的使用權(quán)。
另外,在分享某個(gè)文件給好友時(shí),通過加密,這一文件將只有被分享好友可以看到,二次轉(zhuǎn)發(fā)后,其他人也無法看到文件內(nèi)容。
作為新一代生產(chǎn)力工具,大模型帶來的高效性和便利性已經(jīng)不言而喻,對(duì)于這一技術(shù)的學(xué)習(xí)、應(yīng)用,也成了一種“不得不”。
微軟和蘋果遇到的困境為所有人提了個(gè)醒,如何兼顧大模型的高效性和安全性,將會(huì)是這個(gè)時(shí)代接下來一個(gè)永恒的主題。