近日,meta公司首席執(zhí)行官馬克·扎克伯格曾懷揣夢想,誓言要將通用人工智能(AGI)——即能夠勝任人類所有任務(wù)的人工智能——推向大眾。然而,meta最新發(fā)布的政策文件卻透露出,這家科技巨頭在某些特定情境下,可能會對其內(nèi)部研發(fā)的高性能AI系統(tǒng)實施發(fā)布限制。
這份名為“前沿人工智能框架”的文件,詳細(xì)闡述了meta認(rèn)定的兩種發(fā)布風(fēng)險極高的AI系統(tǒng)類型:“高風(fēng)險”系統(tǒng)與“關(guān)鍵風(fēng)險”系統(tǒng)。據(jù)meta定義,這兩類系統(tǒng)均具備協(xié)助實施網(wǎng)絡(luò)攻擊、化學(xué)攻擊及生物攻擊的能力。其中,“關(guān)鍵風(fēng)險”系統(tǒng)的威脅尤為嚴(yán)重,可能導(dǎo)致在擬部署環(huán)境中無法控制的災(zāi)難性后果,而“高風(fēng)險”系統(tǒng)雖然也能使攻擊更為便捷,但其穩(wěn)定性和可靠性相對較低。
meta在文件中列舉了具體的攻擊場景,諸如對企業(yè)級環(huán)境進(jìn)行自動化入侵,以及高影響力生物武器的擴(kuò)散等,并坦言這些案例遠(yuǎn)非詳盡無遺,但它們是meta認(rèn)為最為緊迫,且最有可能因發(fā)布強大AI系統(tǒng)而直接觸發(fā)的事件。在評估系統(tǒng)風(fēng)險時,meta并未單純依賴實證測試,而是綜合了內(nèi)部及外部研究人員的意見,并經(jīng)由高級別決策者進(jìn)行審慎審查。meta指出,當(dāng)前的風(fēng)險評估科學(xué)尚不足以提供明確的量化指標(biāo),以確定系統(tǒng)的風(fēng)險性。
針對被判定為“高風(fēng)險”的系統(tǒng),meta將限制其在內(nèi)部的訪問權(quán)限,并在實施風(fēng)險緩解措施,將風(fēng)險降至中等水平之前,不予發(fā)布。而對于“關(guān)鍵風(fēng)險”系統(tǒng),meta則將采取未公開的安全防護(hù)措施,防止系統(tǒng)被非法獲取,并暫停開發(fā),直至系統(tǒng)危險性得以降低。
meta強調(diào),“前沿人工智能框架”將隨著AI領(lǐng)域的發(fā)展而不斷演進(jìn)。本月,meta還承諾在法國人工智能行動峰會上提前發(fā)布該框架,這被視為對公司“開放”開發(fā)系統(tǒng)策略所受批評的一種回應(yīng)。meta一直致力于將人工智能技術(shù)公開提供(盡管并非傳統(tǒng)意義上的開源),這與將系統(tǒng)置于API背后的OpenAI等公司形成了鮮明對比。
meta在文件中明確表示:“我們堅信,在權(quán)衡開發(fā)與部署先進(jìn)人工智能的利弊時,有可能找到一種方式,既能保留該技術(shù)對社會的益處,又能將風(fēng)險控制在適當(dāng)水平,從而將其安全地推向社會?!?/p>