谷歌公司近日宣布了一項重要舉措,推出了一款名為SAIF的風險評估工具,以幫助人工智能開發者和組織更好地評估其安全態勢。該工具旨在識別潛在風險,并指導實施更強的安全措施。
SAIF是谷歌去年發布的安全人工智能框架,它不僅分享了最佳實踐,還提供了一個安全設計的框架。為了推廣這一框架,谷歌還成立了安全人工智能聯盟(CoSAI)。
據悉,SAIF風險評估工具以問卷形式運行,用戶回答后會生成定制化的檢查清單。該工具涵蓋了AI系統的多個主題,包括訓練、調優、評估,以及對模型和數據集的訪問控制等。
用戶在完成問卷后,工具會立即生成一份報告,突出AI系統面臨的具體風險,如數據中毒、提示注入等,并附上詳細解釋及建議的緩解措施。
用戶還可以通過互動SAIF風險地圖,了解在AI開發過程中如何引入與緩解不同的安全風險。