微軟本周推出一組的可信賴 AI (trustworthy AI) 安全工具,號稱可解決 AI 安全、隱私和穩定性的問題,加速負責任 AI 的開發與部署。
這組工具是為了因應 AI 採用日益普及,卻也導致威脅問題叢生而開發。新工具涵括了 Azure OpenAI 服務的機密推論、強化 GPU 安全性,以及評估 AI 輸出的工具。
第一組工具是 Azure AI 內容安全方案中的修正 (correction) 功能,目的為解決 AI 幻覺問題。當這工具偵測到 AI 回應內容和 gounding 上下文不一致時,系統會將資訊回饋給 AI 系統。有了新的資訊,AI 第二次嘗試就會做得更好。
另外,微軟也擴大嵌入式內容安全工具,直接在裝置上執行 AI 安全檢查。這功能對 PC 版 Copilot 尤其有用,因為它是把 AI 整合在 OS 中。
微軟打出信賴 AI 品牌,反映了企業和大眾對先進的 AI 系統仍有所保留,反映微軟希望扮演負責任 AI 領頭羊角色的意圖。分析師相信,微軟強打重視 AI 安全的形象牌,有助於在激烈競爭的市場中,贏得企業的信任。目前已有美國紐約市教育局、南澳教育部,他們已使用 Azure AI 內容安全來開發適合的 AI 教學工具。
不過也有專家認為,這麼多工具能否有效因應還有待觀察,和所有其他技術一樣,壞人永遠會比好人跑得更快。
Google 上周也發表了號稱整合新方法減少 AI 幻覺問題。這二種方法分別是檢索交錯生成 (Retrieval-Interleaved Generation, RIG) 及檢索增強生成 (Retrieval-Augmented Generation, RAG) 。 Google 宣佈以這種方法開發出的模型 DataGemma 。
來源:VentureBeat
