紐約時報上周引述消息人士報導,OpenAI 去年遭駭客入侵,並竊走部份 AI 資訊,並且還從員工討論區取得關於最新模型的內部討論備忘錄。
OpenAI 是在 2023 年 4 月在公司內部會議中透露這起資安事件。但消息人士指出,駭客僅僅存取了員工討論區,並未波及 OpenAI 存放或開放 AI 演算法和框架的核心系統。
OpenAI 也通知了董事會,但是卻未公告大眾,也沒有向主管機關或是 FBI 通報此事。紐時報導,OpenAI 之所以三緘其口原因是客戶資訊沒有被竊。此外,沒有報告主管機關的理由是,他們相信本案的駭客是一名個人,而不是國家駭客組織。
消息人士指出,儘管公司說這不是資安事件,但一些 OpenAI 員工擔心,攻擊者如果想,可能也偷得了 AI 機密而引發美國國安威脅。
OpenAI 負責確保 AI 符合人類利益的單位 superalignment 團隊當時的主管 Leopold Aschenbrenner 當時也表達對公司 AI 防護機制不足表達憂心。 Aschenbrenner 今年四月因為將內部文件分享給了三名外部研究人員尋求「回饋意見」而遭 OpenAI 開除,他對此表達不滿。他說 OpenAI 員工和外部專家交流是常有的事,而且文件中並無任何敏感資訊。他並於 5 月發佈這份文件,並且部份關鍵字遮住以求公評。
紐時報導,根據 Anthropic 和 OpenAI 的研究指出,和 Google 等搜尋引擎相比,AI「並沒有更危險」。不過外界相當重視 AI 公司的安全防護能力。以 OpenAI 用戶規模,一旦它蒐集的用戶資訊或內容遭到駭客竊取,將是一大災難。這也突顯 AI 業者在駭客眼中是多麼誘人的資訊寶藏。美國國會正在尋求立法,對造成社會危害的 AI 技術供應商處理重罰。
來源:Mashable
