OpenAI 在春季發表會上,正式發表了……不是 GPT-5,而是 GPT-4o 。這是 ChatGPT 的 GPT-4 模型的更新版本,OpenAI 技術長 Mira Murati 表示 GPT-4o 的速度更快,並改進了「文字、影像和音訊的處理能力」。這個模型將對所有用戶免費開放,付費用戶將繼續「擁有最多五倍於免費用戶的容量限制」
根據 OpenAI 部落格的文章表示,OpenAI 表示 GPT-4o 的功能將「逐步推出」,但其文字和影像能力今天將首先在 ChatGPT 上線。
OpenAI 執行長 Sam Altman 在 X(Twitter) 上貼文表示這是個「原生多模態模型」,這意味著該模型可以生成內容或理解語音、文字或影像的指令。想要試用 GPT-4o 的開發者將可以使用 API,這個 API 的價格是 GPT-4 Turbo 的一半,速度則快兩倍。
新模型的一部分功能將加入到 ChatGPT 的語音模式中。這款應用將能像電影《雲端情人》中的語音助理一樣,即時回應並觀察周圍的世界。目前的語音模式較為有限,每次只回應一個提示,而且只能處理所聽到的內容。
Sam Altman 在直播活動後的部落格文章中回顧了 OpenAI 的發展軌跡。他表示,公司最初的願景是「為世界創造各種利益」,但他也承認這一願景已經有所改變。 OpenAI 因未開源其先進的 AI 模型而受到批評,Altman 似乎在表示公司現在的重點是通過付費 API 向開發者提供這些模型,讓第三方來創造。「現在看來我們將創造 AI,然後讓其他人用它來創造各種我們都能受益的驚人事物。」他說。
