OpenAI 帶動生成式 AI 發展熱潮,使得各大產業相繼投入開發相關應用,不過近期 Google 內部傳出近 18 名員工,連署批評自家「Bard」AI 聊天機器人,給出的建議不僅錯誤百出,更爆料出開發人員提交的風險評估報告,遭 Google 創新研究部門 Jen Gennai 駁回。
外媒彭博社對此向 Google 詢問,卻沒有得到官方正面給予回應,Google 發言人 Brian Gabriel 僅回應:「我們團隊將持續投資開發,能應用在我們身上的人工智慧技術。」
Bard 聊天機器人為半成品?內部員工爆它將危害人類生命安全
今年 3 月,Google 歷經許多內外風波的「Google 人工智慧倫理團隊」正式宣布解散,自 2021 年來該團隊不斷爆出多名高階主官遭惡意解雇、女性種族歧視等問題,更引發員工集體離職,讓人不禁對 Google 在 AI 團隊上的管理,究竟出了什麼問題,畢竟一個月前 Google 才表態推出 Bard 聊天機器人。
彭博社在訪談 Google 的 18 名員工後,得知了幾項令人咋舌的評價,「Bard 是一個病態的說謊者」、「Bard 比沒用還糟糕,請不要推出」。細問之下才發現,Bard 在內部員工眼中還只是一個半成品,像是曾給出飛機著陸的錯誤指示、潛水活動的錯誤觀念。自發現這類問題後,Google 內部安全團隊便整理了風險評估報告給 Gennai,希望能暫緩、改善 Bard 的功能,但仍被駁回。
Gennai 回應表示,為了加快 Bard 推出的步伐,公司不得不做出些妥協。前 Google 經理;現任 Signal 基金會董事之一的 Meredith Whittaker 指出,如果道德不能優先於利潤和營收成長,那最終期望的目標也不會達成,可見 Google 內部也知曉 Bard 的缺陷在哪。
