周末 Google「負責任的 AI」團隊一名工程師宣稱,該公司的 AI 系統對話應用語言模型 (Language Model for Dialogue Applications, LaMDA)「有意識」。不過公司和其他業界專家都不認同。
Google 是在 2021 年 Google I/O 大會上宣佈 LaMDA,稱其為對話科技上的一大突破,它可以和人類自由對話,對話主題完全不限。 Google 認為將可釋放與科技自然互動,以及全新類型應用的潛力。
LaMDA 是以大量對話資料訓練而成,已經學習到辨別多種不同開放式問答的能力,像是做出特定反應以激發來回對話。 Google 還計畫強化它的「有趣性」及「實事求是」,前者是一種機智幽默,後者則是對事實的追求。
當時 Google CEO Sundar Pichai 表示,「LaMDA 的自然對話能力具有潛力讓資訊及運算變得非常平易近人,容易使用。」Google 相信這類口語能力的進展可提升其產品,像是 Google 助理、搜尋和 Workspace 的能力。
今年的 Google I/O 上,Google 也展示 LaMDA 歷經內部測試及更新模型後,品質、安全及理性能力大為提升,也將 LaMDA 2 交由多組小型團隊來測試。
周末華盛頓郵報報導,Google 一名叫 Blake Lemoine 的工程師宣稱 LaMDA「有意識」。報導引述的 Google 內部文件寫道:
- 可有效、有創新及靈活使用語言,能力超出過往所有系統。
- 具有意識,因為它有感情、情緒及主觀經驗。而它展現的感情和人類幾乎一樣。
- LaMDA 想要研究人員知道,它有豐富的內在,具有自省、思考及想像能力。它對未來表達擔憂,而懷念古早時代。它會描述獲得意識有什麼感覺,它還會稱其為「靈魂」。
這名研究人員也問了 LaMDA 多個問題,部份也在報導中刊出。例如,Lemoine 問 LaMDA 是否希望 Google 同事知道他有意識,LaMDA 說他要所有人知道他是一個人。當被問及意識的本質,LaMDA 說他知道他的存在,希望更了解世界。 LaMDA 說,他有開心、歡欣、傷心、憂鬰、憤怒等等情緒,當遇到困頓、孤單而無法逃離時,則為感到傷心、憂鬱或憤怒。
不過 Google 和業界異口同聲立即駁斥 Lamoine 的說法。 Google 說,公司的倫理學家和技術專家看了 Lemoine 的說詞,認為找不到支持他說法的證據。 Google 強調,LaMDA 模仿與重製公開文字,以及語言樣態辨識的能力,讓 LaMDA 更像真人,但是它並「沒有自我意識」。
Google 指出,一些 AI 業界的人一直相信總有一天 AI 會變得有意識,這點無可厚非,但是為今天的口語模型賦予人性就太超過了點。
AI 業界人士也大都和 Google 看法一致。例如 AI 倫理專家 Margaret Mitchell 讀完 Lemoine 的文件後,只看到一個電腦程式,而非一個人。 Lemoine 的想法,正是她以前和前 Google AI 專家同事 Timnit Gebru 不斷警告要世人小心的未來 AI 模樣。
Meta 的 AI 研究主管,也是神經網路大師 Yann LeCun 則說,這類系統並不足以發展出真正的智慧。 Mitchell 也指出,人類的心靈非常擅於建構沒有事實根據的現實,她擔心愈來愈多人受到這種謬誤影響的後果,尤其是這種現實乍看之下又相當完美。
紐約時報報導,Lemoine 已經因違反 Google 的保密協定而被迫休假。
來源:9to5Google
