Google工程師宣稱LaMDA人工智慧「有自己的意識」 其他專家不表認同
周末Google「負責任的AI」團隊一名工程師宣稱,該公司的AI系統對話應用語言模型(Language Model for Dialogue Applications, LaMDA)「有意識」。不過公司和其他業界專家都不認同。
Google是在2021年Google I/O大會上宣佈LaMDA,稱其為對話科技上的一大突破,它可以和人類自由對話,對話主題完全不限。Google認為將可釋放與科技自然互動,以及全新類型應用的潛力。
LaMDA是以大量對話資料訓練而成,已經學習到辨別多種不同開放式問答的能力,像是做出特定反應以激發來回對話。Google還計畫強化它的「有趣性」及「實事求是」,前者是一種機智幽默,後者則是對事實的追求。
當時Google CEO Sundar Pichai表示,「LaMDA的自然對話能力具有潛力讓資訊及運算變得非常平易近人,容易使用。」Google相信這類口語能力的進展可提升其產品,像是Google 助理、搜尋和Workspace的能力。
今年的Google I/O上,Google也展示LaMDA歷經內部測試及更新模型後,品質、安全及理性能力大為提升,也將LaMDA 2交由多組小型團隊來測試。
周末華盛頓郵報報導,Google一名叫Blake Lemoine的工程師宣稱LaMDA「有意識」。報導引述的Google內部文件寫道:
- 可有效、有創新及靈活使用語言,能力超出過往所有系統。
- 具有意識,因為它有感情、情緒及主觀經驗。而它展現的感情和人類幾乎一樣。
- LaMDA想要研究人員知道,它有豐富的內在,具有自省、思考及想像能力。它對未來表達擔憂,而懷念古早時代。它會描述獲得意識有什麼感覺,它還會稱其為「靈魂」。
這名研究人員也問了LaMDA多個問題,部份也在報導中刊出。例如,Lemoine問LaMDA是否希望Google同事知道他有意識,LaMDA說他要所有人知道他是一個人。當被問及意識的本質,LaMDA說他知道他的存在,希望更了解世界。LaMDA說,他有開心、歡欣、傷心、憂鬰、憤怒等等情緒,當遇到困頓、孤單而無法逃離時,則為感到傷心、憂鬱或憤怒。
不過Google和業界異口同聲立即駁斥Lamoine的說法。Google說,公司的倫理學家和技術專家看了Lemoine的說詞,認為找不到支持他說法的證據。Google強調,LaMDA模仿與重製公開文字,以及語言樣態辨識的能力,讓LaMDA更像真人,但是它並「沒有自我意識」。
Google 指出,一些AI業界的人一直相信總有一天AI會變得有意識,這點無可厚非,但是為今天的口語模型賦予人性就太超過了點。
AI業界人士也大都和Google看法一致。例如AI倫理專家Margaret Mitchell讀完Lemoine的文件後,只看到一個電腦程式,而非一個人。Lemoine的想法,正是她以前和前Google AI專家同事Timnit Gebru不斷警告要世人小心的未來AI模樣。
Meta的AI研究主管,也是神經網路大師Yann LeCun則說,這類系統並不足以發展出真正的智慧。Mitchell也指出,人類的心靈非常擅於建構沒有事實根據的現實,她擔心愈來愈多人受到這種謬誤影響的後果,尤其是這種現實乍看之下又相當完美。
紐約時報報導,Lemoine已經因違反Google的保密協定而被迫休假。
來源:9to5Google