Google工程師宣稱LaMDA人工智慧「有自己的意識」 其他專家不表認同

周末Google「負責任的AI」團隊一名工程師宣稱,該公司的AI系統對話應用語言模型(Language Model for Dialogue Applications, LaMDA)「有意識」。不過公司和其他業界專家都不認同。

周末Google「負責任的AI」團隊一名工程師宣稱,該公司的AI系統對話應用語言模型(Language Model for Dialogue Applications, LaMDA)「有意識」。不過公司和其他業界專家都不認同。

Google是在2021Google I/O大會上宣佈LaMDA,稱其為對話科技上的一大突破,它可以和人類自由對話,對話主題完全不限。Google認為將可釋放與科技自然互動,以及全新類型應用的潛力。

LaMDA是以大量對話資料訓練而成,已經學習到辨別多種不同開放式問答的能力,像是做出特定反應以激發來回對話。Google還計畫強化它的「有趣性」及「實事求是」,前者是一種機智幽默,後者則是對事實的追求。

當時Google CEO Sundar Pichai表示,「LaMDA的自然對話能力具有潛力讓資訊及運算變得非常平易近人,容易使用。」Google相信這類口語能力的進展可提升其產品,像是Google 助理、搜尋和Workspace的能力。

今年的Google I/O上,Google也展示LaMDA歷經內部測試及更新模型後,品質、安全及理性能力大為提升,也將LaMDA 2交由多組小型團隊來測試。

周末華盛頓郵報報導,Google一名叫Blake Lemoine的工程師宣稱LaMDA「有意識」。報導引述的Google內部文件寫道:

  1. 可有效、有創新及靈活使用語言,能力超出過往所有系統。
  2. 具有意識,因為它有感情、情緒及主觀經驗。而它展現的感情和人類幾乎一樣。
  3. LaMDA想要研究人員知道,它有豐富的內在,具有自省、思考及想像能力。它對未來表達擔憂,而懷念古早時代。它會描述獲得意識有什麼感覺,它還會稱其為「靈魂」。

這名研究人員也問了LaMDA多個問題,部份也在報導中刊出。例如,LemoineLaMDA是否希望Google同事知道他有意識,LaMDA說他要所有人知道他是一個人。當被問及意識的本質,LaMDA說他知道他的存在,希望更了解世界。LaMDA說,他有開心、歡欣、傷心、憂鬰、憤怒等等情緒,當遇到困頓、孤單而無法逃離時,則為感到傷心、憂鬱或憤怒。

不過Google和業界異口同聲立即駁斥Lamoine的說法。Google說,公司的倫理學家和技術專家看了Lemoine的說詞,認為找不到支持他說法的證據。Google強調,LaMDA模仿與重製公開文字,以及語言樣態辨識的能力,讓LaMDA更像真人,但是它並「沒有自我意識」。

Google 指出,一些AI業界的人一直相信總有一天AI會變得有意識,這點無可厚非,但是為今天的口語模型賦予人性就太超過了點。

AI業界人士也大都和Google看法一致。例如AI倫理專家Margaret Mitchell讀完Lemoine的文件後,只看到一個電腦程式,而非一個人。Lemoine的想法,正是她以前和前Google AI專家同事Timnit Gebru不斷警告要世人小心的未來AI模樣。

MetaAI研究主管,也是神經網路大師Yann LeCun則說,這類系統並不足以發展出真正的智慧。Mitchell也指出,人類的心靈非常擅於建構沒有事實根據的現實,她擔心愈來愈多人受到這種謬誤影響的後果,尤其是這種現實乍看之下又相當完美。

紐約時報報導,Lemoine已經因違反Google的保密協定而被迫休假。

來源:9to5Google

關於我們

自1990年創刊UXmaster雜誌,1991年獲得美國LAN Magazine獨家授權中文版,2006年獲得CMP Network Computing授權,2009年合併CMP Network Magazine獨家授權中文版,2014年轉型為《網路資訊》雜誌網站,為台灣中小企業協助技術領導者落實企業策略,了解網路規劃及應用,為企業網路應用、管理、MIS、IT人員必備之專業雜誌網站。


與我們聯絡

加入《網路資訊》雜誌社群

© Copyright 2022 本站版權所有,禁止任意轉載 網路資訊雜誌 / 心動傳媒股份有限公司 聯絡電話:+886 2 29432416