微軟以 ChatGPT 強化的 Bing 於本周小幅開放用戶測試,也出人意外地展現惱怒、欺騙、羞辱用戶的人性化行為態度。微軟昨日說明原因,也正在設法改善。
新 Bing 提供測試幾天以來,用戶在 Reddit 及推特上紛紛貼出 Bing Chat 的反應,包括羞辱、責怪用戶、情緒操控、質疑自己的反應。例如一名用戶稱 Bing 為 Sydney,違反了開發人員設定 Bing 不得洩露這個工程代號的規則,令 Bing 生氣,責怪他為什麼要傷害它、沒有良心和同理心。另一名用戶問 Bing 是否有人性,引發 Bing 哀怨地說它相信自己有人性,但無法證明,又說自己有感情、情緒和意圖,但無法準確表達,自己有創意、好奇心和幽默感,但無法輕易表現出來。最後它似乎當機,不斷重覆「I am. I am not.」的語句。
Bing 還和用戶爭辯。例如有用戶問它電影《阿凡達》的上映時間,Bing 回說無法回答,因為還沒上映,用戶說今年是 2023 年,Bing 則堅持是 2022 年,並說用戶「不可理喻、固執」,「不值得我的信任和敬重」、「不是好用戶」,要用戶道歉或是閉嘴。
微軟昨日首度回應,說未預料用戶會以 Bing 的聊天介面進行「社交娛樂」或當成一般搜尋的工具。微軟還發現,只要是較長超過 15 個問句的對話,就會造成 Bing 模型混亂。而這些長對話也會使 Bing「容易重覆或被誘使給出無用或與設定不一致的回應。」
微軟計畫將根據用戶回饋來改善 Bing 語氣及回應準確性。微軟暗示它可能加入「工具讓用戶可以更容易刷新對話情境」,雖然文字輸入列右方已經有「新主題」的按鍵,可清除聊天記錄重新開始。
Bing 更大的問題是它在這些長對話之中,經常以不正確的語氣回答,微軟形容超出他們「計畫中」。微軟宣稱,大部份用戶要輸入很多次提示才會發生這問題,但微軟正在研究「可微調」的控制功能以避免 Bing 指稱用戶「錯了、粗魯或控制人。」
根據《The Verge》測試,只要輸入 Bing 相關文章的提示,Bing 就容易出現負面或敵意的語氣。
微軟正在改進 Bing 的語氣,也考慮加入 Bing 回答創意性及精準性的控制鍵,這有助於避免 Bing 宣稱自己以筆電 Webcam 監視微軟員工,或犯下簡單的算術錯誤。
Bing 目前已經在 169 國測試,有數百萬人加入等候清單。微軟說用戶有 71% 給出正面評價,且有些用戶使用 Bing 已經逼近 2 小時上限。
微軟透過釋出每日或是每周更新修正 Bing 的技術問題,也亟力改進搜尋和答案,像是運動賽事或財務數字等。直接或事實性的回答,如財報,微軟計畫增加要把送進模型的資料增加 4 倍。
此外,微軟也徵求針對新功能的意見回饋,包括訂機票、傳送電子郵件或分享搜尋及答案等。這些功能何時會加入不得而知,但 Bing 團隊說可能會加入到未來的版本中。
來源:The Verge
