律師濫用 ChatGPT 寫出不存在的案例 美國法官要求律師用 AI 寫文件必須自我揭露並經過人類審查

美國德州一法官要求律師在提交文件前檢查並禁止由產生式AI草擬,以防止訛誤。此舉是為了避免類似一名律師在文件中使用AI助手時,AI提供了虛構的法律判例的情況。這一規定強調AI的能力有限,人類仍是法律審理的關鍵。

愈來愈多人依賴產生式 AI 寫作文件卻不知可能充滿訛誤,包括律師。為防止這種文件擾亂判決,美國德州一名法官要求,他審理的案件的法律文件若是由 ChatGPT 寫成,都必須宣告且必須經過人類審查。

德州聯邦法官 Brantley Starr 要求任何律師在其法庭中呈上的文件,必須確保完全不得由產生式人工智慧草擬,如果有的話則必須經過人類檢查。

上周紐約州一名律師 Steven Schwartz 在撰寫一宗案件文件時讓 ChatGPT 幫忙「補充了法律研究」。這個 AI 助理提供了 6 個判例,全部都是杜撰的,後來被對方律師察覺有異才發現此事。 Schwartz 對此「深感抱歉」。但經過全美新聞報導後,法律界人士認為可以讓 ChatGPT 再試一試,不過北德州地方聯邦法院 Starr 法官則認為此風不可長。

他利用此機會立下新規定,並說這是「產生式人工智慧必要認證 (Mandatory Certification) 。」包括 ChatGPT 、 Harvey.AI 或 Google Bard 或任何由產生式 AI 草擬的語言,都需經過人類利用新聞報導或法律資料庫檢查準確性。這項規定涵括「引述、引用資料、改寫的宣稱及法律分析」。此外還需要附上律師簽章表格。

不論是 OpenAI 、微軟或 Google 的 AI 聊天機器人,業者都宣稱可以用來判例或歷史案件的整理及重點摘要,減輕律師作業負擔。但 Starr 法官的規定也突顯 AI 能力的提升,又不夠好到可以完全依賴,人類才是健全法律審理的關鍵。

來源:Techcrunch

發表迴響

關於我們

自 1990 年創刊 UXmaster 雜誌,1991 年獲得美國 LAN Magazine 獨家授權中文版,2006 年獲得 CMP Network Computing 授權,2009 年合併 CMP Network Magazine 獨家授權中文版,2014 年轉型為《網路資訊》雜誌網站,為台灣中小企業協助技術領導者落實企業策略,了解網路規劃及應用,為企業網路應用、管理、 MIS 、 IT 人員必備之專業雜誌網站。


與我們聯絡

加入《網路資訊》雜誌社群

© Copyright 2025 本站版權所有,禁止任意轉載 網路資訊雜誌 / 心動傳媒股份有限公司 聯絡電話:+886 2 29432416

探索更多來自 網路資訊雜誌 的內容

立即訂閱即可持續閱讀,還能取得所有封存文章。

Continue reading

Secret Link