“AI律師”案例造假引發(fā)司法信任危機
近日,美國懷俄明州地方法院法官凱利?蘭金下令,要求一律師事務所的律師解釋為何在法庭文件中引用虛假案例,并說明為何不應受到制裁或紀律處分。這已是2023年以來第三起AI生成(捏造)法律文件引發(fā)爭議的公開案件——司法系統(tǒng)的權威性正遭遇AI技術浪潮的沖擊。
AI幻覺制造虛假案例,律師事務所陷入尷尬
案件起源于2023年,涉及沃爾瑪和捷森電子自行車公司(Jetson Electronic Bikes)。原告是一名女子、她的丈夫及四名未成年子女,他們指控捷森公司生產(chǎn)的一款懸浮滑板的鋰離子電池發(fā)生故障并起火,導致他們的住宅被燒毀,多名家庭成員嚴重受傷。
在今年1月,原告方律師向法院提交了一份“排除動議”,請求法院排除某些證據(jù)或論點。然而,法官蘭金發(fā)現(xiàn),該文件引用的多個案例根本不存在?!斑@些案例無法通過Westlaw的編號識別,法院也無法在懷俄明州地方法院的電子檔案系統(tǒng)中找到這些案例?!碧m金在判決書中寫道,并要求所有涉及的律師“詳細解釋該動議及虛假案例的生成方式”,以及他們在起草或監(jiān)督該動議時的具體角色。
四天后,涉事律師事務所作出回應,稱:“我們內(nèi)部的人工智能平臺在協(xié)助律師起草動議時‘幻覺’生成了這些案例?!痹撀蓭熓聞账硎?,此事件讓他們深感尷尬,并已引發(fā)關于人工智能安全培訓、實施及未來使用的討論和行動?!斑@件事對我們事務所及整個行業(yè)而言都是一個警示,提醒大家在邁入人工智能新時代時,應更加謹慎?!?/p>
特朗普也是AI律師“幻覺”的受害者
近年來,律師越來越多地使用AI工具進行法律研究和文件分析。然而,AI在法律工作中的誤用并非首次引發(fā)爭議。
2022年,一名男子起訴阿維安卡航空公司,稱自己在一次航班上被金屬餐車撞傷。其律師提交的法律文件引用了多個AI編造的案例。然而,在法庭質(zhì)疑這些案例的真實性后,該律師不僅沒有立即承認錯誤,反而試圖狡辯。最終,法院對其處以5000美元罰款。
2024年,特朗普前私人律師科恩在封口費案中,居然提交Google Bard生成的虛假判例,再次引發(fā)關注。盡管法院最終未對涉事律師進行處罰,但這種法官口中“極度不專業(yè)”的行為,導致了特朗普的辯護策略全面受挫。
“這不是技術故障,而是職業(yè)倫理的潰堤?!奔~約大學法律倫理教授Rebecca Roiphe向虎嗅指出,“當律師把事實核查權交給算法,等于放棄了法律人的核心職責。”
AI在法律行業(yè)的未來:機遇與風險并存
盡管事故頻發(fā),AI法律工具的市場仍在狂飆。全球法律科技融資額從2020年的12億美元增至2023年的43億美元,AI法律應用的支持者拋出了效率、成本和技術進化論三大論點:
1.效率革命
文檔處理:HarveyAI可在12分鐘內(nèi)完成合同審查(人工需4小時);
案情預測:Lex Machina通過分析歷史判例,給出勝訴率評估(準確度約78%)。
2.成本殺手
- 英國Allen & Overy律所引入GPT-4后,合同起草成本下降70%;
- 美國LegalZoom利用AI將商標申請服務價格壓至199美元(行業(yè)平均800美元)。
3.技術進化論
“AI幻覺是技術早期階段的必然代價?!狈煽萍脊綬OSS Intelligence創(chuàng)始人Andrew Arruda辯稱,“就像自動駕駛需要累積事故數(shù)據(jù)改進算法,法律AI也需要判例反饋迭代?!?/p>
反對者則認為,目前人工智能技術在法律行業(yè)的應用仍在探索階段,雖然其能夠提高效率,但若不加審查,其“幻覺”生成的錯誤信息可能對律師及其客戶造成嚴重后果。
“年輕律師正在喪失基礎法律檢索能力?!边_維律師事務所合伙人Sarah Reynolds觀察發(fā)現(xiàn),“他們更擅長調(diào)試AI提示詞,卻看不懂《聯(lián)邦證據(jù)規(guī)則》的條文邏輯?!?span data-element="focus" data-focus-id="removeformat">