AI幻覺擾亂法庭,美國律師被重罰
繼上月曝出律師團隊使用AI編造的“虛假判例”提交法庭引發(fā)風(fēng)波后,美國法律界再曝同類丑聞——印第安納州南區(qū)聯(lián)邦治安法官馬克·丁斯莫爾上周裁定,律師拉斐爾·拉米雷斯因在多份法律文書中引用AI生成的虛構(gòu)案例,需繳納1.5萬美元罰款。這一系列事件暴露AI技術(shù)濫用對司法嚴謹性的沖擊,也為法律從業(yè)者敲響“責(zé)任警鐘”。
律師稱“沒想到AI居然會造假”
案件緣起于一場勞資糾紛:工會組織“中中部運營工程師健康與福利基金”指控HoosierVac公司拒絕配合財務(wù)審計,拉米雷斯作為該公司代理律師,在2023年10月提交的辯護狀中引用了一則法官無法檢索到的判例。面對質(zhì)疑,拉米雷斯承認引用錯誤并撤回相關(guān)段落,同時向法庭及對方律師致歉。然而,法官隨后對其經(jīng)手的其他文件展開“徹底審查”,發(fā)現(xiàn)另兩份辯護狀中仍存在“虛構(gòu)判例”。
根據(jù)法庭文件,拉米雷斯解釋稱,他此前曾使用AI處理法律事務(wù)(如起草協(xié)議),但“從未意識到AI可能生成虛假案例及引文”。他聲稱,這些由AI生成的“幻覺引用”包含看似可信的文本摘錄,因此未進一步核實案例真實性。拉米雷斯表示,事后已參加AI法律應(yīng)用繼續(xù)教育課程,并改用“保證不會生成虛構(gòu)案例”的AI工具。
然而,法官丁斯莫爾對“技術(shù)無知”的辯護并不買賬。他在裁決書中指出:“拉米雷斯顯然未對法律條文進行必要的基本調(diào)查。即便付出最微小的努力,他也能發(fā)現(xiàn)這些AI案例純屬虛構(gòu)。AI生成內(nèi)容看似可信,但無法免除律師合理核查的義務(wù)?!彼罱K建議對拉米雷斯處以1.5萬美元罰款,并警告此類行為可能引發(fā)更嚴厲處罰。
法官疾呼“謹慎使用AI工具”
此次事件并非孤例。今年1月,一起針對懸浮滑板制造商及沃爾瑪?shù)匿囯姵厝毕菟髻r案中,律師提交的法庭文件引用8個不存在判例。2月,美國地區(qū)法官凱利要求涉事律師解釋為何不應(yīng)受罰。涉事律師承認“未察覺AI生成案例有誤”,并稱此案是“法律界的警示故事”。
上周,法官蘭金(Judge Rankin)對該案律師團隊作出處罰:一名律師被吊銷“臨時執(zhí)業(yè)許可”,禁止參與案件;其余三人分別被罰款1000至3000美元。蘭金強調(diào),AI工具的使用必須符合律師職業(yè)道德與職業(yè)責(zé)任,“換言之,使用人工智能必須輔以人類智慧的執(zhí)行”。
丁斯莫爾法官在裁決書中特別澄清,其立場“并非否定AI技術(shù)價值或禁止律師使用AI”,他本人甚至是“法律科技應(yīng)用的堅定支持者”。但他將AI比作“電鋸”——雖是有用工具卻具危險性,“使用者必須理解其特性并謹慎操作”。
法律行業(yè)技術(shù)倫理建設(shè)的轉(zhuǎn)折點
隨著生成式AI在法律檢索、文書起草等場景加速滲透,“虛構(gòu)判例”爭議持續(xù)發(fā)酵。支持者認為AI可提升效率,但批評者指出,過度依賴技術(shù)可能導(dǎo)致“核查惰性”,危及司法嚴謹性。法律倫理專家指出,類似事件暴露出兩大問題:一是部分從業(yè)者對AI技術(shù)局限性的認知盲區(qū);二是行業(yè)尚未建立AI輔助辦案的標準化審查流程。
“技術(shù)革新不能成為失職借口,”一名法律科技研究員表示,“律師需意識到,AI是‘助手’而非‘替代者’,任何技術(shù)應(yīng)用必須置于職業(yè)責(zé)任的框架之下?!蹦壳?,美國多州律師協(xié)會已著手制定AI使用指南,要求從業(yè)者接受專項培訓(xùn),并對AI生成內(nèi)容進行交叉驗證。這場由“AI幻覺”引發(fā)的司法信任危機,或?qū)⒊蔀橥苿臃尚袠I(yè)技術(shù)倫理建設(shè)的關(guān)鍵轉(zhuǎn)折點。