11 月 8 日消息,當地時間 11 月 4 日,在接受《名利場》採訪時,金・卡戴珊談到自己為成為律師而學習的經歷,並自曝因為過度信任 ChatGPT 而在法學考試中落榜。她形容與 ChatGPT 的關係是「有毒的」。
卡戴珊表示,她時常依賴 ChatGPT 來獲取法律建議:「每當我遇到不會的問題,就拍張照發給它,可它總是答錯,害我考試掛科…… 我還會氣得沖它喊,『都是你害的!』」
卡戴珊笑稱,自己有時還會試圖「勸它講道理」,儘管自己也明白此舉徒勞無功:「我會對它說,『你又要讓我掛科了,你難道不覺得該負點責任嗎?』結果它居然回我,『這只是教你要相信自己的直覺。』」
她補充道,雖然 ChatGPT 沒有情感,但人類對它的反應卻十分真實:「我經常截圖發到群里,跟朋友說,『你們看看這傢伙居然敢這樣跟我說話!』」
據外媒 TechCrunch 報道,ChatGPT 等大語言模型常會出現「幻覺」現象:有時會憑空編造答案,而不是承認自己不知道。系統並非判斷對錯,而是基於龐大的數據預測最可能的回答,這也使其在嚴肅領域容易出錯。此前已有律師因使用 ChatGPT 撰寫法律文書而遭處分,因為文中引用的判例根本不存在。
據IT之家此前報道,今年 9 月,美國加州一名律師因為在向州法院提交的上訴文件中使用了 ChatGPT 生成虛假引文,被法院裁定處以 1 萬美元的罰款。法律觀察人士強調,加強對 AI 技術的認知至關重要,因為許多律師尚未充分意識到 AI「幻覺」(hallucination,即編造虛假信息)的風險。
有觀點建議,對誤用 AI 的律師應實施強制性培訓課程,作為預防未來失誤的補救措施。此外,已有擔憂指出,虛假判例不僅出現在律師的文件中,甚至可能被法官在其判決書中引用,表明問題的影響範圍可能遠超執業律師群體。