香港司法機構最近對使用生成式人工智能的指引,允許在法庭內使用人工智能,同時也對法律界別使用這些工具的陷阱提供有用參考。
ChatGPT的熱潮已經持續了一段時間。在2024年7月26日,香港司法機構發布了使用生成式人工智能 (generative AI) 的指引。《使用生成式人工智能的指引》 提醒法官在使用這些新科技的注意事項。然而,它也包含了在法律領域使用 ChatGPT 等生成式人工智能工具的簡單摘要。
提到法官使用人工智能進行工作,可能會引起大眾關注。這是否意味著人工智能現在正裁決案件?根據指引,這是絕不容許。法官必須「獨立和個人地」 (independently and personally) 做出決定,任何使用人工智能的方式都只能支持他們的工作。
指引涵蓋了在法律範疇使用這些科技的技術和實務層面,例如人工智能聊天機器人 (AI chatbots)。它還包括了人工智能相關術語的詞匯,供那些仍在試圖理解這些工具的人參考。
人工智能在法律領域中的限制
指引簡單總結了使用生成式人工智能以解決法律問題的幾個主要問題:
- 虛構案例、引用或引述不存在的法律、文章或法律文本 – 這風險是因為大型語言模型 (large language models) 可以產生「幻覺」(hallucinate)
- 提供有關法律或其如何適用的錯誤或誤導性資訊
- 犯上事實錯誤
- 即使資訊不準確,但被問及信息是否準確時,也會確認
這些缺陷對法律從業人士和訴訟人士同樣需要警惕。特別對前者而言,使用虛構的案例和不準確的資訊誤導法庭是專業失當行為。而這種情況比想象中更常見。2023年,兩名美國律師在一宗航空案件提交了從ChatGPT中獲得的虛假法庭案例。2024年,一名加拿大律師在一宗家庭案件中使用ChatGPT引用了中不存在的兩個案例。兩次事件中,律師都面臨了嚴重的專業指控。
保密問題
正如其名,人工智能具有學習的能力。在一些工具中,例如聊天機器人,演算法 (algorithm) 可能會從用戶輸入和提示中學習。因此,輸入機密資料可能會導致這些信息泄漏給工具的其他用戶。2003年,三星員工在使用該工具時不慎向 ChatGPT 洩露了公司機密,包括源代碼和內部會議。指引也警告在這種情況下違反保密責任的風險。
還有甚麼用途?
儘管存在許多缺陷,生成式人工智能對律師來說仍然相當有用。指引對在法律環境中使用這些工具建議了四個用途:
- 總結資訊
- 演講寫作
- 法律翻譯
- 行政工作,例如起草信件
然而,用家必須保持看門人的角色。此外,目前亦不推薦在法律分析中使用人工智能。
香港法院確認生成式人工智能的重要性是向正確方向邁出了重要一步。最近的指引不僅對法官,對香港的律師亦相當有價值。
陳偉志大律師
香港大律師,Archbold Hong Kong 公共衛生特約編輯,大律師公會刑事法律與程序專業委員會委員,專注於醫療,科技及刑事法律。