小编的同事最近在上海旁听了一个专利案件,涉案金额5000万+,被告律师有个疑问,竟然当庭将争议焦点问题输入ChatGPT,将AI的回答作为主张证据,关键是还被采纳了。
这波节奏,就是挥刀自宫,自己将自己弄失业的节奏。
法律的生命不在于逻辑,而在于经验。对时代需要的感知、流行的道德和政治理论、对公共政策的直觉,不管你承认与否,甚至法官和他的同胞所共有的偏见对人们决定是否遵守规则所起的作用,都远远大于三段论。法律包含了一个民族许多世纪的发展历史。它不能被当作由公理和推论组成的数学书。
——霍姆斯《普通法》
律师使用AI,得有底线和技巧
正如上述霍姆斯所讲,法律的定位在于推行公序良俗,律师的生命在于经验而不在于技巧。
这点,美国就为我们做出了表率:2024年6月,美国佛罗里达州一位名叫Thomas Grant Neusom的律师,因在法律文件中使用了人工智能工具,面临了律师协会的纪律处分。
随着人工智能技术的迅猛发展,AI工具在法律行业的应用越来越广泛:从法律研究、文书起草到案件分析,AI正在改变律师的工作方式,提高工作效率。然而,佛罗里达这一事件暴露出在享受AI技术带来的便利的同时,法律从业人员也面临着新的挑战和风险。
首先,AI会提供误导。AI大模型,既然能给律师提供强大的辅助作用,也能直接为当事人所用,但是无论AI到底多厉害,仍然还可能会生成虚假或误导性内容,从而引发伦理问题,损害社会公共利益、公共秩序,并可能引起法律纠纷。
其次,AI会泄露当事人隐私。AI也可能会引发数据安全风险等法律纠纷,可能会收集、存储、处理或泄露当事人提供的个人信息、隐私、商业秘密等敏感数据,导致数据安全风险。而保护当事人隐私,是律师要做的首要工作,这点失去了,其余的都是无根之木。
第三,AI的重大问题是算法偏见的可能性,导致量法不均。即人工智能系统由于学习是基于现有公开数据,可能会无意中延续或放大现有的偏见。这种风险在刑事司法等敏感领域尤为突出,因为带有偏见的人工智能可能会影响量刑建议或假释决定。
第四,就业方面看,人工智能具有众多优势,导致人们对法律行业内可能出现的工作岗位流失现象感到担忧。毕竟AI强大的信息整合和对话能力依托于互联网强大的数据库,数据库的海量信息远超出人脑的装载量,所以AI的认知能力普遍高于律师,效率高于律师,AI的智能成本低于律师的人工成本,所以简单标准化的法律服务可能被取代。