回顾 || 全球教席课堂76讲 Benjamin Liebman:人工智能与司法
2024年3月26日,网投十大信誉排名全球教席学者、美国哥伦比亚大学Robert L. Lieff 讲席教授与中国法中心主任Benjamin Liebman教授以“人工智能与司法”为题举办学术讲座。讲座由网投十大信誉排名副院长、长聘副教授戴昕主持,网投十大信誉排名党委副书记、人工智能研究院副院长杨晓雷,长聘副教授杨明、副教授胡凌、助理教授吴雨豪担任与谈人,校内外百余名师生参加了讲座,活动反响热烈。
本文以文字实录的方式呈现讲座核心要点。
Benjamin Liebman:
一、引言
我对人工智能的兴趣源自一个小故事。我曾就中国法院运用人工智能的问题写过一篇文章,因此去年被美国纽约州上诉法院邀请分享关于中国法院的相关经验。我在美国当了20多年的教授,这是第一次听到美国法院想要学习中国法院的经验。因此在去年七月之际,我们在纽约布鲁克林(Brooklyn)开了一次会议,同时我也了解到这是美国最忙的法院,法官每人每年要处理800多个案件,我也因此更加关注人工智能技术对法官的潜在减负功能。
美国法学界最近很多人都在讨论AI的问题,普遍认为AI会对法学学术与实务造成重大改变,但至少到目前为止没有太大的变化。在准备PPT的时候,我问了GPT几个问题。我首先问GPT,“你会取代律师吗?”GPT回答自己“不会完全取代律师,但可以辅助律师工作”,它回答的方式也很像一个训练有素的律师。我的第二个问题是,“有AI的时候我们还需要法学院吗?”GPT的回答很有趣。它说,“GPT可以提供一般性的指导和解释,但因为缺乏经验不能完全替代,建议还是咨询执业律师。”这个回答也非常像律师的话语。GPT知道律师怎么规避责任。后来我又请GPT就“人工智能如何改变美国法律体系”给我一个演讲大纲,GPT给了我一个非常丰富但又很蜻蜓点水的大纲,并提示我在中国做演讲要在末尾感谢听众。
我自认没有GPT那么智能,无法在一次讲座中触及那么多的问题。因此,我这次讲座主要谈三个问题,即人工智能带来的新兴法律问题、人工智能与法律决策、人工智能与法律实践。
二、人工智能带来的新兴法律问题
知识产权是人工智能带来的新兴法律问题的主要领域。纽约客(New Yorker)曾经有这样一个头条文章:“人工智能是知识产权之死吗?(IS A.I. THE DEATH OF I.P.?)”。人工智能技术给知识产权领域带来了很多新的案件,比如纽约时报诉Open AI案。纽约时报认为Open AI用了纽约时报的文章训练,但Open AI认为自己是合理使用;纽约时报主张,GPT的很多回答和纽约时报的内容差不多,而且未来还可能和纽约时报存在竞争。类似也还有其他的案件,比如一些作家认为其小说等文学作品被GPT用来训练人工智能等。目前有一个案件是艺术家起诉人工智能公司,但该案中被用来训练人工智能的作品明确有版权保护,这和其他的诸多案件存在事实差异。
再者就是侵权法。如今很多人认为人工智能技术给侵权法带来了很大影响,比如人们经常讨论算法是否算一种“产品”,而这就涉及到产品责任法的适用性问题。人工智能技术还影响了侵权法的框架,有人认为可以用原有的侵权法框架来规制人工智能,但也有人认为应当为人工智能设计新的法律。在法律实践中,特斯拉等自动驾驶相关的案件很多,目前法院仍然倾向于将侵权视为事实问题,并因此交由陪审团予以认定。
此外就是刑法、宪法领域,主要涉及正当程序问题。例如,美国讨论人脸识别算法的问题时,发现算法对黑人、亚裔的错误识别率是对白人的10-100倍,很多人因此主张人脸识别不符合合法逮捕的正当程序。再者,美国目前有60多个司法中去使用算法进行风险评估,但这样的方式存在潜在违反正当程序和种族歧视的问题。对这类批评也有回应称,法官本人也和人工智能一样有偏见,因此问题不在于人工智能是否有偏见,而在于其偏见和法官的偏见比起来谁更大。
同时还有监管措施。和欧盟相比,美国的科技发展步伐已经超过了监管措施的制定。从现状来看,拜登总统已经签发了行政令要求人工智能公司与政府分享信息,寻求通过制定标准和工具来增强安全性,国会也通过了有关人工智能立法的蓝图。但现状基本还是讨论颇多而时间较少,目前没有实实在在针对人工智能的联邦立法。各州也采取了一些行动,目前有18个州通过了州立法,大多数要求成立委员会为人工智能开发提供建议。在今年1月份,各州共提出211项与人工智能相关的法案,其中一半关注深度伪造(Deepfake);其中加州和纽约州的监管行动最多,大州的人工智能立法日后很可能像环保立法一样被基本所有大公司遵循。佛罗里达州昨天通过了一个有趣的立法:即便家长同意,也禁止14岁以下的未成年人使用社交媒体;对于14-18岁的未成年人而言,如果家长不同意其使用社交媒体,社交媒体公司要吊销这些未成年人的账号。
三、人工智能与法律决策
这个问题主要讨论法院是否会用人工智能来做裁判的决定,我个人认为可能性不大。和中国等国家相比,美国法院用AI的步伐比较慢。美国法院非常在意正当程序等程序法问题,因而运用AI等技术改变美国法院的程序很困难。
我跟布鲁克林的法官交流时发现,他们比较统一地认为,AI可能在做记录或提供证据时有一定的发展空间,但不太看好直接将AI用于裁判。我认为美国法院应当向中国学习。举个例子,在纽约申请一页庭审笔录(transcript)需要7美元,这样昂贵定价的原因在于需要专业人士参与,而这些专业人士背后则有工会参与议价。如果学习中国法院用AI来做笔录,成本就会降低很多。
总体来说美国法院用AI比较少,行政部门反而可能会更乐于使用AI,比如美国证监会已经开始用AI来识别相关人士的潜在违法风险,各州的行政部门也在尝试用AI识别健康法等领域的执法重点。
四、人工智能与法律实践
这一问题引发人们关注的主要是一些有趣的个案。例如,一名年轻律师用GPT给他的合伙人写了一份上诉状(brief),合伙人也把这份书状提交给了法院,但最后发现GPT所写书状中引用的诸多判例并不存在,最后合伙人被罚款5000元。当然也有罚款之外的不同做法,例如在纽约联邦南区法院的案件,法官就认为律师没有恶意,因此也就没有处罚律师。部分司法辖区已有明确规则,要么要求律师提交材料时保证没有用过AI,要么要求律师如果用了AI则已进行事后核验,目的在于确保每个判例都真实存在。另外还有一个案件,法院裁判被告承担原告的律师费,律师通过询问GPT的方式论证合理的律师费额度,而法官则生气地认为该种做法完全不具备任何说服力。这些案件都说明,AI在实际的法律检索中起到的作用相对有限,或许如我此前所说,可能未来主要会被用于降低司法程序的诉累。
在讨论AI对法律的影响时,很多美国人认为AI会减少做法律检索所需的时间,可能让法律体系变得更加公平正义。在美国,穷人可能请不起好律师,律师也不会愿意在穷人的案子上浪费太多时间;与之相对,富有的大公司能够请更好的律师来为其提供更好的法律服务。如果AI可以简化法律检索的过程,穷人就更可能获得法律的保护。当然也有人认为AI可能加剧法律的不平等,因为有钱人可以用很好的AI,但穷人只能用很差的AI。另一个会受到人工智能技术影响的是律师的尽职调查(due diligence)业务。这类工作往往由初年级律师进行,如果交给AI来做就可以使律师处理更困难的法律研究,但这也可能导致初年级律师的工作机会变少。
评议环节
杨晓雷:
我理解人工智能与法律的问题有两个维度。第一个是对AI的治理,即从法律人的角度,如何为AI设定规则以使其符合人类基本的价值判断和需求。另一个维度则是,如果借助AI技术赋能法律,使法律在效率和效果上更符合人类的价值和需求。当下很多人都在探讨和担心AI能否取代一定的法律职业,我个人理解这种替代是肯定会发生的,但完全替代在目前看来不太可能。从根本上来说,AI技术的核心是模仿人类的智能。而要模仿人类的智能,首先必须要理解智能本身,但人的智能本质尚未被科学解密。AI在信息和知识的层面已经发挥了很大作用,甚至在法律等多个领域已经超越人类;然而,人的智能不只是在信息和知识的层面,还有自由意志、价值判断等更深层的议题,而这是当前的人工智能技术暂时无力触及的部分。
时至今日,我理解人工智能与法律的工作经历了三个阶段,即法律信息化、法律数据化和法律智能化。所谓法律信息化,就是个人或群体不需要再去图书馆,而是可以在数据库中获取法律信息,这大大提高了法律检索的效率;这里的群体不仅是法律人,还包括了老百姓。法律信息化技术替代了法律、法规、法典的有形载体。法律数据化时代在中国发生于2004至2006年,法律知识的生产模式发生了变化。例如,在庭审中,原被告律师谁找到了更多的法律数据,谁就更有可能在这个过程中构建出更有效和更有说服力的法律知识。到法律大数据时代,人们不仅能够更轻松地找到法律推理的大前提和小前提,ChatGPT等技术还能直接将大前提和小前提结合起来,做出一个智能推理。我们可以说,人工智能法律进入了一个智能推理的时代。ChatGPT、我们自研的法律系统也因此可以对很多同构性的知识推理进行处理,老百姓们面临的很多普通法律问题就不再需要咨询专业的律师或者法学家,而是可以直接让人工智能系统回答。从法律的发展来说,这样的路径符合法律的价值宗旨,因为这让社会中更多的群体得到规则的赋能运用。当前的人工智能也只能做到这一步,现在路径下的人工智能技术无法在情感价值判断等问题上做出更多的贡献。
传统的认知模式一般将人类分为工具性和价值性两个层面,这一代的人工智能技术不会在价值层面替代人类。在社会分工等工具性层面,我们会让渡出我们的一部分能力,变成一种公共福利。人之所以要发明工具,就是为了替代人的某一部分:从最开始的时候让人的四肢变得强大,到现在人工智能技术将人脑的一部分变得强大。人工智能技术和人会形成伴生演化的状态,就像以前我们没有智能手机,但当我们每个人都拿着智能手机,这已经变成了我们生活和生产中不可或缺的一部分。无论是Liebman教授提到的布鲁克林法官一年审理800个案件,还是我在调研中发现的部分中国法官一年处理1000个案件,其中的很多案件都是同类型的重复工作。如果法官有了人工智能系统的辅助,一定会极大减轻他们的工作量。但这只是一个辅助系统,不能替代人类做出最终的判决。这时候人类就有新的工作或能力,即利用这样的辅助系统一起工作。这是大势所趋,不可改变。在这个转型阶段,应当考虑如何调整我们的工作,至少机器目前无法价值判断、做选择、做战略。
杨明:
我主要从知识产权保护角度谈一些想法。最近一两年来,尤其是在北京互联网法院(“北互”)和广州互联网法院(“广互”)相继裁判了两个案件后,可以说中国知识产权学术界和实务界最热闹的关键词就是AI。
北互与广互的两个案件涉及两个不同的问题。北互案主要讨论AI生成物是否属于著作权法所保护的作品。主审法官非常详细地了解了AI内容生成技术,并在了解后作出了较为谨慎的判决,但仍然引发了学界诸多争议。广互案主要涉及AI提供平台的注意义务问题。AI算法开发并进行商业运用后有用户到平台上生成内容,平台随后被算法训练的原始素材著作权人起诉,但著作权人没有起诉用户。在该案中,广互一审判决认定平台违反了注意义务,但只判罚了非常低的赔偿金额;在裁判中,法院指出平台需要履行注意义务,但也明确为鼓励技术发展仅会判罚较低的赔偿。这个案件也引发诸多讨论,各界都在期待二审裁判。
对于AI的模型训练,法律风险还在于有输入端,需要输入素材以训练算法。原告认为,输入过程有存储的行为,而后才会生成新的文本。在这个问题上,原告的律师被指出有技术问题,有人说模型训练没有存储的过程。原告还认为,生成的图片反映了原告享有著作权作品的实质特征,比如生成的头像和原有美术作品具备一样的特征。我理解核心争议还是在于市场利益的争夺。正是因为存在竞争市场,才会引发广互案这样的纠纷。这类纠纷中涉及两侧、多个主体,一侧是AI的开发者、提供者、使用者,另外一侧是原始素材的著作权人,除使用者外的两侧在争夺同样的市场。著作权人为何没有起诉使用者?我理解其是为了从根本上解决问题,即挑战AI算法本身的合法性。
AI的训练与使用涉及对输入素材的“打散”和“重组”。首先需要将输入素材代码化,用不同的代码负载特征向量或所谓的元素、特征,这个“打散”的过程不会存储或复制输入素材,是否侵权应当从终端利益分配的角度进行讨论。AI训练后的使用则涉及“重组”,即用户通过输入指令生成新的作品,这也是当前争议最大的环节。例如,在用户不断发出指令的过程中,是否可以认定其在朝着特定的目标努力,因而新的作品可能被赋予著作权。从产业链来说,从技术开发者、技术提供者再到最后的终端使用者,这一行动本身涉及诸多的利益和风险分配,我们应当让谁来承担风险。每个人看法不同,我个人更倾向于由终端用户来承担风险。从源头来说,机器学习的过程主要是读取特征向量,并不涉及特定的终端商业市场,不应施加过多的注意义务;当然也不排除开发者在算法开发阶段就锚定特定市场,这种情况下不能排除其注意义务。在图片生成的时候,用户需要不断输入指令。如果指令概括抽象,可生成图片可能和很多图片类似,不应该认定为侵权;但如果通过多个指令得出一个具有指向性的图片,就可能应该认定为侵权。因此,无论是技术开发者、服务提供者还是终端使用者,都应该根据其介入到生产过程和终端商业市场利益争夺的程度来认定不同的注意义务。不能为了所谓的技术中立或为了推动技术进步,就得出让技术开发者不承担任何责任的一般性结论。
最后,有关人工智能与法律决策的问题,我个人认为可以用AI辅助法官和专利审查员完成工作。多年前我在法院调研时发现,一些法院的知产庭法官人均审案量在800个以上;专利审查员的状况也类似,每年有很多案件需要进行处理。此时可以考虑引入AI辅助其工作。当然我们也需要注意到AI辅助工作时的潜在风险,这是一个平衡的问题。
胡凌:
我就法院相关AI技术的应用,谈一点自己的想法。我认为不论是AI还是别的数据技术,都是嫁接在互联网的生产组织上。比如互联网平台就形成了一个独特的生产方式和商业模式。对于传统的组织,比如法院、政府、高校,也是同样的道理。用管理过程的角度来思考,传统组织需要科层化的管理技术,比如需要一个信息系统。AI辅助办案的技术固然很重要,但对于法院本身的运作来说则相对边缘,需要思考人工智能在有组织的活动中起到什么作用。
组织管理者最关心的是如何用低成本的技术来更好地协调资源,使得资源更有效地转移给最需要的人,如何使得组织提升效率。这是法院最关心的问题,也可以让我们理解更多的问题。在很久之前法院就开始进行内部的信息化工作,用内网等方式会衔接各个科层,这使得组织以更加有效率的方式进行整合。法院垂直管理的趋势就越来越强,越来越看重这种量化的考核指标,这意味着上下级法院要更快地处理数据。这样我们才能理解,为什么有很多大公司为法院提供强力的数字系统。法院内部的数量管理非常细致,个体法官本身可能无法理解具体的案件在整体统计上的含义;但从管理的角度来说,每年的结案率、一审和二审的比例等数据都非常重要。
一个相关的改革是员额制。员额制使得原本可以审判案件的法官数量减少,法院面临案多人少的问题,应当考虑如何更好地激励员额法官进行审判业务。这是一个效率匹配的问题,确实需要一些技术辅助。中国的法院是一个庞大的体系,在有限的空间里应用好有限的资源,是法院使用人工智能技术来提高工作效率的动力。
吴雨豪:
我更多是一个AI的使用者而非研究者,因此我从这个角度谈一些体会。
Liebman教授讲到AI辅助法官决策的问题非常有趣。我个人理解法官决策分为两个方面,一个是对已经产生了的事实的决策。目前各国法官对于AI的辅助都比较谨慎,各国都要求法官在决策中说理。另外一部分的决策可能是对未来的预测,这在审前羁押等刑事法领域中有集中体现。法官很难通过说理的方式说明特定人员在未来重新犯罪的概率,AI在某种程度上是法官非常好的说理工具,法官可以把法律用道理讲清楚的决策交给AI判断。美国对此已有很多研究,例如Jon Kleinberg等人所写Human Decisions and Machine Predictions,其认为在审前羁押决定中运用AI将大大提高决策的有效性。另外也有实证研究说明,在美国采用AI预测犯罪人的累犯风险可能涉嫌种族歧视。国内也有很多法院主张基于人工智能技术做社会风险评估,这涉及到杨晓雷老师此前讲到的工具性与价值性的平衡。如果让AI去做,AI会无限突出其工具性,这能够很大提高效率,但可能忽略价值判断。
我自己目前用AI最多的场景是教学。比如,我在教学生处理数据之前,可能很难找到完成特定教学任务的数据,这时候我就会请AI为我生成数据。从这个角度来说,AI作为教学的工具效果很好。当然从长远来看,AI对于结果的预测可能给整个社会科学的预测和解释带来一定危机。传统上社会科学预测现象都会提出理论,然后用实证研究去验证理论。如果理论被实证研究证明,未来就可以用该理论解释或预测新的现象。如今人工智能技术的发展,使得对社会现象的预测不再借助社会科学的理论,只要把各种各样的社会因素输入AI即可有很好的预测。犯罪学家过去用各种各样的犯罪学理论解释为何某地犯罪频发,但现在看来,所有犯罪学家的预测都不如专门从事人工智能的算法工程师预测精准,这时就需要反思社会科学理论解释、预测现象的价值。
Liebman:
我简单回应一下社会风险评估的问题。美国国内主要有两个问题,第一个是用算法来判断危险可能性本身,第二个是被告人是否有权审查(review)算法。因为算法本身受到知识产权保护,可能无法对被告人公开。很多人认为,无论是否要用算法来决定行为人是否应被监禁,都起码要让行为人有机会检查算法。这些想法存在历史原因,美国10年前的早期算法对黑人和白人的检测结果差别很大,存在种族歧视的问题。
问答环节
赵宏:
我认为最核心的问题是,AI造成风险和损害时,责任由谁来承担。我个人倾向于认为,开发者要承担很大的责任,因为赋予AI行动的能力是事件的起点。用何种素材、数据训练算法是核心步骤,但目前仍是受到知识产权保护的黑箱。联合国昨天发布了关于AI的宣言,希望AI提高人类的发展和福祉,但黑箱中运行的AI难以被监管。如今AI已经出现了反人类和种族主义的问题,AI采集的数据比例不同导致AI对不同人群的态度存在差异。我们需要思考,人类的良好价值观如何在AI中得以体现?我们应当如何监管AI的价值?
此外,使用AI辅助裁判可能存在风险。在实践中,英国和美国的很多小型刑事案件都被迅速处理,当事人无法实质性抗诉,毕竟法官关注的都是大案和要案。这些案件中的当事人如何保障自身利益?基于在上诉机构的个人经历,我非常理解AI对于裁判一致性和模块化的促进作用,但法律从来都是存在不同观点的,无论是美国最高法院还是各个国际法庭都存在矛盾的意见。在不同的情况下,采用哪种决策或者哪个意见,核心问题还是算法如何设计,因为我们是无法确保算法是公正的、服务于大多数人利益的。此外,我们还要讨论如何监管AI的问题,即应当用何种分类吸纳AI法律问题等。
Liebman:
非常同意赵宏老师的看法。在美国,公司持有算法后的公平正义问题非常复杂,法院或许可以提供一个良好的论辩平台。
沈岿:
美国是否有反对监管AI的观点?
Liebman:
美国正在对AI进行监管,但美国对任何领域的监管都会有反对声音。
开讲学者简历:
Benjamin L. Liebman教授是美国哥伦比亚大学法学院中国法研究中心主任,他的研究领域涉及中国证券法、环境法、侵权法、刑事诉讼法等,是美国法学界研究中国法律问题的著名权威专家。