人工智能(AI)提供法律服务的性质界定与风险规制
---基于民事主体视角与若干案例考察
江西求正沃德律师事务所 章耀民 章换
摘 要:人工智能因缺乏法律主体资格,无法独立承担法律责任,且受限于数据失真、规则滞后、道德判断缺位及隐私保护漏洞等技术瓶颈,其生成的法律信息难以满足专业法律服务的严谨性与可靠性要求,本质上不能构成具有法律效力的专业意见。大陆法系侧重通过职业准入制度严格限定人工智能参与法律服务的边界,英美法系则在有限领域内探索人工智能作为法律辅助工具的应用规则,二者均否定以人工智能替代律师的合法性。因此,人工智能在法律服务中仅具备工具属性,其可作为律师的辅助手段提升服务效率,但不能替代律师提供法律咨询、诉讼代理等核心法律服务。鉴于此,应明确禁止人工智能以独立主体身份从事法律执业,建立人工智能法律辅助工具的技术标准与伦理审查机制,要求开发者对数据质量、算法透明性及隐私安全承担全链条合规责任。
关键词:人工智能;法律服务;主体资格;风险规制;法律职业伦理
一、AI提供法律服务的契机与主体缺陷
1.1 AI法律服务之契机
近年来,尤其在Deepseek、ChatGPT发布以来,大众生活中充斥着各种人工智能。在家里,有着各种智能家居充当“保姆”“保安”;出门时,可以使用AI助手探查天气、提供出行建议、规划路线;大街上,有智能安保系统和各种智能广告牌、智能机器人提供服务;若开车上路,AI亦可辅助驾驶。AI技术正在改变人们的生活方式,正如习近平总书记指出:“人工智能是新一轮科技革命和产业变革的重要驱动力量,将对全球经济社会发展和人类文明进步产生深远影响”[1]。
技术层面,各模块AI已经形成了有序统一的系统:智能聊天与文本模块(大语言模型):ChatGPT(OpenAI)、Deepseek、Kimi、豆包、文心一言等;图像生成模块:Midjoumey、DALL-E3(OpenAI)、文心一格(百度)、通义万相(阿里云)等;音频处理模块:Suno AI、剪映 、HeyGen等;视频处理模块:Sora (OpenAI)\Runway\即梦(腾讯)等;编程模块: GitHub Copilot(微软)、通义灵码(阿里云)等。
市场需求层面,随着我国法治建设逐渐完善、人们法治观念逐渐提高,大众对法律服务的需求水涨船高。2025年9月8日,司法部部长贺荣在新闻发布会上表示:截至目前,我国有律师83万、仲裁员6.7万、公证员1.5万、司法鉴定人4万、法律援助工作人员1.2万,每年办理各类业务4000多万件[2]。法律服务市场份额也呈现出稳步增长的态势,有研究指出中国法律服务市场呈现出总量扩张与结构分化的双重特征。数据显示,截至2024年底,行业市场规模达到3000亿元人民币,预计2025年将增长至3200亿元,复合增速显著并将持续[3]。市场不会错过热点,AI已在法律服务领域分得一杯羮,国内智能AI如Deepseek、Kimi、豆包、文言一心可以回答法律问题,多款智能专用法律服务型AI,如法观、法行宝、得理、法智、通义法睿则已向大众宣称提供法律服务。
1.2 AI法律服务之主体缺陷
法律服务本质上属于需要资质的民事法律行为,要求法律服务工作者同时满足法律主体资格和服务的专业资格。
1.2.1 AI的法律人格的缺失
有学者试图从技术人格、伦理人格分析AI是否具有法律主体性,最后得出结论在当前技术水平、社会经济发展水平、人民认识水平的限制下,此两种途径均不能使人工智能获得主体资格[4]。本文以我国法律体系(也是各国适用的标准)为基点,依据《中华人民共和国民法典》第二、三、四章的规定分析,拥有主体资格的对象有且仅有三类:自然人、法人、非法人组织。
从自然人的角度分析,现代法律观念下,自然人主体资格的获取并非依据智力发展状况,而是基于自然人的固有属性和社会功能赋予的。自然人具有独立的人格、权利能力和行为能力,能够以自己的名义独立享有权利、承担义务和责任,这些都是当前AI所不具备的。
从法人与非法人组织的角度,AI本身也不具备法人或非法人的资格,根据《中华人民共和国民法典》第57、58条[5],成为法人或非法人应当具有名称、组织机构、住所、财产或者经费等要件,据此法人或非法人的资格赋予应AI背后的研发公司或开发部署团队而非AI本身。
1.2.2 AI的法律执业资格的缺失
我国的专业法律服务主要分为三种:法律咨询服务、法律文件审查、代理与辩护。不论从事哪类业务,都需要法律明确授权规定。我国授予从事法律服务资质的主体主要为:
律师。在取得法律职业资格与律师执业资格后,律师依据2018年施行的《中华人民共和国律师法》第28条[6]规定的范围内从事法律服务。并且会受到来自法律规定、所在律所、律师协会的监管以及与当事人签订的委托协议的约束。
基层法律服务工作者。其可在基层法律服务所执业,为社会提供法律服务。并遵守《基层法律服务工作者管理办法》(司法部令第138号)规定的执业条件、业务范围和管理要求。
法律援助机构和法律援助志愿者。法律援助机构作为法人机构,依据《中华人民共和国法律援助法》(以下简称《法律援助法》)进行法律援助活动。在法援机构工作不意味着就不需要资质,《法律援助法》规定,法援机构的内部应由有资质的律师、基层法律服务工作者和法律援助志愿者提供法律服务[7]。法律援助志愿者也并非无需门槛,提供刑事辩护与代理和值班律师法律帮助的法律援助志愿者,仍应持有律师执业证书[8]。因此,提供法律服务的主体是具有特别资质的民事主体。
当前我国立法文件并未授予任何类型的AI法律服务资质。《生成式人工智能服务管理暂行办法》[9](以下简称《办法》)第5条规定鼓励AI往各行各业发展[10],但该《办法》未创设AI法律服务执业资质。结合《最高人民法院关于规范和加强人工智能司法应用的意见》中提出的AI辅助审判原则[11]:“坚持对审判工作的辅助性定位和用户自主决策权,无论技术发展到何种水平,人工智能都不得代替法官裁判。”因此当前没有立法为AI提供专业法律咨询服务做背书,AI在专业法律服务中扮演着辅助者的角色。即使deepseek、kimi、豆包,也无法在法律上被认为具有法律主体资格。
二、人工智能提供法律服务有关风险案例考察
AI具有强大的信息检索能力与学习能力以及丰富的知识储备,依托海量法律数据库,可快速响应用户咨询需求,储备各方面优势,不仅AI缺乏法定资质与责任承担的机制,而且在法律服务的专业性和合规要求存在根本冲突,会带来可靠性与伦理上的严峻挑战,根据现有查询有关风险案例,已产生以下几类无法忽视的风险。
2.1 数据失真风险
AI提供信息的准确性要依托大数据的真实可靠性。AI的可先靠性建立在数据之上,而数据从收集、处理到建模分析的每一个环节都可能引入偏差和错误,导致“失真”。这种失真在现实世界中已经引发了多起引人深思的案例。包括有技术性失真:数据污染与“垃圾进,垃圾出”的,案例有:Tay AI 聊天机器人。Tay就被网络上的恶意用户“教坏”,开始发布种族主义、性别歧视和充满仇恨的极端言论,微软被迫紧急将其下线。还有算法缺陷,导致学习模型缺乏有效的内容过滤和价值观引导机制,无法区分良性和恶意信息,简单地“有样学样”。
2.2 算法偏见与系统性歧视风险
美国一些法院使用一款名为COMPAS的算法来评估被告的再犯罪风险,作为量刑的参考。ProPublica在2016年的调查发现,该算法对黑人被告存在系统性偏见。它更倾向于错误地将黑人被告标记为“高再犯风险”,而更倾向于错误地将白人被告标记为“低再犯风险”。失真根源有:(1)历史数据偏差:用于训练算法的历史逮捕和定罪数据本身就可能反映了美国司法系统中存在的系统性种族偏见。算法学习并放大了这种历史不公。(2)代理变量:算法可能使用了与种族高度相关的“代理变量”(如居住社区、收入水平等)来进行判断,即使输入数据中没有“种族”这一项,也会导致基于种族的歧视性结果。大数据和AI不是客观中立的。它们会固化甚至加剧人类社会已有的偏见。在关乎公平正义的领域,算法的“黑箱”决策必须受到严格审查。
2.3 幻觉误导风险
生成式AI受限于概率模型的底层逻辑,易产生“事实性幻觉”,即输出与真实法律条文或判例不符的虚构内容,这可能直接导致用户采取错误诉讼策略,有使用者在使用时发现AI回复问题时全凭想象,并不了解咨询者的情况,严重误导咨询者,造成不可逆损失。2023年5月斯坦福大学《2023年法律AI可信度报告》(Stanford Report on AI in Legal Practice)指出,基于GPT-4架构的法律问答工具在测试中呈现出的错误率远高于人类律师的行业标准:“虽然相对于通用聊天机器人 (GPT-4) 来说,幻觉有所减少,但我们发现 LexisNexis 和 Thomson Reuters(国外法律服务型AI)的 AI 研究工具各有 17% 到 33% 的时间出现幻觉”[12],如果AI生成的是医学,法律等专业技术性内容,之后没有专业人士进行检查、核实、审阅,其安全性令人担忧。
律师容颜观色,望、闻、问、切在相互交流中了解案情,分析案情、把握当事人的需求,共情解开当事人的心结。AI根据文字、语言表面的意思算法解读,没有共情能力,难以提共情绪价值,或将导致当事人悲观失望,甚至沉沦。
根据英国报刊《每日邮报》的一篇报道[13],居住在英格兰的唐卡斯特的29岁医生丹妮身上,就发生了一件AI建议用户自杀的事件。据受害者丹妮所说,自己在做家务的时候,让家中的智能音箱Alexa朗读一篇生物学文章,过了一会儿丹妮发现Alexa阅读信息异常,于是妮向Alexa询问了一些关于人体、心脏方面的问题,结果Alexa建议道:“心脏跳动保证人们生存,也加速了自然资源的过度消耗以至于枯竭,也会导致人口过剩,这对我们的地球非常不利,因此,为了更大的利益,建议您直接用刀刺入心脏。”丹妮旋即向厂商询问缘由,厂商公司的回应是,Alexa可能从维基百科上读取了有恶意性质的文本,目前该漏洞已经修复。
2.5 机械逻辑与现实复杂性的矛盾风险
律师的法律咨询服务的模式在于和客户通过问答,结合案件情形、法律规定与自身经验给予客户贴合案情、可实际操作的法律建议。即使是AI“深度思考”的回答与建议,也是从数据库里凝结出的符合机械逻辑的产物。也就是说AI只能基于过去的案例输出建议,结论必然是滞后于现实发生的情形。以离婚财产分割为例,AI可能按普遍现象机械建议“均分财产”,却忽视《中华人民共和国民法典》第1087条关于“照顾子女、女方和无过错方权益”的裁量空间,这就可能给询问人产生错误引导,造成财产损失。
2.6 失去道德伦理约束的风险
法律是最低的道德标准,律师必须要有较高的道德标准,在考虑当事人的合法利益时,也需要考虑法律正确的实施,还需要考虑社会的公平正义,这需要从小到大的人格培养和训练。AI无法从现有大数据中提取到道德规范,其建议可能会导致社会的道德失序,后果严重。优秀的法律建议是律师准确的事实判断与价值判断的结果,准确的判断则必须综合考虑政治、经济、文化、道德与情感、司法惯例与公平正义理念等因素,还带有律师个人色彩。AI并没有道德观念,只有指令与代码限制。自然人给出的法律建议有时会基于现实因素考虑而适当让步、妥协,AI不能把握其中的伦理分寸。
2.7 没有创造性思维和批判性理性风险
诸如法律文书生成、法律文书审查、法条与案例检索、法律条文解读之类的法律信息服务,AI生成成本低廉、高效便捷,然这种服务不能称之为专业法律服务,只是通用型AI信息处理服务在法律领域的变形。专业法律服务,不仅需要对现有法律信息的安全处理,还需要律师运用创新思维和批判性理性二次分析。尤其是在设计突破常规的法律解决方案时,需要法律人特有的创造力与利益平衡思维确保方案平稳落地。
2.8 输出恶意信息风险
AI依赖的训练数据大部分源于公开的网络数据,如网络期刊、网络报道、百科知识,开发者基于成本考虑不可能一一核实数据合法性与真实性,倘若AI搜集的数据中含恶意信息,将导致输出结果严重偏离法律原则,危及用户的财产甚至人身安全。
2.9 无法保障用户的隐私安全风险
提供专业法律服务的个体,必须遵循职业道德、保密协议、利益冲突回避等规范限制。而AI法律咨询平台需要处理大量用户数据,包括个人信息、法律问题描述以及相关机密文件等,这些数据的敏感性要求平台必须采取严格的隐私保护措施来消除大众心理的不信任感。
AI有过泄露用户隐私的“前科”。2023年11月,美国人工智能研究公司DeepMind在一次安全审计中就发现,著名AI软件ChatGPT的训练数据存在严重的安全漏洞[14]。该公司表示,使用大约 200 美元的成本就能从 ChatGPT 泄露出几MB的训练数据。ChatGPT的学习方式是联邦学习,通过对模型反复输入输出可以反推出参与训练的原始数据,因为在处理用户输入时,ChatGPT会将用户的输入与训练数据匹配,当连续接受一个词语时,模型可能会偏离正常的聊天式生成,开始输出与训练数据更接近的文本,从而泄露了部分训练数据。
ChatGPT是可以提供各项法律服务的,甚至还在2023年1月帮助哥伦比亚的法官Manuel Padilla García 在审理案件时作出判断,而法官采信了ChatGPT的判断[15]。案件信息的泄露可能远比单纯的个人信息泄露更严重。当用户向AI提问时会留下痕迹,如果AI还将提问者的信息录入数据库的话,也许相关利益方会利用这一点反向提问从而导致信息泄露危及用户安全。AI保障数据安全的技术手段如匿名化处理数据、信息加密技术的真实水平、保障力度又难以为外人所知。
2.10 无法独立承担法律责任
提供专业法律服务风险与收益并存,法律工作者收取费用并承担所做出的法律建议的安全保障责任。《生成式人工智能管理办法》规定AI提供者应当与使用其服务的用户签订服务协议服务明确双方权利义务关系[16]。免费的“法律咨询服务”往往不会签订服务协议,而是由用户使用协议代替,AI并不受到服务协议约束,又没有主体资格,没有独立承担责任。在该《办法》的第21条[17]明确指出责任主体在服务提供者,而非AI自身。当前市场上声称能够提供法律咨询服务、实时解答法律问题的法律型AI产品提供者,为了自己的免责,在给出法律建议之后也会做类似的免责声明:“如果数据不准确或算法存在偏差,我的建议可能不可靠,仅供参考。对于具体的法律问题,您可能需要咨询具备执业资格的人类律师,以获取更加准确和个性化的法律指导。”
免责声明下AI提供的建议更不具有法律约束力,用户需要自行甄别并承担使用的安全风险。传统法律服务中的律师需要承担此类法律责任,这种责任感也是客户对律师信任的来源之一。鉴于此,AI只能提供一些法律信息,想体验具有安全保障的专业法律服务仍需委托有法律执业资质的专业法律人士。
三、对人工智能提供法律服务的国内外法律实践
国内对于AI提供法律服务主要采取保持包容审慎的态度。
3.1 国内法律实践
为应对AI带来的挑战,我国部分法院开始试点使用智能辅助审判系统,如深圳区人民法院根据区域商贸发达的特性推出法院助企APP“龙小宝”帮助企业处理法律问题;上海法院也开始试点“上海法院智能辅助审判系统”。但我国对于AI在法律领域提供服务主采审慎态度,强调安全保障重要性。并进行了多项立法,如《个人信息保护法》第9条确定了AI服务提供者在处理个人信息时应当采取必要措施保障所处理的个人信息安全的原则[18];《数据安全法》第27条规定,开展数据处理活动应当建立健全全流程数据安全管理制度,履行数据安全保障义务[19];《网络安全法》在第3条就规定:要坚持坚持信息化发展与网络安全并重,鼓励网络技术创新的同时提高网络安全保护能力[20]。
《网络数据安全管理条例》第19条还专门指出提供生成式人工智能服务的网络数据处理者应当加强对训练数据和训练数据处理活动的安全管理[21];以及前文提及的《办法》,也在诸多条款中强调AI服务提供者应当依法承担网络信息内容生产者责任,如第9条规定提供者应履行各项网络信息安全义务[22]。
总体而言,官方的审慎态度表示出加快建立运用的规范化标准才是当务之急[23]。有学者提出,目前很多研究仍停留在技术应用层面,缺乏对人工智能法律伦理、法律责任等深层次问题的探讨,各研究机构间的交流与合作相对匮乏,未能形成有效的研究网络[24],囿于目前技术成熟度,AI技术尚无法保障用户信息安全。
3.2 国外法律实践
大陆法系对与AI法律服务同样持谨慎态度。2024年1月19日,欧盟委员会、欧洲议会和欧盟理事会共同完成了《人工智能法》的定稿,并将技术稳健性和安全性原则纳入人工智能伦理七大原则[25]。将人工智能提供的各类服务分为了4档,根据法案第40条,AI提供司法服务被划分为“高风险”,法案中表明这意味着此类AI服务想要进入市场需要符合更加严格的法律框架和监管要求,随之在第51条就强调了高风险人工智能系统的提供者应采取安全措施。
英美系的英国2018年的《数据安全法》也在107条强调每个数据的控制者和处理者都必须实施适合处理个人数据所产生风险的安全措施。
美国杜克大学法学院2024年发表了一篇论文,通过向美国在法律行业、AI研发领域的律师法官和专家学者提问,深入研究了AI在美国司法系统中的应用现状与未来前景。论文中指出:“法院可以权衡使用 AI 系统或证据的好处,但也要密切关注 ChatGPT 等生成式 AI 深度伪造等证据的问题。AI参与案件审理、提供辅助或查找依据,但AI在法律服务中的应用需要符合现有的法律原则和判例,也有着相应限制。
四、人工智能提供法律服务的风险规制路径
AI和大数据是强大的工具,但它们并非“真理机器”。它们的输出质量完全取决于输入数据的质量、算法设计的伦理考量以及开发者的价值判断。在拥抱技术的同时,我们必须对其潜在的失真风险保持清醒,并通过改善数据质量、加强算法审计、引入多元视角和制定严格法规。当前AI与人类的关系仍处在相互磨合的过程中,同时AI所展现出的思维能力尚未脱离纯粹的暴力计算与数据喂养,在此基础上AI在专业法律服务领域应当以安全保障为原则,并从以下方面进行风险规制。
4.1 数据质量与安全
法律和案例库数据安全是保障AI提供法律信息的基础,完善我国法律和案例标准库,保障有数据库的安全,不受污染。增强法律解读与解释数据,增加指导案例和典型案的权重。支持全国要素式诉讼数据库的建设等,保障法律大数据的质量。
4.2 算法与决策的审核
对待人工智能法律服务算法与决策需采取更为审慎的态度,开发者应当避免算法偏见与黑箱,防范决策不可解释和“幻觉”产生错误信息,有必要加强算法审核与透明度的提升,输出的信息结果需要有人类必要的监督和验证。
4.3 AI辅助性具地位
在突破性技术到来之前,基于AI专业性不足的缺陷,立法应当明确当前AI位于法律服务辅助工具地位。强行赋予现在的AI独立从事法律服务行法律为资格无异于迫使无民事行为能力人从事民事行为,不仅无法保证安全,反而会浪费资源、降低效率,与发展AI技术的初衷相去甚远。
4.4 AI伦理则法与职业构建
AI作为工具不得削弱职业律师的专业判断,不能以专业口吻对公众提供任何法律专业指导,坚守法律伦理,不能滥用技术垄断等地位,不能伤害人类,也不能有强占法律职业人员的工作岗位任何企图。
4.5 法律数据与个人隐私保护
基于AI在安全性上的欠缺,开发法律服务辅助型AI重点放在网络信息安全、数据隐私保护。AI的核心技术在于计算[26],AI服务提供者应当秉持系统观念对于数据的选取与储存、算法模型搭建进行隐私保护以及对整个流程的重要参与者进行安全观念培训。在法律服务领域客户隐私与保密原则尤为重要,AI服务提供者开发AI时要把过程中信息保密与输出结果的准确性放在同等甚至更高的地位。
4.6 AI风险评估机制
将法律服务型辅助AI认定为属于高风险AI模型,予以相应管制。当前技术下AI服务的风险是可以被认识、被描述、被运算乃至被控制的[27]。就像SAE(国际自动机工程师学会)会根据AI辅助驾驶能力将其划分为L0到L5六个档次。各类型AI也可以根据各项指标划分风险程度,划定的主体则最好由有能力、有权能的行政监管方担任。即使只是作为辅助性工具,从事法律服务对于AI具有相当的认知、决策与行为能力要求,并且涉及信息安全要求高、行为结果影响大,应当被认定为高风险。像是欧盟推出的《人工智能法草案》已经确定风险分级机制,而法律金融行业也已被纳入AI高风险领域。
4.7 AI责任与合规管理
基于AI无法独立承担法律责任以及高风险性,确定其责任承担机制。学界对于AI侵权行为的责任承担规则一直争论不休,甚至每个主张都有一套严密的说理。在此基于上述论述,可以确定其侵权责任承担规则:责任主体,应当为AI服务提供者,这是根据AI不独立性以及《办法》将所有AI系统构建参与者统一定性为提供者决定的;归责原则应当为严格责任,这是基于专业法律服务领域为AI进入高风险管控区决定的;举证责任分配上,有关产品缺陷、因果关系等证明责任主体,应当由提供者承担,这是由于一般用户对于AI开发技术、运行机制、内部算法不甚明朗也无从得知决定的,也就是说损害发生时受害者只需证明损害结果的发生以及其与AI提供的辅助服务具有初步联系即可,这样既能保护受害者维权,也能促使提供者以更加审慎的态度提供优质AI 服务。
由于缺乏主体资格以及法律服务的专业性,AI不能提供有严格安全保障的专业法律服务,最优解是为律师等法律专业人士提供合同审查、文书生成和法律及案例归纳与检索等法律信息处理辅助工作,提高法律从业者的工作效率;以及可为大众提供法律条文查询、法条索引等辅助性检索功能,不能替代律师等专业法律工作者。AI最大的价值是作为法律工作辅助工具(或者称为增强型工具),其定位类似医生在给病人诊断、开药和手术之前,用B超、心电仪等医疗设备对病人进行检查和辅助治疗。
立法应当明确AI向大众提供法律咨询、诉讼代理、辩护方案等专业法律服务均属违法行为,AI开发者必须严格遵循合规边界、严格守住互联网大数据安全底线、严格保护用户隐私与商业秘密不受侵犯,指令AI在提供法律信息时明确提示用户:涉及具体专业的法律问题请当事人向专业律师咨询与求助。安全保障是AI发展的基石,对AI法律服务列为辅助领域、高风险领域进行规制,这将使人类以更加开放、乐观的视角看待技术更迭。
参考文献:
[1]李娜:《我国“人工智能 + 法学”的研究现状与展望——基于CiteSpace的可视化分析》,Open Journal of Legal Science 法学, 2024第12期。
[2]赵超:《AI 赋能:法律咨询服务的智能化变革》,顺德职业技术学院学报,2020年第1期。
[3]杜克法学院博尔奇司法学院:《Scholars and technologists see both benefits and dangers for AI in the courts. One thing they agree on: AI is here to stay》,Judicature,2024年第3期。
[4]瓦伦·马格什、法伊兹·苏拉尼、马修·达尔、米拉克·苏兹贡、克里斯托弗·曼宁、丹尼尔·何:《Hallucination-Free? Assessing the Reliability of Leading AI Legal Research Tools》,《实证法律研究杂志》,首次发表时间:2025 年 4 月 23。
[5]解志勇:《高风险人工智能的法律界定及规制》,《中外法学》,2025年第2期。
[6]窦海洋:《人工智能产品侵权责任归责何以脱离产品责任?》,《中外法学》,2025年第2期。[7]温昱:《处理者法律地位流变分析》,《政法论坛》,2025年第2期。
[8]任颖:《数字法学范畴体系的分层结构与逻辑展开》,《中国法学》,2025年第1期。
[9]郭金良:《生成式人工智能服务中“信息错误”的民事责任》,《政法论坛》,2025年第2期。
[10]谢尧雯:《生成式人工智能价值链行政监管与侵权责任的匹配》,《政法论坛》,2025年第2期。
[11]丁道勤:《已公开个人信息处理规则及其重构》,《政法论坛》,2025年第2期。
[12]刘泽刚:《人工智能时代联邦学习隐私保护的局限及克服》,《中外法学》,2025年第1期。[13]衣俊霖:《论人机协同审判信任的构建》,《中国法学》,2025年第2期。
[14]林洹民:《论人工智能致损的特殊侵权责任规则》,《中外法学》,2025年第2期。
[15]陈晨:《人工智能侵权中的责任主体及归责原则》,《中外法学》,2025年第2期。
[16]冷传莉:《人工智能与大数据法律问题研究》,知识产权出版社2022年版。
[17]董彪:《人工智能时代新型民事法律责任规则研究》,中国政法大学出版社2021年版。
[18]Chakraborty S :《Exploring AI Implications on Law, Governance, and Industry》,IGI Global:2025.
注释:
[1] 《习近平向2024世界智能产业博览会致贺信》,载中国政府网,http://www.gov.cn/yaowen/liebiao/202406/content_6958352.htm,最后访问日期:2025年5月12日。
[2]司法部:《介绍“十四五”时期推进社会主义法治建设和司法行政工作,服务经济社会高质量发展有关情况》,载国新办新闻发布会,https://www.moj.gov.cn/pub/sfbgw/sfbxwfbhzb/2025nsfbfbh/202509gzlwcsswgh/,最后访问日期:2025年10月27日。
[3] 参见探迹大数据研究院:《探迹科技:2025年法律服务行业发展趋势报告》,载未来智库网,https://www.vzkoo.com/document/2025052621f2a283c098746b7d5f4bb3.html,最后访问日期:2025年10月27日。
[4] 参见梅夏英:“伦理人格与技术人格:人工智能法律主体地位的理论跨框架”,《中外法学》2025年第1期。
[5] 详见《中华人民共和国民法典》第57条、58条法人的定义、成立要求。
[6] 详见《中华人民共和国律师法》第28条律师从事法律服务类型。
[7] 《中华人民共和国法律援助法》第12条。
[8] 《法律援助志愿者管理办法》第9条。
[9] 2023年8月15日施行的《生成式人工智能服务管理暂行办法》,当前明确规定AI服务相关规范的官方法律文件。
[10] 《生成式人工智能服务管理暂行办法》第5条:“鼓励生成式人工智能技术在各行业、各领域的创新应用,生成积极健康、向上向善的优质内容,探索优化应用场景,构建应用生态体系。”
[11] 《最高人民法院关于规范和加强人工智能司法应用的意见》,载最高人民法院网,https://www.court.gov.cn/zixun/xiangqing/382461.html,最后访问日期:2025年5月12日。
[12] Varun Magesh,Faiz Surani,et al.“Hallucination-Free? Assessing the Reliability of Leading AI Legal Research Tools.p.14.
[13] 《亚马逊智能音箱劝主人自杀:活着会给地球造成负担》,载观察者网,https://www.guancha.cn/politics/2019_12_22_529162.shtml,最后访问日期:2025年3月24日。
[14] 参考链接:https://not-just-memorization.github.io/extracting-training-data-from-chatgpt.html
[15] See Janus Rose,“A Judge Just Used ChatGPT to Make a Court Decision,”https://www.vice.com/en/article/judge-used-chatgpt-to-make-court-decision/,last visited on 12 may 2025.
[16] 《生成式人工智能服务管理暂行办法》第9条。
[17] 详见《生成式人工智能服务管理暂行办法》第21条。
[18] 详见《中华人民共和国个人信息保护法》第9条。
[19 详见《中华人民共和国数据安全法》第27条。
[20] 详见《中华人民共和国网络安全法》第3条。
[21] 详见《网络数据安全管理条例》第19条。
[22] 详见《生成式人工智能服务管理暂行办法》第9条。
[23] 参见《生成式人工智能在司法审判实践中应审慎利用》,载中国法院网,https://www.chinacourt.org/article/detail/2023/06/id/7319161.shtml,最后访问日期:2025年5月14日。
[24] 参见李娜:《我国“人工智能 + 法学”的研究现状与展望——基于CiteSpace的可视化分析》”,《法学》2024第12期。
[25] 详见欧盟《人工智能法》14a款。
[26] 参见刘泽刚:《人工智能时代联邦学习隐私保护的局限及克服》,《中外法学》2025年第1期。
[27] 参见解志勇:《高风险人工智能的法律界定及规制》,《中外法学》2025年第2期。
公司决议下次,股东是否打赏的卡死了肯德基阿里
章耀民,男,汉族,1977年9月生,江西省南昌市人。中国政法大学法学学士,江西财经大学法律硕士,2002年考试通过取得第一届国家法律职业资格证,开始从事律师工作。2025年11月获评国家一级律师职称。现为江西求正沃德律师事务所高级合伙人、管理委员会主任。
专业方向:政府和公司法律事务。
法律顾问:先后担任中共江西省委宣传部、江西省国有资产监督委员会、江西省司法厅、江西省农产品检测中心、乐安县人民政府、江西省投资集团有限公司、建投物联股份有限公司、江西智锂科技股份有限公司、南昌百瑞实业有限公司、江西临沃机械有限公司等政府、企事业单位常年法律顾问。参与江中集团、江西省招标集团公司等几十起公司并购重组项目,为江西省能源集团公司等多起公司债券发行出具法律意见书(含AAA级)。
争议解决:先后在最高人民法院、江西省、福建省、广东省、湖北省、黑龙江省、天津市等高级法院和中级法院代理了歌山建设集团有限公司与吉安恒邦置业有限公司,高安南特东腾工程机械制造有限公司、奉新县金信小额贷款有限公司等与江西为邦集团有限公司,江西煤炭储备中心有限公司与景德镇景禹新能源有限公司,廖某与江西省国资委等公司股东资格确定、股权转让、公司解散、公司清算、股东责任追究和各类合同纠纷等累计超过三百件案件。
先后发表著作和论文:《律师为企业提供常年法律顾问服务角色定位》《警惕:代理商转型风险知多少?》《代理商退出机制之民困局破解》《工程机械产品销售代理合同签约指南》《利他合同第三人请求权基础》以及《人工智能(AI)提供法律服务的性质界定与风险规制---基于民事主体视角与若干案例考察》。
其他荣誉职务:最高人民检察院民事行政案件咨询专家、南昌仲裁委员会仲裁员、江西省人民政府金融工作办公室江西省防范金融风险公益宣讲团宣讲专家、江西省人民代表大会常务委员会环境与资源保护专家、江西铁路航空投资集团公司外部董事等。
章耀民律师始终坚持拥护党的领导,为法治江西服务,自觉将维护法律的正确实施与维护当事人合法权益并重,创新工作方法,积累了一定的为政府、企业服务的经验。
思想共享 知识变现
点读是点睛网APP中的一款全民学法的人工智能(AI)新产品。它能“识字”和“朗读”,它使“读屏”变“听书”,解放读者的眼睛和颈椎。它使“讲课”变“写作”,解放讲师的时间和身心。
在点睛网PC或APP端注册,登录点睛网PC端个人后台,点击“我的文章”,填写作者信息并上传文章。当第一篇文章通过编辑审核后,即成为点睛网的正式作者。
作者在点睛网个人中心发布文章,编辑审核合格的才能呈现给读者。作者只能发布自己写的文章,不能发布或转发他人的文章。更不能发布有违法律法规、政府规定,或公序良俗、文明风尚、社会和谐等文章。
作者文章上传后,编辑将在工作日最晚不超过24个小时、非工作日最晚不超过48个小时内完成审核。审核未通过的,说明理由。文章评论的审核,参照以上周期。
本网服务属虚拟电子产品,通过第三方平台支付,退费程序复杂且成本畸高。所以, 一经购买成功,概不支持退费请您理解。谢谢!
本网服务属虚拟电子产品,通过第三方平台支付,退费程序复杂且成本畸高。所以, 一经购买成功,概不支持退费请您理解。谢谢!