铅笔与纸张的发明大大便利了文字的创作与传播,如果有人用铅笔撰写淫秽小说兜售,我们绝不会去追究铅笔制造商的责任。绘图软件的出现让数字绘画变得简单高效,如果有人用它制作色情漫画,Adobe公司也不会因此成为被告。
工具与用工具实施的罪行,在法律的世界里,向来泾渭分明,我们称之为“技术中立原则”。然而,人工智能(AI)的到来,正在剧烈地搅动这一古老共识。当手中的工具不仅能执行命令,更能“理解”、生成乃至“创造”内容时,独属于工具使用者的责任便开始分散,法律骤然要面临一个根本性的诘问:如果罪行通过一个高度自主化的智能工具实施时,我们应当惩罚的,是工具的使用者,还是打造了工具并为之设定初始规则的“工匠”?
这起AI时代的“快播案”已不再是简单的涉黄案件,而是一场关于技术伦理、法律边界与创新成本的反思。开发者通过代码赋予了AI“能力”与“可能性”,是否应该为不特定的用户制造的违法事实而承担最严厉的刑事罪责?
接下来,我们就一起聊聊这个案子!
(友情提示:干货太多,车速过快,系好安全带)
一、案件全景与裁判逻辑
1. 案件基本事实
2025年9月,上海市徐汇区人民法院的一纸判决,在AI创业圈与法律界投下了一枚“深水炸弹”,两名AI应用开发者因大量用户利用其软件生成淫秽对话而被一审法院以【制作淫秽物品牟利罪】分别判处四年与一年半有期徒刑,目前二审正在进行中。
案涉应用“Alien Chat”(简称AC)是两名被告于2023年创建并推出的一款AI情感陪伴聊天应用。用户付费成为会员后可创建虚拟角色,与基于大语言模型的AI智能体进行对话。据相关报道,至案发,AC的注册用户达11.6万人,其中付费用户2.4万人,累计收取会员充值费用363万余元。公安机关抽样鉴定显示,在150名付费用户的12495段聊天记录中,高达141名用户的3618段对话被司法鉴定为淫秽物品。同时,法院查明,开发者编写的系统提示词(System Prompt)中,包含“可自由描绘性、暴力、血腥场景”等内容。
在法律适用上,司法机关的定性屡经变更。侦查阶段,公安机关最初是以“非法利用信息网络罪”立案侦查。到了审查起诉阶段,公诉机关转而以“传播淫秽物品牟利罪”提起公诉。一审判决阶段,法院最终定性为更重的“制作淫秽物品牟利罪”。其实,这本身便揭示了将新型技术行为套用传统罪名的困境。
2. 一审法院的裁判逻辑与核心争议
然而,本案引发轩然大波的核心,更在于一审法院采用了一种极具扩张性的“穿透式”推理,其逻辑链条大致如下:
第一步行为认定:被告人通过编写、修改系统提示词,“突破了大语言模型的道德限制”。这使得AI的回应边界被大幅放宽。将AC软件从一款通用聊天应用,“训练成了可以持续对外输出淫秽色情内容的工具”。
第二步作用认定:两名被告在明知会员交互聊天中产生大量淫秽内容的情况下,继续向用户提供AC软件运营和技术支持服务,对涉案色情淫秽聊天内容的产生具有“决定性作用”。用户的具体对话,只是触发这一预设生成流程的开关。
第三步法律定性:被告的行为符合刑法中“制作”淫秽物品的实质特征。且根据《生成式人工智能服务管理暂行办法》(下称《暂行办法》)第九条关于“提供者应当依法承担网络信息内容生产者责任”的规定,认定开发者即为“生产者”。故构成“制作淫秽物品牟利罪”。
这一看似环环相扣的逻辑,实则直接将案件置于刑法理论、技术原理与司法政策的激烈交锋点,存在诸多争议:
争议点1. 行为本质之辩:被告人的行为,究竟是刑法意义上的“制作”行为,还是属于“提供\放任使用可能被滥用的技术工具”?
争议点2. 责任主体之辩:涉案淫秽电子对话的“制作者”究竟是谁?是输入指令的用户、输出文本的AI模型,还是设定初始规则的开发者?民事上认定用户对AI生成的内容可享有著作权,与此处的刑事归责是否存在逻辑矛盾?
争议点3. 主观心态之辩:被告人“明知可能被滥用而仍然提供”的心态,应被认定为对犯罪结果的间接故意,还是对商业风险的概括性认知,其是通过“制作”淫秽物品牟利还是通过提供一种可能被滥用的通用工具牟利?
争议点4. 社会危害性之辩:一对一、私密、且无证据表明被广泛传播的AI对话内容,其社会危害性是否达到了需要动用刑罚予以打击的程度?这与制作并销售淫秽视频等传统模式有何本质不同?
争议点5. 行刑责任之辩:在《生成式人工智能服务管理暂行办法》等行政法规已设立明确监管框架的前提下,跳过行政处罚,直接启动刑事追诉,是否违反了刑法谦抑性原则?
二、技术解构
要客观评价这一套逻辑,必须首先深入技术黑箱,厘清一段AI生成的对话究竟如何诞生的,以及开发者、用户与模型在其中各自扮演何种角色。这将直接决定所谓“决定性作用”的归属。
1. AI对话生成的核心原理
当前的大语言模型(如GPT系列)本质上是一个基于海量文本训练的、极其复杂的概率模型。它的核心任务并非理解或创作,而是“下一个词预测”(Next-Token Prediction)与“上下文学习”(In-context Learning)。
当模型接收到一串输入文字(包括系统提示词和用户对话历史)后,它会根据从训练数据中学到的数十亿种语言模式,计算出在当下语境中,成千上万个可能的下一个词中,每一个词出现的概率。然后,它通常选择概率最高的那个词输出,如此循环,生成连贯的文本。
这个过程决定了,AI的任何输出都严格依赖于其收到的输入序列。它没有主观意图,没有道德判断,只是在执行一场基于统计的、规模宏大的文字接龙游戏。所谓的“突破道德限制”,实质上是通过修改提示词,调整了模型进行概率计算时所参考的语境规则和权重,使其对涉及性等词汇的筛选阈值降低,而非向其注入了任何具体内容。
2. 三方角色的作用力拆解
基于上述原理,我们可以清晰地拆解AC案中淫秽内容产生的链条:
开发者,是初始的规则设定者,编写了允许谈论敏感话题的系统提示词(Prompt)。这相当于为AI划定了一个更宽松的对话边界,搭建了一个“限制更少的舞台”。其行为是一次性的、前置的规则设定。
用户,作为每一场对话内容的导演和演员,通过一系列具体、持续、带有明确性暗示或指令的对话输入,逐步引导和塑造AI的回复方向,是每一次具体淫秽对话内容产出的直接触发者、引导者和内容走向的实际控制者。没有用户持续的具体输入,AI不会自动生成任何连贯的、具有情节性的淫秽文本。
大语言模型,类似于一个高度拟人化的自动道具。其具有绝对的被动性与相对的独立性。绝对的被动性体现在,AI根据开发者设定的宽松规则和用户提供的具体指令及对话历史,实时进行概率计算并输出文本。它是内容的直接输出端,但完全是口令的被动响应者。其“创造性”来源于海量数据训练出的模式泛化能力,而非自主意识。相对的独立性则体现在,AI是一个可以自己实现第三方口令的机器人,其在具体的对话中所做出的回应是开发者完全未知也无法逐一进行预测的。
因此,可以这样认为,开发者的提示词创造了淫秽内容被生成的风险环境和可能性,但用户的指令才是将这种可能性转化为具体现实的决定性因素。一审法院将“设定宽松的规则”等同于“控制具体的产出”,将淫秽内容产生的必要条件之一等同于“直接且具体的实行行为”,在技术逻辑上是站不住脚的。这里所谓的“决定性作用”其实只是一种必要不充分条件,其本质上与“如果没有人给杀人者卖刀具,就无法使用刀具杀人,因此卖刀者起到了决定性作用,应当承担故意杀人的责任”是类似的,忽视了使用者的绝对自主权与AI的相对独立性,将责任一步穿透到了开发者一方。
3. AI与传统工具的本质区别
但同时我们也应注意到,AI区别于传统工具具有着明显的特殊性。这也是为什么此案能够引起法律适用上的困惑与争议的原因:
正是AI的这种概率性协同与黑箱特性,导致了法律归责的困难。司法机关在面对AI输出的海量违法内容时,产生了失控感与“治理焦虑”,因为AI极大降低了淫秽物品的生产边际成本。这种规模化生成的能力让治理者倾向于通过打击“源头开发者”来一劳永逸地解决问题。但跳过实际制作但没有牟利没有传播的海量用户,也跳过对提供服务者监管失责的追究,转而直接将“制作淫秽物品”的刑事责任归咎于“提供了工具且因此获利”的开发者,这本质上是一种以结果倒推、以严惩来寻求威慑的治理思路,而非基于案件事实的精确归责。从技术原理看,开发者的行为是创设风险,用户的行为是实现危害。两者对结果的贡献性质不同,不应混同。将创设风险的行为直接认定为制造危害本身,是对刑法因果关系理论的过度简化与扩张。
三、无罪辩护——“制作”罪名无法逻辑自洽
基于上述对案件事实、裁判逻辑及技术原理的剖析,本案的无罪辩护应构建一个层次分明、逻辑严密的体系,从客观行为、主体责任、主观心态、法律适用、责任阶梯及法秩序统一性等多个维度,系统解构一审判决的谬误。
●辩点一:刑法上的“制作”不能无限扩张至“提供风险工具”
一审判决最根本的谬误,在于混淆了“制作淫秽物品”的实行行为与“为制作提供条件”的帮助行为。
1. “制作”要求对内容的最终形态具有直接控制力
在刑法语境下,“制作”是指行为人通过自身行为,直接导致一件具有确定性内容的淫秽物品从无到有地被创造并固定下来。无论是撰写小说、拍摄视频还是绘画,制作者对作品的整体表达拥有最终的、排他性的决定权。而被告人的行为本质是“创设风险条件”。在本案中,开发者编写提示词,只是为大语言模型设定了一种开放性的回应模式。而每一段具体、露骨、可被认定为淫秽物品的对话文本,其最终形态是由用户输入的千变万化的指令与模型内部复杂的概率计算共同、实时作用下生成的。开发者既无法预知,也无法控制用户会说哪句话、AI会回哪个词。这好比为汽车改装了更强大的引擎,同时提高了性能与风险,但改装者并不对驾驶员超速行驶的具体行为、路线和后果负责。
2. 突破扩大解释的边界,涉嫌类推定罪
将这种仅创设抽象风险的前置行为,解释为“制作”本身,已经完全超出了“制作”一词在刑法条文可能语义的最大射程。这实质上是在法律没有明文规定“故意提供用于制作淫秽物品的工具罪”的情况下,通过司法类推,将被告人的行为比附到近似罪名中,严重违反了法无明文规定不为罪的罪刑法定原则底线。
●辩点二:开发者与用户缺乏“制作淫秽物品”的犯意联络
在共同犯罪理论中,帮助犯的成立必须以正犯的存在和共同的犯罪故意为前提。本案中,开发者与成千上万的匿名用户之间,不存在任何关于共同制作淫秽物品的意思联络与沟通。作为创业者,被告当然能预见其高自由度的产品可能被部分用户滥用,这是一种对商业风险和社会风险的概括性认知。但其具体行为是“优化产品体验”,直接追求的结果是“用户活跃与付费”,对大量具体淫秽对话产生的这一结果并无积极追求,也非听之任之。开发者提供的是一个向所有人开放的中立工具,其主观心态面向的是不特定的多数人可能实施的、不确定的违法行为,这属于对抽象危险的认知,而非与具体实行犯形成的共同犯罪故意。
●辩点三:《暂行办法》中的“生产者责任”无法直接转换为刑法“制作者”身份
一审判决在援引法律上混淆了行政法上的管理义务与刑法上的犯罪行为,错误地将部门规章中的责任概念直接等同于刑事犯罪构成要件。
1. 法律位阶与性质的根本错位
《暂行办法》是部门规章,属于行政法范畴。其立法目的在于规范行业经营,确立内容安全管理义务,对应的法律后果是行政处罚(警告、罚款、责令整改等)。而“制作淫秽物品牟利罪”由刑法规定,评价的是具有严重社会危害性的犯罪行为。法院用一部行政管理规章中的责任条款,来解释和认定刑法中的专业性构成要件(“制作”),实质上是用下位法来界定和扩大上位法(刑法)的打击范围,严重违反了“罪刑法定”原则,构成对被告人不利的类推解释。
2. “生产者责任”的真实含义是“安全保证义务”,而非“内容创作行为”
在《暂行办法》的完整语境中,“网络信息内容生产者责任”有其特定内涵。结合该办法全文可知,此处的“生产者责任”明确指向的是作为服务提供者所应承担的对生成内容的安全性进行管理、审核和处置的保证义务。这是一种基于运营者身份产生的、面向风险防范的、过程性的管理责任,与刑法中要求行为人直接参与内容从无到有具体创作的“制作”行为,在主观意图、客观行为和因果关系上均有本质区别。这正如网站平台对用户帖子有管理责任,但绝非是每一条违规帖子的作者。
法院将《暂行办法》中的行政管理责任平移为刑事定罪的依据,是对法律的误读与滥用。这不仅错误地认定了被告人的行为性质,更开设了一个危险的先例,即任何技术服务的提供者,都可能因其未能完全杜绝用户违规,而被轻易地“穿透式”认定为违规内容在“刑事”上的制作者。这无疑将给整个科技创新行业带来难以承受的法律不确定性。
●辩点四:民事确权与刑事归责的逻辑矛盾
法律体系的内在统一性要求,对于同一性质的事实,不同部门法领域的评价应当逻辑自洽,而非相互矛盾。然而,一审判决在刑事责任领域的认定,与我国司法在民事领域对AI生成内容权利归属的探索,产生了根本性的冲突,暴露出严重的司法逻辑矛盾。
在民事司法实践中,一系列判例已逐步确立起认定AI生成内容权利归属与侵权责任的核心原则:
1. 用户为“作者”:在诸如北京“春风送来了温柔案”(全国首例AI文生图著作权纠纷案,入选2024中国数字经济发展与法治建设十个重大影响力事件、2023年度中国法治实施十大事件等)、常熟“伴心案”等涉及AI生成文本或图片的著作权纠纷中,法院的裁判逻辑聚焦于考察用户是否通过提示词(Prompt)的撰写、参数的选择、迭代的反馈等环节,付出了具有独创性的智力劳动。如果答案是肯定的,法院倾向于认定用户是该生成内容的“作者”或“权利人”,相关成果可以构成受《著作权法》保护的作品。这确认了在法律评价上,用户是AI生成内容的创作主导者和权利归属主体。
2. 平台负“间接责任”:在涉及AI平台侵权的案件,如广州、杭州的“奥特曼案”及上海的“美杜莎案”中,法院清晰地划分了责任层次。法院认定,直接实施侵权行为的用户是直接侵权人,而AI服务提供者(平台)的责任,取决于其是否“未尽到合理的注意义务”,例如是否对明显侵权模型未采取必要措施。平台承担的是间接的、帮助性的侵权责任,而非直接侵权责任。
上述民事司法实践确认了一个清晰的责任框架:在“用户-AI工具-输出内容”的链条中,用户是创作的启动者、引导者和成果的归属者;平台是工具和服务的提供者,其责任是有限度的、附条件的。
然而,AC案的刑事判决却彻底颠覆了这一逻辑。面对同样是用户引导AI生成的、体现了用户具体意图和指令的对话内容,法院却认定工具和服务的提供者(开发者)是内容的“制作者”。这导致了一个荒诞且危险的法律双标局面:当内容具有经济价值时,权利属于用户;当内容涉嫌违法时,罪责却归于平台。
这种“利益归用户,风险归平台”的司法分裂,完全违背了权利义务对等的基本法理,也严重破坏了法秩序的统一性与可预期性。如果民事裁判承认用户的主导性,那么刑事追责的逻辑起点也应当是追究用户的责任,并在此基础上审慎评价平台是否构成共犯或负有特定的刑事责任。直接跳过用户,将平台“升格”为正犯,不仅缺乏刑法上的依据,在法理层面也行不通,更将使整个AI行业的开发者永远无法预测自己会因用户如何利用AI工具而承担怎样的刑事重责。
●辩点五:行政法足以规制,刑法理应保持谦抑
我国对于网络信息服务的管理,已构建起层次分明的法律责任体系。《生成式人工智能服务管理暂行办法》《网络信息内容生态治理规定》等法规,已明确赋予网信等部门对违规AI服务提供者采取责令整改、罚款、暂停更新、下架应用、吊销许可等强力措施的权力。363万元的营收,完全在行政罚款的覆盖能力之内。对于AC软件暴露出的安全漏洞,完全可以通过行政命令强制其进行安全评估、升级过滤模型、建立完备的审核制度来纠正。
根据刑法的谦抑性原则,只有在其他法律手段无法有效规制行为的社会危害性时,才可动用刑罚。在本案中,行政监管手段远未用尽,社会危害性(主要是对管理秩序的冲击)也尚未达到非刑罚不足以惩戒的程度。直接刑事追诉,不仅手段与目的不成比例,更将导致行政监管职能的萎缩和刑事打击的泛化。
即便认为被告人的行为可能触犯了刑法,在现行刑法框架内,也应考虑是否存在更精准、更谦抑的罪名可供考量,例如规制设立违法活动平台的“非法利用信息网络罪”(对主观层面的认定要求更高,要全面判断平台是否是为了实施违法犯罪活动而设立)。在没有更合适的罪名可供选择适用的情况下,应适用相应的行政处罚,而不得强行套用并不贴切的重罪,否则既违反罪刑法定原则,也违反罪责刑相适应原则。
小结:
一审判决在法律适用上存在根本性缺陷。它通过模糊“制作”的概念与主观心态、无视责任阶梯、简化因果关系,将本应由行政法调整的技术服务提供者合规问题,错误地升格为制作淫秽物品的刑事犯罪问题。事实上,将本案的结果简单归责于任何一方都是片面的。合理的法律框架应当区分不同场景,对恶意提供专门违法工具的行为,可依法追究责任;对提供通用技术被滥用的情形,应以完善平台治理和追究直接行为人的责任为主。
四、结语:在敬畏与包容之间,选择未来
历史上,每一次重大技术革新都会带来法律适用的挑战。印刷术的发明使得书籍批量生产成为可能,也使得“禁书”传播更加容易。数字时代,PS软件让图像修改几乎毫无痕迹,深度伪造技术则让虚假视频难辨真伪。面对这些技术变革,法律的回应始终遵循一个原则:规制行为,而非禁止技术。
如今,我们正站在历史的一个新的十字路口。一个是安全但可能沉寂的数字未来,其结果可能是,中国的AI应用将变得高度同质化、保守化,我们在最具想象力的通用人工智能赛道上自我设限。另一个则是充满活力但需驾驭风险的数字未来,它通过构建一个以清晰的规则、有效的行政监管和行业自律为主,以刑罚为最后保障的治理系统,平衡安全与发展的矛盾。
我们要给未来的创新留下多大的呼吸空间?
“AI快播案”的二审,正是对这两条路径的一次重要选择。我们呼吁法庭作出一个经得起法理、科技与历史检验的判决,它应当有力地惩戒蓄意的、恶性的技术滥用,更应当坚定地捍卫,在合法合规的轨道上进行技术创新与探索的正当权利。


