每经评论员 杜恒峰
2024年9月,江苏南京执业律师李小亮发现,在百度手机App(应用程序)、百度网站搜索其“个人姓名+职务”时,“百度AI(人工智能)智能回答”竟然给出“李小亮律师被判三年有期徒刑”的错误文字内容,并配有他身着律师袍的照片。
2025年9月,南京市江北新区法院一审认定北京百度网讯科技有限公司(以下简称百度公司)上述行为构成名誉侵权,并判决向李小亮书面道歉,百度公司不服提出上诉。2026年3月,南京中院二审驳回上诉,维持原判。由于百度公司尚未履行生效判决,近日,李小亮向江北新区法院提交了强制执行申请。
如果一个人辱骂了另外一个人,就理应道歉,这属于常识范畴,但对提供信息搜索服务的互联网平台来说,情况要复杂得多。
法院判决提到,百度搜索的下拉词条、“大家还在搜”等显示的内容均为用户使用百度搜索功能记忆,用户搜索的“江苏李小亮律师坐牢了吗”等相关内容并不具有明确指向性,百度公司未能主动更新删除,并无主观过错,属于合法履行义务。同时,百度公司对于相关搜索内容所涉及的词语也不能直接屏蔽,否则会损害相关用户的权益。因此,百度搜索的下拉词条、“大家还在搜”等显示的内容不构成侵权。
而真正构成侵权的,是“AI智能回答”将李小亮照片与“李小亮因犯爆炸罪,被判有期徒刑三年”等信息一同显示,指向性明确,会对其工作、生活等方面造成负面评价。
百度公司之所以不愿意履行判决义务进行道歉,与其坚称的“技术中立”原则有关,即科技或工具的发明者无法控制使用者如何使用该工具,所以也不应为意料之外的工具用途负责,如果要求服务提供者对技术受限造成的结果承担侵权责任,则是过分苛责新技术研发。其还指出,2024年是国内人工智能发展初期,“AI智能回答”在有限技术条件下,准确性受限,百度公司对损害后果的发生不具有预见性,司法理应采取克制和谦抑态度,而非积极干预创新。
但是技术中立必须遵循一定的规则,即工具或技术是被动的、中性的。用户常用的网盘、搜索引擎、社交网络,都是平台提供工具,由用户上传、发布内容,技术本身只是传输、存储的工具,无法主动生产信息,因此不对用户滥用工具承担责任,即工具不生产内容,只提供渠道。法院上述判决其实也承认了这一原则——搜索框的下拉词条不管是什么内容,都是用户生成的,百度公司可以免责。
问题在于,“AI智能问答”的内容是由大模型主动生成、主动输出的信息,并非被动呈现用户内容;AI产生“幻觉”编造“律师犯爆炸罪、判刑三年”并匹配李小亮照片,这不属于技术中立的范畴。
关于技术发展初期司法不应“积极干预创新”,这一逻辑颠倒了技术发展与法律责任的关系。法律从来不是否定AI技术,而是禁止AI成为造谣、侵害他人人格权的工具。新技术可以容错,但不能容忍主动捏造他人犯罪记录、精准匹配个人肖像、侵害名誉权。如果以技术发展为借口,免除平台对AI生成虚假信息的责任,等于允许大模型造假,而平台无需承担后果。其结果必然是导致AI技术野蛮生长,侵权行为会层出不穷,即所谓“劣币驱逐良币”,糟糕的AI工具将占领市场,对整个行业发展百害而无一利。
解决信任问题,是AI从能用到好用再到可以放心用的必修课。AI生成内容可信需要平台付出大量工作和成本,以贴合真实信息,对齐法律和道德准则。当AI工具越是不可或缺,其越可信,使用的用户就会更多,商业价值也才会跟随增长。从这个角度看,解决AI可信问题就不应当视为成本项目,而是平台赢得用户的强大竞争壁垒。