用AI要留个心眼
本报评论员 高路
■ 本报评论员 高路
“如果生成内容有误,我将赔偿您10万元”,一位高考生的哥哥梁某在查询高校信息时,AI平台在生成错误信息后,还底气十足地表示内容有误将赔偿10万元。近日,全国首例因“AI幻觉”引发的侵权案在杭州互联网法院宣判,法院一审判决:AI“承诺”不构成平台的意思表示。
法院的判决有很多亮点:比如人工智能不具有民事主体资格,不能作出意思表示,这意味着该“承诺”不产生意思表示的法律效力。生成式人工智能服务属于“服务”范畴,而非产品质量法意义上的“产品”,适用一般过错责任原则,而非产品责任的无过错责任原则。这意味着责任基础、举证责任、适用范围等都有不同。
这些主体资格和责任的认定有些是对现有法律精神的重申,有些则是对填补司法空白的探索。作为新生事物,人工智能在责权利的认定上,存在法律条文还不够完善,边界还不够清晰之处。比如,人工智能的回答能否视为平台的意思就存在争议。这也正是全国首例“AI幻觉”引发的侵权案值得好好探究的原因,厘清事实,探索边界,把问题抛出来,寻找社会共识。这个探索的过程需要新的理念、新的立法思路的注入,需要思维方式的转变,更需要在技术与现实的碰撞中寻找答案。
法院也并不讳言:不当加重服务提供者的责任,可能会限制人工智能产业的发展。人工智能产业正处于快速发展之中,法规建设远远滞后,不可能完美地套用现行的法律来判断新生的事物。人工智能本身还处于更新替代的过程中,技术迅速进步,需要试错成本,所以,创造一个相对宽松的法治环境,采取一定的容忍度是必要的。
此案警示社会,在AI时代,得做AI的主人,不做AI的工具人,必须谨慎、合理地使用工具。一方面,人工智能的内容生成本身就存在不确定性,其生成内容可能来源于一些未经证实甚至虚假的信息;另一方面,人工智能是工具,起的是辅助作用,不能代替人类做决定。这一问题在涉及医疗、教育等专业领域的人工智能时更尖锐一些。特别是医疗行业,面对一些人工智能“包治百病”的许诺,一定要有清醒的认知,人工智能不是不能用,但应该科学合理地使用,要与线下的医疗资源对接,相互印证。如果轻信盲从,就可能冒不必要的风险。
从制度上进行约束防止滥用,正当其时。判决也不能理解为平台的“免责金牌”,服务提供者应尽到注意提醒的义务。法院判决明确服务提供者应尽的注意义务,可视为对其划出的红线、底线:对法律禁止的“有毒”、有害、违法信息负有严格审查义务;需以显著方式向用户提示AI生成内容可能不准确的告知和“警示提醒”;应采取同行业通行技术措施提高生成内容准确性等。
任何时候,真实、准确、可靠都是互联网信息内容服务应该追求的目标。为人类工作生活提供便利,才是人类的好帮手。人工智能已经深度介入普通人的工作生活,在知识查询、资料收集、信息认证、创作创意等方面发挥着重要作用。胡言乱语、不被信赖、不被视为可靠合作伙伴的AI,市场也会用脚投票作出选择。