谨防AI迷雾遮蔽战争残酷性
本报评论员 刘晓庆
■ 本报评论员 刘晓庆
历经40余天战事后,美国和伊朗于4月8日先后宣布同意停火两周,以色列也对停火表示支持。回顾这场战事,一个显著的特征是:由AI生成的虚假图片、虚假影像总能“引爆”网络,让战事蒙上一层AI信息迷雾。
细究过往的重大事件,揣测与谣言总是难以禁绝。步入人工智能时代以后,AI加持下的虚假信息比以往更易批量化生产、更具迷惑性,有时连专业人士都被骗得团团转。比如,上周末一架美军战机在伊朗上空被击落,两名机组人员成功逃生,随后一张美国大兵手捧星条旗的图片流传于社交平台,并被得克萨斯州州长等多名共和党人转发。图片最终被证实并非真实照片,“官方大V”的带头转发也招致大量批评,称其“扰乱局势”。
战场容不下AI的“脑补”。AI的成长与成熟,本就建立在试错—纠错的基础之上,AI“天马行空”的创造力很多时候需要人类的经验为之核准、把关,否则极易出错。古往今来所有的战争都是残酷的,容不得一丝玩笑与虚假。它关乎生死,一枚炮弹落下,一个个幸福的“小家”顷刻间化作废墟,一条条鲜活的生命息声归隐于“伤亡人数”。美好的崩塌、生命的消逝触发了“生而为人”朴素的悲恸之情,这种共通的情感无关政治、跨越国界。
然而,当AI生成的虚假信息充斥网络时,真与假、虚与实的边界变得模糊不清,人们的认知极易陷入混乱,最终这些混乱还是会反噬现实世界。比如,美国“林肯”号航空母舰在炮火中燃烧,事后被辟谣“是假的”;伊朗空袭遇难者坟墓图片被AI判定为“假”,事后人们才惊觉这是真实发生的灾难。当AI被别有用心者用来混淆是非,一些战争暴行可能会被掩盖,进而影响现实世界中的监督与追责。更深远的影响是,人们可能由此产生“判断疲劳”,为了不被泛滥的虚假信息欺骗感情,索性不再关注战事信息,索性收起珍贵的恻隐之心,最终陷入“防御性冷漠”的恶性循环。战争的真实、惨烈,就这样在真假莫辨的迷雾中被淡化、被消解。
AI的进化日新月异,战场上的AI迷雾或许难以在短时间内被驱散,但我们仍有不少努力值得去做。社交平台X不久前宣布,若创作者发布AI生成武装冲突视频时未做标注,则将暂时取消其变现计划资格,直指大部分内容生产者最为关心的“流量”与“变现”。网络上,也有不少网民在合力构建“虚假信息免疫系统”,汇总与共享现实中的经验、常识、专业知识等,去识别AI伪造的破绽。
前段时间热播的电视剧《太平年》中,台词“若能复饮太平年下的一杯热酒,于愿足矣”让人百感交集。战争的残酷不应被AI迷雾消解,人类的朴素情感也不该被虚假信息戏耍。