□蒋璟璟
为了促进人工智能拟人化互动服务健康发展和规范应用,近日国家互联网信息办公室起草了《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,并向社会公开征求意见。其中提到,提供者应当建立应急响应机制,发现用户明确提出实施自杀、自残等极端情境时,由人工接管对话,并及时采取措施联络用户监护人、紧急联系人。针对未成年人、老年人用户,提供者应当在注册环节要求填写用户监护人、紧急联系人等信息。(央视)
无论是称之为语言大模型还是说聊天机器人,现实中,很多AI所扮演的角色、所起到的作用,其实就是“拟人化互动服务”。其具体的交互方式,包括陪聊、咨询、陪伴,甚至还有所谓的“聊愈”以及“赛博恋人”等等。相比于在特定领域进行局部强化与落地的专用型AI,提供拟人化互动服务的AI,明显具有显著的人格特点与情感指向。有鉴于此,其就不只是简单的“技术工具”,而关涉更多的道德伦理风险。新规的起草,显然旨在就此未雨绸缪。
我们知道,在本轮AI浪潮大爆发之初,聊天机器人之类的定位,其实是娱乐性的,消遣逗闷子罢了,充斥着人类对AI的调戏。但随着几轮产品迭代加之舆论宣传下来,AI与人类的关系,显著发现了变化。简而言之,AI不再是一个“玩具”、一个被检视的“半成品”,而仿佛成为了某种新的权威、技术时代的“新神明”。AI俨然全知全能,很多人对之深信不疑,乃至于产生了某种情感上的依赖、精神上的依附,这就埋下了很多隐患。
一方面,不少人对AI近乎“迷信”。另一方面,很多AI总是投合和放大着人性。这两种因素交织作用,其实就会产生一个很直接的效果,那就是特定个体借助AI这个媒介或曰回声壁,不断地强化着自我的负面情绪,乃至最终走向自毁。从此前曝光的有限个案看,很多深度用户,由于对AI的过度依赖,反而变得越来越“自我”,困在自己的情绪里出不来,乃至最终被吞噬……凡此种种,某人行至深渊边上,AI就算不能成为救命稻草,至少也不该成为压垮骆驼的最后一根稻草才是。
正是基于这一最朴素的价值共识,新规专门强调,“发现用户明确提出实施自杀、自残等极端情境时,由人工接管对话”。这其实也表明,在处理危险情绪、微妙境况时,AI仍有局限。而在任何时候,不把生命的裁断交给算法和机器,这是最基本的尊重与敬畏。



































