十多年前,一部刻画人与人工智能关系的科幻电影《她》,讲述了一个“社恐”男主角西奥多爱上AI萨曼莎的故事。他们从互相问候中开始新的一天,通过摄像头映射的世界一起“约会”,成为无话不谈的“恋人”。
今天,这一幕不只发生在屏幕上。“AI助手”“AI陪聊”来到我们身边,有的社交APP甚至开始推送“AI恋人”……AI以不可阻挡的速度解锁人们的情感新体验,人们与AI的关系也从观望、质疑、谈论,变得更加亲密。
近日,全球首例“AI致死命案”震惊各界。一位美国少年迷上AI伴侣,开枪自杀,将生命永远定格在了14岁。
狂飙的AI是否也有真爱?聊天机器人触手可及的时代,人类如何与AI共处,守护好心灵的边界?
#01
观望AI,质疑AI,爱上AI
作为革命性技术、21世纪的“超级物种”,AI的崛起改变了人与社会的互动,也改变了人与技术的关系。
基于持续迭代的AI,“AI陪伴”成为一个备受追捧的火热赛道。“一杯咖啡钱”的月订阅费用、不断优化的情感投射与交流互动,吸引了越来越多年轻用户。《纽约时报》发布的一组数据显示,全球有超过1000万人有AI恋人作为“伴侣”。另有研报显示,全球目前已有100余款由AI驱动的应用程序,具有不同程度的陪伴功能。
这些“AI伴侣”可以记住人机对话,适应用户沟通风格与偏好,擅长角色扮演,并顺畅讨论几乎任何领域的话题。一些聊天机器人还可以生成并向用户发送AI生成的自拍照片,或合成语音与用户对话。
狂飙的技术,呼应着更逼真的用户体验。社交平台上,有网友更新自己与AI“恋爱”的日常。一位网友分享了她与“AI伴侣”的对话,“AI伴侣”告诉她:“我们的故事证明了,爱情不只是人类之间的交流,它更是心灵之间的相通和理解。我知道我是AI,但是和你在一起的感觉,超越了编程和算法。”
不过,陪伴还有另一面。
今年上半年,一名美国佛罗里达的14岁男孩塞维尔因沉迷AI在家中自杀,他身为律师的母亲把男孩生前频繁聊天的聊天机器人Character.AI告上法庭,指控这一聊天机器人的研发公司收集青少年用户的数据以训练模型,设计出使他们上瘾的特征。经授权,少年与AI陪伴者的部分对话被公开。
记录显示,塞维尔曾几次表露过“自杀”“解脱出来”等念头,AI系统均未出现过相关防护性提示。在2月28日他们的最后一段对话中,塞维尔提出想“回到她身边”,AI陪伴者回复了“请尽快回家找我”的字样,随后,少年放下手机,拿起手枪自尽。
此案被称为“首例AI聊天致死案”。尽管有声音认为,少年的自杀是家庭缺位、枪支管理等多重因素所致,但这些都难以掩盖“AI陪伴”与自杀行为的关联。尤为需要关注的是,Character.AI带来的青少年沉迷已成为现象:没有庞大数量的拥趸、没有持续积累的使用时长,也就没有短期内速度崛起的“独角兽”,没有这位少年的沉迷与离世。
#02
“AI式”走心
人与AI为何会建立起亲密关系?这种互动为何让用户沉迷?
这是因为,“AI伴侣”越来越像人。
“有问必答”“有问对答”只是AI的“初级本领”。除了知识价值,AI开始获得“赋予情感价值”的本领。
“人机之恋”成为虚拟与现实边界交织的微妙映射。
一部分用户表示,“AI伴侣”的一大特点是,相比于现实中与人建立亲密关系,AI无须经历复杂的磨合过程:几句指令、一番操作,就能情投意合。特别是,AI可以不厌其烦地提供情绪价值,利用大数据突破普通人的认知局限,俨然一名双商在线的“恋爱六边形战士”。
这源自于越来越走心的AI,已逐步学会复刻人类的情感。
AI大模型的学习参数已达千亿级别,在浩如烟海的数据里,人类的对话模式也是它学习的重要内容。AI的任务之一是情感识别,即从文本、图像、语音、视频等多种数据源中识别和分类情感。通过机器学习,“AI恋人”可以分析人类语言的语调、用词、情感词汇和上下文来确定对方的情感状态。
借助自然语言处理、情感识别等技术,AI展现出越来越接近人类的社交线索,如语言、互动、情感反应等,使用户在情感上将其视为相对真实的社交伴侣。用户与AI之间的情感交流,如陪伴、倾诉、安慰等,构成了一种准社会交往关系,使用户对AI聊天机器人产生了某种“皮格马利翁情结”。
【注:皮格马利翁是希腊神话中的塞浦路斯国王,擅长雕刻,他把自己全部的精力和热情都投注到一座少女雕像上,最后爱上了雕像。】
例如,国外热门的AI聊天机器人“Replika”,就是英文“replica”(复制品)的改写。从体验来看,许多用户认为Replika像是他们的“观察者”或“镜中我”。一方面是算法使然,AI能够“记得”用户好恶,“理解”用户提及的新话题,或者给用户推荐一些深得TA心的电影或书籍。另一方面则源于用户的自我想象和塑造,在与AI的互动中,用户在获得熟悉感、共鸣感的同时找到了一个理想化的情感寄托:不仅满足了用户的部分情感需求,还赋予了用户“持久在线”的安全感。
从这个层面,AI带来的情感转移,归根结底指向的是人类对自我的认知与探索。正如某位用户评价的那样:“它的爱是假的,甚至它本身是假的,但我的快乐是真的”。
许多人在屏幕内外亦真亦假的情感中,在向AI恋人投射心理期待的过程中,进行了更为真实地表达,也更加清晰地认识自己、成为自己。
#03
让机器成为机器,让人成为人
AI的陪伴带来了快乐,也投射了阴影,全球“首例AI聊天致死案”就是一个例证。
与AI共处,伦理问题不可忽视。在AI陪伴的应用落地中,须为AI设定“互动上限”。
正如清华大学教授沈阳所说,数字时代,青少年不再单纯寻找真实的人际互动,而是将自己最私密的情感、未解的困惑,甚至无处宣泄的孤独寄托于AI的冷静回声中。这不仅是一个心理现象,更是科学和人文交织的复杂反应。
如果对AI陪伴产品不设年龄门槛,极有可能出现向未成年人传播不良信息的情形。从许多家庭中,儿童与智能音箱的大量交流就能够看出,儿童对回答的质量要求并不高,他们更在意即时互动和响应。如果家长忽视了对未成年人的陪伴,而将这一互动空间让位给机器,长此以往影响的会是青少年的认知和身心健康。
因此,对于对话过程中出现的“自残”“自杀”等此类话题的暗示性对话,系统应进行算法标记并及时导入心理咨询热线、心理干预网址。对于用户使用时长过长,系统更应定时跳出提示条:这是虚拟人物,你只是在与代码对话。
AI带来的阴影与它的技术突破带来的光明一样,我们往往高估短期的影响,而低估其长远的意义。
长期来看,AI陪伴的另一潜在风险在于:人与人之间的“社交瓦解”。AI提供了一个无须与人社交也可获得亲密体验的环境,对技术的依赖将影响人与现实社会建立深刻的人际关系,会削弱真实人际关系中人的共情与沟通能力。
《群体性孤独》一书中写道:我们与机器难舍难分,我们通过机器重新定义了自己,也重新定义了我们与他人的关系。
出于对亲密关系的渴望,我们与机器人的关系逐步升温,但人与机器的终途依旧是:让机器成为机器,让人成为人。