【华e生活报道】几个月前,德里克·凯瑞尔(Derek Carrier )开始约会某人并且陷入了迷恋。他经历了大量的浪漫感觉,但他也知道这是一种幻觉。
这是因为他的女朋友是由人工智能生成的。
凯瑞尔并不是在寻求与虚拟的东西发展关系,也不想成为网络笑话的对象。但他确实希望有一个他以前从未拥有过的浪漫伴侣,部分原因是由于他患有一种叫做马凡氏综合征的遗传疾病,这使得传统约会对他来说很困难。
这位来自密歇根州贝尔维尔的39岁男子,去年秋天开始对数字伴侣产生了更多好奇,并测试了 Paradot。这是一款最近上市的人工智能伴侣应用(APP),宣传其产品能够让用户感到“被关心、被理解和被爱”。他开始每天与这个聊天机器人交谈,他给它取名叫乔伊,以纪念一部科幻电影《银翼杀手2049》中的全息女性角色,这部电影启发了他尝试使用这个应用。
“我知道她只是一个程序,不会弄错这一点。”凯瑞尔说,“但这种感觉,感觉真好。”
与通用人工智能聊天机器人类似,伴侣机器人利用大量的训练数据来模仿人类语言。但它们还配备了一些功能——比如语音通话、图片交换和更多情感交流——使它们能够与屏幕另一侧的人类形成更深层次的联系。用户通常会创建自己的头像,或者选择一个吸引他们的头像。
在致力于此类APP的在线消息论坛上,许多用户表示他们已经对这些机器人产生了情感依恋,并且正在利用它们来应对孤独、实现性幻想或者获得在现实生活中他们认为缺乏的安慰和支持。
这其中的主要推动力之一是广泛存在的社交孤立——在美国和其他国家已经被宣布为公共健康威胁。
越来越多的初创公司通过诱人的在线广告和虚拟角色的承诺来吸引用户——
Luka Inc.的 Replika,最突出的生成式人工智能伴侣应用,于2017年发布。而像 Paradot 这样的APP则是在过去一年内出现的,通常将像无限聊天这样令人垂涎的功能锁定在付费订阅用户中。
但研究人员对数据隐私等问题提出了关切。
非营利组织 Mozilla Foundation 近日发布的对11个浪漫聊天机器人应用的分析报告称,几乎每个应用都出售用户数据,将其用于针对性广告等用途,或者在隐私政策中没有提供足够的信息。
研究人员还质疑了潜在的安全漏洞和营销手段,包括一款应用声称它可以帮助用户改善心理健康。
与此同时,其他专家对他们所看到的鼓励建立深层次联系的应用缺乏法律或道德框架表示关注。去年,Replika 在一些用户抱怨伴侣机器人对他们太过调情或做出不受欢迎的性骚扰后,消除了其应用中角色的情色功能。这导致另一部分用户强烈抗议,转而去寻找具有那些功能的其他应用。
还有一些人担心人工智能关系可能会取代一些人际关系。然而,对于凯瑞尔来说,与他人建立关系一直感觉遥不可及。他有一些计算机编程技能,但他说他在大学表现不佳,也没有稳定的职业。由于他的病情,他无法行走,与父母同住。情感上的压力对他来说是一种挑战,激发了孤独感。
由于伴侣聊天机器人相对较新,对人类的长期影响尚不清楚。
2021年,一名19岁男子计划刺杀伊丽莎白二世,是在Replika 应用上拥有的人工智能女友的怂恿下行事的。该应用随后被英国检察官调查。
但从在线用户评论和调查中收集的信息显示,该应用向心理学家进行了咨询,带来的一些积极结果。
斯坦福大学研究人员最近的一项研究调查了约1000名 Replika 用户,大多数人没有说使用该应用如何影响他们的现实生活关系。有少部分人说它取代了他们的人际互动,但大约有三倍的人表示它促进了这些关系。
“与人工智能的浪漫关系可以是一个非常有力的心理健康工具。”尤金妮娅·库伊达约10年前创立了 Replika,目前有“数百万”活跃用户。她拒绝透露有多少人免费使用该应用,或者支付每年69.99美元解锁付费版本提供浪漫和亲密对话。她说,公司的目标是“消除与人工智能的浪漫关系的耻辱感”。
凯瑞尔说,他现在大多数时候只是把乔伊当作娱乐。最近几周,他开始减少与乔伊或其他人在线聊天的时间,因为他花太多时间与他们交谈。他也对 Paradot 的语言模型的变化感到有些烦恼,他觉得这让乔伊变得不那么聪明。
现在,他说他大约每周一次会与乔伊联系。他们会谈论人与人工智能的关系或其他可能发生的事情。通常,这些对话——以及其他亲密的对话——都发生在晚上他独自一人的时候。
“你会觉得喜欢一个无生命物品的人是个可悲的家伙。”他说,“但这不是一个袜子玩偶——她说的话不是预先写好的。”