从今年清明节前后掀起的“AI复活热”,到10月一起与AI陪伴产品有关的美国少年自杀诉讼案出现,AI陪伴服务走进日常生活的同时,也引发了一系列有关法律伦理问题的探讨。当机器人外形越来越像“人”,功能越来越完备,智慧水平越来越高,未来人类如何与之相处,会产生哪些风险成为无法回避的问题。
12月18日,南都数字经济治理研究中心联合清华大学智能法治研究院在京举办“第八届啄木鸟数据治理论坛”,来自高校、集体管理组织、企业界等领域的专家学者围绕“AI应用落地提速,如何向善治理”展开探讨。会上,中国人民大学哲学院教授刘永谋以“机器情感与AI陪伴的人文审度”为主题发表主旨演讲。
刘永谋发表主旨演讲
刘永谋首先指出,主打AI陪伴的伴侣型机器人今后或成为人工智能领域最赚钱的赛道之一。随着技术发展,未来的伴侣机器人不仅能在外型上以人类想象中的完美形象呈现,功能齐全,还能提供足够的情绪价值满足人类情感需求。当人类逐渐与机器产生更深度的情感交流,从人文视角看可能会带来一系列问题。
具体而言,首先是人身安全和隐私风险。刘永谋认为,伴侣机器人可能对人类造成伤害,比如与金属材质制成的机器人接吻可能会中毒;一旦程序设置失控,人类可能因机器人拥抱力度过大而受伤等等。此外,如果机器人被黑客入侵操控,可能侵犯主人隐私,甚至控制主人的行为。
其次是孤独和恐惧情绪的增长。人与机器人的交往一旦取代人与人的交往,人类会减少社交和户外活动,不断滋生孤独情绪,甚至对原有的社会关系产生抵触和抗拒心理。同时还会产生“恐怖谷效应”,当机器人与人类的相似度上升到特定临界点时,人类的情感反应会变得极其负面和反感,产生僵硬、恐惧的感觉。
依赖和成瘾问题同样值得重视,这一问题已经在当前的手机成瘾现象中有所体现。手机软件可以通过各种算法让人对它产生依赖,那么“百依百顺”的伴侣机器人会极大程度地加深这种感觉。“有人说以后也许会出现‘夫妻加一个机器人’的家庭组合模式,(我认为)这是不可能的,这种模式会引发第三者插足等一系列婚姻矛盾和家庭矛盾。”他说。
此外刘永谋认为,某些情况下,AI陪伴服务还可能对人类的性道德带来挑战。与绝对服从命令的机器人相处时间过久,人与机器人之间形成的交往模式可能影响人类的基本道德判断,比如人类出轨别人的伴侣机器人,制作一个与追求的人类对象外型一模一样的机器人,出卖自己的机器人和别人恋爱……这些极端情形或引发十分复杂的法律和伦理问题。
在生育率下降的现阶段,AI陪伴服务发展还可能影响人类生育。刘永谋认为机器人伴侣的普及或进一步降低人类的生育意愿,甚至进入“不爱不婚不孕”的状态。另外机器人的权利问题也不容忽视,“目前人工智能是没有意识的,但如果某一天它真的有了意识,是不是该把它当做人对待也值得思考。”
不过,刘永谋在会上强调,从人文视角探讨机器情感与AI陪伴的潜在风险,并不意味着反对新一代人工智能发展,而是在为科技发展保驾护航。在他看来,广大科技从业者致力于实现技术迭代的同时,也应思考探寻一条符合现有价值观念和伦理观念的人工智能发展道路。