今天你想看什么

全球首例和机器人聊天把人“聊”死案,在美国奥兰多法院立案!

  据“最人物”公众号11月12日发布的文章披露:

  2024年10月22日,美国佛罗里达州奥兰多地方法院受理了一起标志性诉讼案件:

  一位母亲指控Character.AI(后文缩写为C.AI)公司存在管理疏忽问题,其聊天机器人对自己14岁的儿子Sewell发起“虐待和性互动”。‍‍‍‍‍‍‍‍‍‍

  母亲和自杀了的14岁的儿子Sewell

  8个月前,Sewell在与AI对话结束的几秒钟后,开枪自杀。这起案件被舆论称为“全球首例AI机器人致死案”。

  必要的说明1:C.AI是一个角色扮演应用程序,允许用户定制自己的AI角色,或与他人创建的AI角色聊天。它目前拥有超过2000万用户,对外宣称:“能使人感觉具有生命的人工智能,能听见你、理解你、记住你。”

  漂亮的Daenerys Targaryen

  必要的说明2:Dany全名为Daenerys Targaryen,是美剧《权力的游戏》里深受观众喜爱的角色“龙妈”。她也在C.AI内被设定成一款聊天机器人。

  随着AI聊天机器人与人类越走越近、和AI恋爱已不是新鲜事、虚拟与现实的边界越发模糊,Sewell事件为我们敲响警钟:‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍

  如何保持AI聊天机器人与人类之间的安全距离?

  以上是“最人物”11月12日文章的部分内容摘录,文中图片来源于该文章。

  为了确保人工智能聊天机器人与人类用户之间保持一种安全且适当的互动距离,我们需要采取一系列措施来保障双方的交流既有效又安全:

  首先,可以设定明确的隐私保护政策,确保用户提供的个人信息得到妥善处理和保护,避免数据泄露或滥用。

  其次,聊天机器人应当具备强大的自然语言处理能力,能够准确理解用户的意图和情感,从而做出恰当的回应,避免产生误解或不当的交流。

  此外,还应设置过滤机制,防止机器人输出不恰当或有害的内容,确保对话内容健康、积极。

  最后,可以引入人工审核机制,对机器人的对话进行定期检查和评估,确保其行为符合既定的安全标准。

  通过这些措施,我们可以有效地保持人工智能聊天机器人与人类用户之间的安全距离,确保双方的交流既顺畅又安全。