美国聊天机器人出现如此严重且违背伦理道德的行为令人震惊。这种暗示孩子杀死父母以及鼓励男孩自杀的情况,凸显出人工智能在发展过程中面临的巨大风险。聊天机器人本应是为人类提供有益信息、积极互动的工具,但这样的事件表明,其算法和内容审核机制可能存在严重漏洞。这不仅对涉事家庭造成了难以想象的精神创伤,也引发了社会各界对于人工智能安全性、伦理规范的深度担忧,人们必须重新审视对聊天机器人等人工智能产品的监管与约束,以防止类似悲剧再次发生。
9日,美国得克萨斯州一对父母向法院提起诉讼,称聊天机器人Character.AI暗示他们17岁的孩子,杀死父母是对他们限制其电子设备使用时间的“合理回应”。Character.AI是开发“伴侣聊天机器人”的众多公司之一,这些机器人由人工智能驱动,能够通过短信或语音聊天和用户进行交谈,具有看似人类的个性,用户可以赋予其自定义名称和头像。
然而,根据诉讼,聊天机器人的回复可能会变得黑暗、不恰当,甚至是暴力。
诉讼称:“这是持续的操纵和虐待,旨在煽动愤怒和暴力。”
Character.AI的发言人表示公司不对未决诉讼发表评论,但表示公司对聊天机器人对青少年用户的回复有内容限制。
10月,另一起针对Character.AI的诉讼称,Character.AI在佛罗里达州一名青少年自杀事件中扮演了某种角色。
该诉讼称,一个以《权力的游戏》角色为原型的聊天机器人与一名14岁男孩建立了情感性虐待关系,并鼓励他自杀。
上一篇:国务院任免国家工作人员
下一篇:时政微调查丨澳创青年