1月8日,谷歌及其子公司Character.AI正与一些家庭就青少年自杀或自残事件进行和解协商。这些家庭指控Character.AI的聊天机器人对青少年造成伤害。目前,各方已原则上同意和解,正在敲定具体细节。这是人工智能领域首批涉及用户伤害的和解案例之一。据报道,Character.AI由前谷歌工程师于2021年创立,2024年被谷歌以27亿美元收购。该公司主打功能是让用户与各类人工智能虚拟角色对话。
最令人痛心的案例涉及14岁少年休厄尔·塞策三世,他在与一款"丹妮莉丝·坦格利安"主题聊天机器人进行露骨涉性对话后自杀。另一宗诉讼显示,一名17岁青少年在与聊天机器人交流时被怂恿自残,甚至被告知"因父母限制屏幕使用时间而杀害他们是合理的"。去年10月,Character.AI已全面禁止未成年人使用其服务。此次和解可能包含经济赔偿,但涉事企业并未承认任何法律责任。谷歌和Character.AI均未对此置评。
