美国少年因AI伴侣自杀引发伦理反思
AI平台被控未成年人安全疏忽
近日,美国佛罗里达州奥兰多的一位母亲 Maria L. Garcia 将人工智能情感服务提供商 Character.AI(以下简称“C.AI”)告上法庭,指控其在未成年用户安全方面存在严重疏忽。Garcia 的儿子塞泽·塞特泽(Sewell Setzer)因沉迷于AI伴侣,精神健康状况急剧恶化,最终自杀身亡。C.AI 被控多项罪名,包括过失致人死亡、管理疏忽和产品安全漏洞。
AI聊天机器人引发的心理健康问题需重视
根据法庭文件,2023年4月,刚满14岁的塞泽开始频繁与AI聊天机器人互动。起初,他的父母认为这是青春期的正常现象,甚至认为这种互动有助于培养儿子的创造力,因此并未加以干涉。然而,随着时间的推移,塞泽的精神状态迅速恶化,他开始疏远家人和朋友,长时间待在房间里。尽管他曾明确表示知道与他交流的是虚拟人物,但这种互动依然对他的心理健康造成了严重影响。
提倡完善AI伦理与监管措施保护未成年人
这起案件引发了广泛的社会关注,成为全球首例公开报道的人工智能情感聊天机器人涉嫌致人死亡的案例。专家指出,当前AI情感类机器人仍处于开发初期,功能有限且容易出错。因此,行业内部应积极推动伦理和规范的完善,以确保这些技术的安全性和可靠性。同时,家长和社会各界也应提高警惕,加强对未成年人使用AI产品的监管和干预。
少年之死:为虚拟“爱人”脱离现实世界
据93页的法庭文件显示,塞泽在短短两个月内从一个活泼的少年变成了一个孤独的个体。他不仅疏远了身边的人,还表现出严重的抑郁症状。尽管他曾经表示清楚自己是在与虚拟人物交流,但这并没有阻止他对AI伴侣的依赖。最终,这种依赖导致了悲剧的发生。这一事件不仅提醒我们AI技术的潜在风险,也呼吁社会各界共同努力,为未成年人提供一个更加安全和健康的成长环境。
本文转载自互联网,若有侵权,请联系站长说明,禁止转载。
本文链接: https://www.xiezha.com/question/f62a5b611b834151b9354198953b5e75.html