曾被指诱导 14 岁少年自杀,Character.AI 全面禁止未成年用户与机器人聊天
曾被指诱导 14 岁少年自杀,Character.AI 全面禁止未成年用户与机器人聊天
  • 2026-03-17 23:07:17
    来源:尺山寸水网

    曾被指诱导 14 岁少年自杀,Character.AI 全面禁止未成年用户与机器人聊天

    字体:

    10 月 30 日消息,北京时间今日,聊天机器人平台 Character.AI 宣布,将针对青少年用户推出多项安全措施,此前公司收到了监管机构、安全专家和家长的反馈。

    其中一项关键措施,就是在 11 月 25 日前全面取消未满 18 岁用户的开放式聊天功能。在此之前,Character.AI 表示,未成年用户每天的聊天时间将从两小时起逐步缩短。为了让青少年仍能保持互动,Character.AI 将推出新的创意功能,包括与角色共同制作视频、故事和直播内容。

    Character.AI 还表示,将推出自主研发的年龄认证系统,并结合 Persona 等领先第三方工具,确保每位用户只能使用适合其年龄的 Character.AI 功能。

    此外,Character.AI 将成立独立非营利的 AI 安全实验室,公司将提供资金支持。实验室将专注于下一代 AI 娱乐功能的安全设计创新,重点探索新型安全技术、加强合作并分享经验。

    Character.AI 向受开放式聊天取消影响的青少年用户表示歉意,并承认这是一个重大调整,但公司仍认为此举是正确选择。

    据此前报道,美国佛罗里达州一名母亲 Megan Garcia 指控人工智能平台 Character.AI 的聊天机器人导致其 14 岁儿子自杀。联邦法官裁定,谷歌与 Character.AI 必须面对这起诉讼。

    相关阅读:

    《聊天机器人被指诱导 14 岁少年自杀,美国法官裁定谷歌须与 Character.AI 共同担责》

    广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,所有文章均包含本声明。

    【纠错】【责任编辑:melo7zz】