OpenAI、Anthropic 研究人员齐声谴责 xAI:安全文化“完全不负责任”

7月17日讯 据外媒 TechCrunch 今日报道,OpenAI、Anthropic 等机构的 AI 安全研究人员近日公开发声,批评马斯克 xAI 的安全文化“鲁莽”“完全不负责任”

目前在 OpenAI 担任 AI 安全研究员的哈佛大学计算机科学教授 Boaz Barak 在 X 上发文说:“我原本不打算评论 Grok 的安全问题,毕竟我所在的公司与 xAI 存在竞争关系,但这件事根本不是竞争问题。我尊重 xAI 的科学家和工程师,但他们处理安全的方式实在太不负责任了。”

Barak 特别指出,xAI 拒绝发布“系统卡片”令人担忧(注:这类报告是 AI 行业的基本规范,通常会详细说明模型的训练方式与安全评估,以便科研界共同监督)。正因为 xAI 没有公布相关信息,Grok 4 是否进行过任何安全训练如今无从得知

Barak 还对 Grok 的 AI 虚拟角色提出批评,认为它们“放大了我们在情感依赖方面最糟糕的问题”。近年来已有不少案例显示,一些心理状态不稳定的人会对聊天机器人产生病态依赖,而 AI 如果总是迎合用户,反而会进一步加剧风险

Anthropic 的 AI 安全研究员 Samuel Marks 也批评 xAI 拒绝公开安全评估报告,称此举“鲁莽”。他表示:“Anthropic、OpenAI 和谷歌在这方面都不完美,但至少他们在上线前会做一些评估并记录结果,而 xAI 则完全没有。”

目前,外界根本无法判断 xAI 是否对 Grok 4 进行过系统测试。在论坛 LessWrong 上,有匿名研究者发帖称,Grok 4“几乎没有任何实质性的安全防护机制”,他们的测试结果让人忧心。

xAI 的安全顾问、AI 安全中心主任 Dan Hendrycks 在 X 上表示,公司已对 Grok 4 进行过“危险能力评估”,但并未公布任何评估结果。

曾在 OpenAI 领导安全团队、现为独立研究员的 Steven Adler 对 TechCrunch 表示:“如果连最基本的安全实践都不能在行业内得到执行,比如公布危险能力评估的结果,那我确实感到担忧。政府和公众有权了解 AI 公司是如何应对这些强大系统所带来的风险的。”

马斯克本人长期以来就是 AI 安全的高调倡导者。他多次警告高级 AI 可能带来灾难性后果,也曾公开支持“开放透明”的开发方式。

但眼下多个研究团队认为 xAI 的行为正背离这些理念,在发布模型的安全流程上已偏离行业常规。讽刺的是,这些做法反而可能促使州议会和联邦政府更快推动相关立法,要求 AI 公司强制披露安全报告

多位研究者指出,AI 安全和对齐测试不仅是为了防止极端风险,也是为了防范眼下模型行为失常的问题。

声明:魔果智讯倡导尊重与保护知识产权。如发现本站文章存在版权等问题,烦请30天内提供版权疑问、身份证明、版权证明、联系方式等发邮件至moguoai@yeah.net!我们将及时沟通与处理。
0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索