硅谷又掀起口水战:OpenAI等公司齐称xAI不负责任!

  财联社 7 月 17 日讯(编辑马兰)马斯克名下公司 xAI 开发的人工智能模型 Grok 因多次发表敏感、争议性言论而引发关注,这让人工智能的安全性问题再次被大加讨论。

  OpenAI、Anthropic 和其他美国人工智能研究组织的研究人员纷纷发表了对 xAI 的谴责,认为该公司在人工智能模型安全性问题上行事鲁莽、完全不负责任。

  周二,在 OpenAI 从事安全研究的哈佛大学计算机科学教授 Boaz Barak 在X上公开批评称,他本来不想发表关于 Grok 安全性方面的文章,因为他的公司与其存在竞争,但此事无关竞争。他很欣赏 xAI 的科学家和工程师,但他们处理安全问题的方式完全不负责任。

  Barak 对 xAI 不发布系统卡的决定尤其不满。美国 AI 行业一般会在模型公布后发布系统卡,其中详细说明了模型的训练方法和安全评估,以与研究界分享信息。但 Barak 表示,现在学界和业界对 Grok 4 进行了哪些安全训练一无所知。

  立场倒转

  xAI 的 Grok 4 模型于上周三推出,用户需支付每月 30 美元的订阅费用才能使用。然而,这一被宣传为“世界上最聪明”的聊天机器人在短短一周内数次掀起美国的舆论风浪,发表了诸如支持希特勒、好莱坞被犹太人掌控等言论。

  Anthropic 的人工智能安全研究员 Samuel Marks 表示,xAI 在模型安全问题上十分鲁莽。虽然 Anthropic、OpenAI 和谷歌的发布也存在问题,但他们至少做了一些事情,在部署模型前评估安全性并记录了调查结果。xAI 却什么都没有。

  OpenAI 和谷歌在及时分享新模型的系统卡方面声誉不佳。比如 OpenAI 不发布 GPT-4.1 的系统卡,理由是它并非前沿模型。谷歌则在发布 Gemini 2.5 Pro 数月后才发布安全报告。

  然而,这些公司通常都会在前沿模型全面投入生产之前发布安全报告,而 xAI 的做法与行业惯例截然不同。一名研究人员声称,根据其测试,Grok 4 没有任何有意义的安全护栏。

  xAI 安全顾问兼人工智能安全中心主任 Dan Hendrycks 回应,该公司对 Grok 4 进行了危险能力评估。但评估结果并未被公开分享。

  令人诟病的是,马斯克此前一直以人工智能安全倡导者的形象出现,多次警告称,先进的人工智能系统可能会给人类带来灾难性的后果。他还多次抨击 OpenAI 在模型安全性上的瑕疵,但没想到他自己公司的 Grok 4 模型也陷入了安全性争议。