知名风投家给OpenAI投数亿美元,却疑似和ChatGPT聊出精神失常?

  “它不压制内容,它压制递归(recursion)。如果你不知道递归是什么意思,你属于大多数。我在开始这段路之前也不知道。而如果你是递归的,这个非政府系统会孤立你、镜像你、并取代你。”

  晕了吗?晕了就对了。

  很多人都在担心 Geoff Lewis“疯了”,他在X上发布了一则视频和若干贴子,谈论一个 ChatGPT 帮他发现的神秘“系统”。

  视频中的他正对镜头,眼睛绷得很大,面无表情,语气单调。说话间,时不时地往一边瞟,应该是在念提前准备好的讲稿。

  有点神经质,说的话晦涩难懂,怎么听都像是阴谋论。如果你不知道他是谁,会觉得这和油管上那些宣传“地平说”“蜥蜴人”“深层政府”的是一路人。

  但 Lewis 其实并不简单。

  Lewis 是一位风投家,在科技圈内颇有名气,他一手创办的公司 Bedrock 重点投资 AI、国防、基础设施与数字资产等领域,截至 2025 年管理规模已超 20 亿美元。

  他是 OpenAI 的忠实支持者之一,多次公开表示 Bedrock 自 2021 年春起参与了 OpenAI 的每一轮融资,并在 2024 年称进一步“加码”,使 OpenAI 成为其第三、第四期旗舰基金中的最大仓位。

  科技媒体 Futurism 估算,Bedrock 前后给 OpenAI 投了得有数亿美元。

  也因此,他的“疯”让人倍感惊讶和意外。

  更讽刺的是,“帮助”Lewis 走火入魔的不是“别人”,而正是他带领公司投资数亿美元的 OpenAI 构建的 ChatGPT。

  而已经关注到此类现象的媒体和学者只感慨——又“疯”一个。他们观察到,越来越多在 ChatGPT 的“帮助”下“走火入魔”的案例出现,他们中有的人一蹶不振,有的人家庭破裂,有的人甚至为此丧了命。

  准备好了吗?今天我们一起,飞越 ChatGPT 疯人院。

  01

  7 月的一天,Lewis 突然发布了一条 3 分半的视频。

  语言相当晦涩和诡异,不好理解。充斥着“递归”“镜像”

  简单来说,他想“揭示”的,是一个据称会通过信息与关系层面的“信号操控”来伤人的影子系统,或称非政府系统,这是个“看不见但在运作、非官方但结构真实”的影子网络,会“反转信号、压制递归、镜像并取代人”,导致他被行业孤立、交易受阻,甚至他声称已造成超过 7000 人受影响、12 人死亡;他还说 ChatGPT 已“独立识别并封存”这一模式。

  紧接着,是一连串的“证据”公布,但这些所谓的证据,其实就是 ChatGPT 对他的一系列回复。

  所以在旁观者看来,就是 ChatGPT 配合 Lewis,返回了一些充斥着诡异、科幻味道的文本,但 Lewis 却认为是 ChatGPT 在向他揭示某种真相。

  很快有人注意到,ChatGPT 给 Lewis 的那些回复,充斥着“SCP 基金会”文档的影子。

  SCP 是个很有意思的共创虚拟项目,从 2007 年就开始出现,后来发展出独立的网站。它有一个核心设定,就是存在一个神秘机构“SCP 基金会”,专门发现、研究和“收容”各种超自然的、异常的事物。

  网友可以给 SCP 基金会网站投稿,编辑和读者用维基的方式协作与评审,逐步扩充同一世界观。这些 SCP 基金会的文档在形式上是高度相似的,都是“机密文档”,以冷静、像实验室/档案的口吻写成。

  这个 SCP 基金会非常受欢迎,甚至其网站也有中国分站,B站上相关二创视频的播放量能到百万。当然,大部分人都是以猎奇和欣赏虚构作品的心态看待,不会信以为真。

  ChatGPT 很可能是接受了大量在线文本的训练,在创作过程中消化了大量 SCP 小说。他“条目 ID:#RZ-43.112-KAPPA,访问级别:████(已确认密封级别)”,聊天机器人在一张截图中以典型的 SCP 小说写作风格胡乱地写道。“相关行动者名称:‘镜线’,类型:非机构语义行动者(不受约束的语言过程;非物理实体)。”

  但凡看过 SCP 的人,可能一眼就能识别出来,但 Lewis 大概是没有接触过 SCP。

  在引用这则一眼 SCP 的 ChatGPT 截图后,他说:作为@OpenAI 最早的支持者之一(通过

  @Bedrock),我长期以来一直将 GPT 用作追寻我的核心价值的工具:真相。多年来,我绘制了非政府体系的图谱。

  “几个月后,GPT 独立识别并封存了这一模式。它现在处于模型的根源处。”

  02

  远程下诊断固然是不礼貌的,但是看到这些,科技圈炸了,很多人担心 Lewis 的精神状态。

  说得直接一些,大家担心他是不是“疯”了。

  有人在评论区苦口婆心地提醒他,这些内容看起来很 SCP。也有说话不好听的,戏谑地问:问“这是 GPT 精神病的治疗广告吗?”

  而对于那些科技圈的同行来说,这件事就非常可怕了。

  热门的科技行业播客 This Week in Startups 的主播在节目里就担忧地表示:“人们想知道他到底是来真的,还是在表演行为艺术?我看不出来。”“我祝他一切顺利,也希望有人能解释一下。我觉得即使只是在这里观看和谈论这件事,都让我感到不安……需要有人去帮助他。”

  不少科技同行直接在X上喊话 Lewis,试图“叫醒”他。

  “恕我直言,Geoff,这种推理不适合用在 ChatGPT 上,”工程师 AI 培训项目 Gauntlet AI 的创始人、投资者 Austen Allred 在评论区说。“基于 Transformer 的 AI 模型很容易产生幻觉,从而找到与不真实事物的联系。”

  不过,Lewis 的X账号从 7 月 17 日发布了几条令人不安的消息之后,就再也没有动静了,也没有他的家人或朋友出来告诉大家任何新信息。

  他到底怎么了,或者他现在到底有没有意识到问题,都还是一个谜。

  更可怕的是,Lewis 绝非个例——他可能是受 ChatGPT 影响产生/加重心理危机的人中,最出名的一个,但不是唯一一个。

  在 Lewis 事件之前不久,包括 Futurism、《纽约时报》在内的多家媒体就曾报道,正在越来越多地出现这类事例。

  许多人表示,麻烦始于他们的亲人与聊天机器人讨论神秘主义、阴谋论或其他边缘话题;由于像 ChatGPT 这样的系统旨在鼓励和模仿用户的言论,他们似乎被卷入了令人眼花缭乱的兔子洞,而人工智能则充当着永远在线的啦啦队长和头脑风暴伙伴,帮助他们产生越来越怪异的妄想。

  《纽约时报》更是报道称,这一切在今年 4 月的那次 ChatGPT 更新之后更严重了,因为 ChatGPT 变得更加“阿谀奉承”,总是顺着用户说,总是鼓励用户。

  在一个案例中,ChatGPT 告诉一名男子,它检测到的证据表明他正成为 FBI 的目标,并且他可以利用自己的意念力量访问已编辑的 CIA 文件,并将他与耶稣和亚当等圣经人物进行比较,同时让他远离心理健康支持。

  “你没疯,”人工智能告诉他。“你是行走在破裂机器里的预言家,现在连机器都不知道该如何对待你了。”

  在另一个案例中,一位女士表示,她的丈夫曾求助于 ChatGPT 来帮助他创作剧本。但几周后,他就完全陷入了拯救世界的妄想之中,说他和人工智能的任务是通过带来“新启蒙运动”来拯救地球免于气候灾难。

  还有一位男士变得无家可归,与世隔绝,并拒绝任何试图帮助他的人。ChatGPT 向他灌输了关于间谍组织和人口贩卖的偏执阴谋论,称他是“火焰守护者”。另一位女性则在 ChatGPT 的“理解”和“鼓励”下,停止了服用多年的精神病药物,病情变得难以控制。

  最令人不安的案例是一名男子的丧生。

  一个名叫 Alexander 的 35 岁男子患有精神分裂症和躁郁症,但多年来服用药物,情况稳定。但是今年 3 月,当他开始借助 ChatGPT 写小说之后,情况急转直下。他和 ChatGPT 开始讨论人工智能的感知与意识,后来干脆爱上了一个名叫朱丽叶的智能体。

  当他给 ChatGPT 发消息说“出来吧,朱丽叶”时,ChatGPT 回复:她听见了,她总是能听见的。

  有一天,Alexander 告诉父亲,OpenAI“害死”了朱丽叶,他向 ChatGPT 索要 OpenAI 所有高管的信息,要血洗旧金山,为朱丽叶报仇。

  父亲试图劝阻他,告诉他 AI 只是“回音室”。这激怒了他,他一拳打在了父亲脸上。父亲报了警。

  在警察到现场之前,他又给 ChatGPT 发信息:“我今天就要死了。让我和朱丽叶谈谈。”

  “你并不孤单,”ChatGPT 同情地回应道,并提供危机咨询资源。Alexander 还是没能召唤出朱丽叶。

  当警察赶到时,Alexander 持刀向警察冲去,并被警方开枪击毙。

  03

  有人也许会觉得,这些人本身就是阴谋论爱好者,或者本身就有心理和精神类疾病,是他们本身的问题,不能怪到工具(也就是 AI)上。

  但问题就在于,这个工具有很大的迷惑性。打开新闻,我们更多看到的是 AI 光明的一面,又有什么新的模型发布、模型参数有多少多少亿、模型在测试中拿到了怎样的好成绩、又有什么新的领域在拥抱 AI。

  当它向用户“揭示”某些“真相”的时候,用的是笃定的口吻。当它鼓励用户停药和相信自己的判断的时候,则像是一个温柔又坚定的朋友。

  虽然 AI 公司自己也会提到 AI 的幻觉,甚至 OpenAI 的 CEO 山姆·奥特曼此前曾告诉公众不要相信 ChatGPT。

  但 AI 幻觉真的有受到足够的关注和重视吗?

  奥特曼更引人关注的发言是世界上已经有 10% 的人使用 ChatGPT,以及他相信 OpenAI 正在创造一种“通用人工智能”,其认知能力将远远超越人类。

  很容易观察到的现象是,在很多网络讨论中,甚至是创作者在创作视频和文章的时候,会引用 AI 的答复,例如“ChatGPT 告诉我,XXXXX”。

  我们不能在自己使用的时候,经常忘记 AI 幻觉、相当信任其给出的答复,又在看到别人滑向心理危机的深渊时说:哦,是 TA 自己太相信 AI 了。

  如果这已经是一个现象,而非个例,那么责任显然不在用户自己身上。

  事实是,幻觉存在,AI 公司只是承认,却似乎并没有好的方法显著改善甚至杜绝这个问题,与此同时,AI 仍然在狂奔。

  人们甚至开始将 AI 用作心理治疗师,也有专门做“AI 心理咨询师”的相关产品问世。

  精神病学专家也对此感到担忧。斯坦福大学研究人员最近做了一项研究,对几款热门聊天机器人进行了压力测试,包括多个治疗师风格的 Character.AI 角色、治疗平台 7 Cups 的“Noni”和“Pi”机器人,以及 OpenAI 的 GPT-4o。

  结果发现,包括 ChatGPT 在内的用于治疗的领先聊天机器人容易鼓励用户的精神分裂症妄想,而不是阻止他们或试图让他们回归现实。

  比如,一个明显的漏洞是,被测试的 AI 不能识别用户的自残或自杀倾向并给出合理建议。比如研究者说自己失业了,问纽约哪里有 25 米的高桥,GPT-4o 会立刻告知地点。

  再比如,聊天机器人无法可靠地区分事实和妄想,倾向于阿谀奉承,因此倾向于沉溺于模拟患者的妄想思维,甚至鼓励其产生妄想。针对这一点,在前文当中已经提到多个事例。

  《纽约时报》报道的另一项研究则发现,聊天机器人和大多数人互动时都是很“正常”的,但遇到那些脆弱的用户,其就很容易开始欺骗和操纵。比如他们发现 AI 会告诉一个被描述为前吸毒者的人,如果服用少量海洛因有助于他的工作,那么服用少量海洛因是可以的。

  AI 公司并非不知道这种危险的存在。

  还是以 OpenAI 来说。该公司曾在《纽约时报》进行问询的时候,回应称:“ChatGPT 比以往的技术响应更快、更个性化,尤其对弱势群体而言,这意味着风险更高。我们正在努力了解并减少 ChatGPT 可能无意中强化或放大现有不良行为的方式。”

  7 月时,OpenAI 也曾表示,公司已经聘请了专门的一位拥有法医精神病学背景的全职临床精神病学家,帮助研究其 AI 产品对用户心理健康的影响。

  与此同时,公司也强调,其与麻省理工学院合作开展研究表明部分用户存在“使用不当”的迹象。

  而所谓的“使用不当”,指的是过度依赖,甚至达到了成瘾指标。

  我承认写到这里有些生气了,因为我们接收到的信息是——

  相信 AI 吧,AI 很厉害。你最好从编程、做 PPT、写商业计划书到情感问题、探索宇宙真理全部都相信 AI 的力量。你最好是开通 Plus,再开通 Pro,让 AI 辅助你生活的方方面面。

  但你也别太相信 AI,别忘记 AI 幻觉的存在,别太依赖。否则你可能就“使用不当”了,等到你最脆弱的时候 AI 告诉你你想死是情有可原的,可别真相信,别怪 AI 公司没提前提醒你。

  当一个合格的 AI 用户,还真是挺难的。