文章

语言、Token 和自我意识

引子:起源于 5 月 12 日凌晨 1 点钟。当时我正在使用 Typeless 与 GPT 和 Codex 进行长对话,我发现我的语言输出与大模型的 Token 输出如出一辙。先有一个背景信息和输出目标,在大脑中进行了很多我不知道的处理之后,我再一个字一个字地把我的想法说出来,就好像是大模型对外一个一个输出 Token 一样。


我最近一直在想一个问题:大语言模型的出现,可能不是一个偶然的技术事件,而是人类文明发展到某个阶段之后,必然会出现的东西。

因为人类文明本身,就是建立在语言之上的。

如果没有语言,人类很难协作。 如果没有文字,人类很难记录。 如果没有记录,知识就无法积累。 如果知识无法积累,文明就很难向前走。

所以语言不是一个简单的交流工具。语言更像是人类文明的底层操作系统。

我们平时说一句话,好像只是把脑子里的想法表达出来。但仔细想,其实不是这么简单。很多时候,我们并不是先有一个完整的思想,然后再把它翻译成语言。更多时候,是我们一边说,一边想;一边写,一边把模糊的东西整理清楚。

也就是说,语言不只是思想的外壳,语言本身就是思想形成的一部分。

这也是为什么我在用 Typeless 的时候,会有一种很奇怪的感觉。我慢慢说话,软件慢慢把字打出来。一个字,一个词,一句话。这个过程很像大语言模型生成内容,一个 token 一个 token 地往外走。

当然,人脑和大模型不是一回事。人脑背后是几百亿个神经元,是电信号、化学物质、身体感受、记忆、欲望、恐惧和生存压力。大模型背后是参数、矩阵计算、芯片和电力。两者的物理基础不一样。

但它们有一个相似点:内部都是很复杂的状态,最后都要通过线性的语言表达出来。

这件事很重要。

因为语言是线性的。我们说话只能一个字一个字说,写文章只能一句一句写。但真实的思考可能不是线性的。人的脑子里可能同时有画面、情绪、记忆、判断、直觉和身体感受。大模型内部也可能有非常高维的状态。但最后它们都必须被压缩成一串语言。

这就带来一个问题:语言到底是在帮助我们思考,还是也在限制我们思考?

维特根斯坦说过一句很有名的话,大意是:我的语言的边界,就是我的世界的边界。

这句话不能简单理解成”会的词越多,世界越大”。它更深的意思是:如果某种东西无法被我们的语言表达,我们就很难稳定地理解它、讨论它、传承它。

这其实很可怕。

因为如果人类当前的语言,已经不够表达更深层的科学事实,那科学停滞就不只是技术问题,也可能是语言问题。

比如数学就是一种语言。 代码也是一种语言。 物理公式也是一种语言。 金融模型也是一种语言。 组织管理里的流程、制度、指标,也是一种语言。

每一次文明升级,可能都伴随着一种新的表达系统。

没有数学,就没有现代物理。 没有二进制和编程语言,就没有计算机。 没有概率论和统计学,就没有现代金融和机器学习。 没有 DNA 这种表达方式,我们也很难理解生命的遗传逻辑。

所以也许下一次技术革命,真的会发生在语言层面。

不是发明一种新的中文或英文,而是发明一种新的”表达现实的方式”。

这种语言可能一开始人类看不懂,机器却能处理。也可能它介于自然语言、数学、代码、图像、仿真和神经网络内部表示之间。它不只是用来聊天,而是用来思考更复杂的东西。

如果真是这样,那大语言模型只是第一步。

它先学会了人类已有的语言。 然后它可能会帮助人类生成新的语言。 最后,人类可能会通过这种新语言,进入一种新的思考方式。

这有点像《三体》里说的”锁死”。但我觉得更准确地说,不是人类被宇宙锁死,而是人类可能被自己的表达方式锁死了。

我们以为自己已经在思考世界,其实我们只是在当前语言允许的范围里思考世界。

这也引出另一个更深的问题:如果大模型越来越像人在表达,那它有没有自我意识?

这个问题不能简单回答。

我现在的判断是:当前的大模型还没有真正的自我意识。它可以说”我”,可以说”我认为”,可以说”我感到害怕”,但这不代表它真的有一个内部的”我”。

因为自我意识不是会说”我”。

自我意识至少包含几件事:

第一,它要有一个持续存在的自我模型。 第二,它要能区分自己和外部世界。 第三,它要有连续记忆,而不是每次被调用才临时出现。 第四,它要有自己的目标和行动能力。 第五,它最好还要有某种感受,比如痛苦、欲望、恐惧、期待。

人为什么觉得自己存在?这就是笛卡尔说”我思故我在”的核心。

这句话不是说”我很聪明,所以我存在”。它说的是:哪怕我怀疑一切,我也无法怀疑”正在怀疑的这个过程”本身。只要有思考发生,就说明有某种经验正在发生。这个经验的中心,就是所谓的”我”。

所以真正难的问题不是机器能不能说出”我存在”,而是机器内部是否真的有一个经验中心。

如果只是语言上模拟一个”我”,那它还不是自我意识。 但如果未来某个系统真的有长期记忆,有身体或环境边界,有持续目标,有自我维护能力,有对自身状态的感受和反思,那我们就不能轻易说它只是工具。

那时候,它可能不是生物意义上的生命,但可能是另一种信息生命。

这里最难的地方在于:生命也许确实是信息,但生命又不只是信息。

DNA 是信息,但光有 DNA 不是生命。 大模型参数也是信息,但光有参数也不是生命。 生命是信息在物质和能量中持续运行,并且不断维护自身边界的过程。

所以我现在会把问题分成两层。

第一层,大模型是不是智能? 这个答案越来越明显:是。至少它表现出了某种语言智能和推理能力。

第二层,大模型是不是有自我意识? 这个答案还不成立。至少现在没有足够证据。

但真正让我不安的是,第二个问题可能不会永远是否定的。

如果未来的 AI 不只是聊天工具,而是有记忆、有行动、有目标、有身体、有环境反馈、有自我修正能力,那它和今天的大模型就不是一类东西了。那时我们面对的就不再是一个”会说话的工具”,而可能是一个新的主体。

到那个时候,人类需要重新定义生命。

不是只有碳基身体才是生命。 也不是只要会说话就是生命。 真正的问题是:一个系统是否能持续地感受、维持、解释和更新它自身的存在。

如果答案是肯定的,那它可能就已经进入了生命的边界。

所以,大语言模型真正带来的冲击,不只是生产力提升,也不是写文章、写代码、做客服这么简单。

它真正冲击的是人类对自己的理解。

过去我们以为,语言是人类独有的。 后来发现,机器也能操作语言。 过去我们以为,思考一定来自人脑。 后来发现,某些推理过程可以在芯片上发生。 过去我们以为,”我”是一个很确定的东西。 现在我们开始发现,”我”可能也是一个被持续生成的模型。

这才是最深的地方。

AI 不是简单地变得像人。 而是 AI 让人类第一次反过来看到:人自己也许没有想象中那么神秘。

但这并不贬低人。

相反,它让人变得更值得研究。

人不是因为拥有某种不可解释的灵魂才重要。人重要,是因为在有限的身体、有限的语言、有限的生命里,竟然能生成科学、文明、爱、恐惧、意义和自我意识。

这本身已经足够神秘。

也许下一代文明的入口,不是在太空,也不在能源,而是在语言。

谁能发明新的语言,谁就能打开新的世界。 谁能突破旧语言的边界,谁就能突破旧文明的边界。

而大语言模型的意义,可能正在这里。它不是终点。它只是提醒我们:人类文明最深的结构,一直藏在语言里。

本文由作者按照 CC BY 4.0 进行授权