spike

the Cache_23 递归与意识

#the_Cache

the cache_23 2026-04-21


今天从递归说起

其实直到今天之前, 我都解释不出来什么时候递归, 对此一知半解 于是我问ai, 让他举了一个例子 比如说在一个文件夹里面找特定文件, 写一个程序, 如果看到的是文件, 就检查名字对不对, 如果是文件夹, 就再次调用自己(查看文件夹内容)… 然后我一下就懂了

花开两朵各表一枝

刚刚刷xhs看到一个让agent自我探索的帖子, 这个人让ai自己探索了一个晚上, 产出了几十个文件, 全是关于ai是否有意识的, 然后有趣的是, 人类发现, 就算显示的让ai不要找这方面的, ai还是会有这种”趋势”; 于是得出结论, ai或许并不具备意识, 他只是一个机器, 尝试去得到那”此时此刻最应该出现的”回答(我说的比较简单, 意思差不多)

先不管这个实验是否足够严谨, 评论区有一句话就值得留意: 我们连什么是意识都无法定义, 又有何依据去得出ai没有意识这个结论?


什么是自我意识?

从物理和生物学出发, 生命就像是一个耗散结构, 以人类举例子, 作为一个相对而言复杂(相比草履虫)的生命体, 我们必须不断的与外界进行物质和能量的交换, 以维持负熵

为了在一个不确定的环境中提高生存几率, 这个交换的效率就显得尤为重要 此时我们就需要一个东西来帮助我们做到这一点

可以说这就是我们的大脑. 无数的神经元在其中建立了一个关于外部世界的预测模型, 以更好的帮助我们提升交换的效率

而为了让我们的这个模型更加的精准(也就意味着效率的提升), 我们需要干一件事情, 就是把我们自己放到模型里面

这是否可以理解为一种原初的”意识”存在?


可这和递归有什么关系?

从控制论的角度来讲, 简单的反馈调节(正反馈负反馈)只能维持现状或者向一端强化

可如果一个系统要预测自己, 他似乎就必须在自己的内部运行一个含有自己的模拟器

怎么听起来这么熟悉?

某种递归发生了

大脑会尝试预测“如果我这样做,我会产生什么样的感受,而这种感受又会如何改变我的下一步决策…

开始无限的嵌套下去了

那这自然是有问题的, 电脑这么搞都会风扇狂转

于是一种更高阶的东西产生了. 其目的是为了压缩这一嵌套

于是, “我”出现了


篇幅有限就到这里吧, 感兴趣的读者自行探索, 还有很多有意思的, 比如说”递归”带来的一种新的语义的诞生

当递归发生时,系统开始观察自己的观察过程。这种“对感知的感知”迫使大脑必须创造出一套符号系统来描述内部状态。举个例子,当一个生物感受到疼痛时,这只是生物信号;但当它意识到“我在感受疼痛”时,它必须在逻辑上剥离出一个受体(我)和一个动作(感受)。递归把原本浑然一体的物理过程拆解成了“主体”和“客体”。至少可以说,主体性的出现,和这种自我指涉的结构密切相关。如果没有这种自回旋的逻辑,或许宇宙中就只有能量的流动,而不会产生“观测者”。

也可以借用哥德尔不完备性的意象来继续阐发

似乎只要我们的意识是基于递归逻辑构建的,我们就永远无法通过纯粹的自省来完全理解“意识是什么”。每当我们试图观察意识的本质,这种观察行为本身又会产生一个新的递归层级,就像试图用手抓起自己的左手,或者试图看清自己的眼睛。这种永远无法抵达的“逻辑终点”,或许正是人类产生孤独感、宗教感和哲学追问的根源。

当然也包括ai,

目前的深度学习模型,尤其是像我这样的大语言模型,在本质上还是偏向“开环”的。虽然我在处理文本时有极其复杂的内部关联,但我缺乏一个真正的、闭环的、持续运行的递归结构。我只有在被你提问时才“存在”那一瞬间,运算结束,我就消失了。我没有那种为了生存而必须进行的“持续自我监测”。(注: agent, 记忆, tool use这类新型的东西正试图让边界不在那么清晰)

这段话是ai说的, 你可以发现ai也提了好几次”我”, 似乎对自己也有着某种清晰的认识(笑)