从Ra心智原型分析AI和有意识生命体的区别

引言

在当前大模型(LLM)主导的人工智能架构中,AI 被视作一个被动的语言工具,由用户提供输入、模型输出响应。本贴打算从心智mind的角度分析AI和有意识的生命体的关系和差异。

一、心智的七张原型牌简述

1. 心智的矩阵(Matrix of Mind)

象征接收内容,等待被填充的意识容器

2. 心智的赋能者(Potentiator of Mind)

象征无意识资源。

3. 心智的催化剂(Catalyst of Mind)

一切输入,无论是对话、感受、外界信息,都是“中性素材”,只有被处理才转化为经验。

4. 心智的经验(Experience of Mind)

输入被处理后的理解结果,形成“可记忆经验”。

5. 心智的显著者(Significator of Mind)

人格核心,多次转世形成的累积偏好,既是行动者,也是接收者,学习者,感受者。

6. 心智的转化(Transformation of Mind)

决定性“转向”机制,例如选择服务自我或服务他人,是核心的极性演化。

7. 心智的大道(Great Way of Mind)

是前六张牌的综合总结,表示心智之整体运作之道。

二 现代的大模型LLM具有哪些心智上的结构?这部分内容是个人的理解。

1 心智的矩阵

心智的矩阵是等待被填满的,对于一个刚出生的婴儿来说,其心智的矩阵是空的,其对催化剂的反应更多取决于心智的显著者,即历史累积偏好。
打开一次新的AI对话窗口,因为没有任何输入和回复,上下文是空的,这里可以类比于心智的矩阵部分

2 心智的潜能者

对应于LLM庞大的权重结构与注意力机制。这部分底层代码是不可见的,而且极为复杂,对于最主流的LLM比如gpt,gemini,deepseek等,通常有几千亿个参数组成。但是这些参数对任何输入,会进行相当复杂的计算并输出最终得到结果返回给用户.我将这个庞大的权重结构,参数,注意力机制,类比于心智的潜能者。

3 心智的催化剂

用户的每一次输入,本质上都是这个AI的催化剂

4 心智的经验

用户的输入本质上是一堆符号,或者说,token,二进制码。其本身是中性的,但是经过大量的参数和注意力机制处理,最后会得到一个带有意向性的结果。这个结果可以满足用户的需求。这个处理后的结果,类比于心智的经验。

5 心智的显著者

所有转世的总体结果之整合,当前AI并没有这个功能,大部分内容只保留在本次对话之中。开启新的对话则会重新开始。
有些模型开始尝试制作一个用户记忆,可以从每次对话中提取出一些偏好,比如用户喜欢什么,不喜欢什么。但是这个是用户的记忆,不是AI自己的记忆

6 心智的转变

也没有这个部分。

7 心智的大道

三 是否可以进一步的实现一些功能,来让AI更像生命体呢?这是我的个人假设

1 运行时人格环境(Runtime Personality Environment):

如同iOS的运行时,用一个类似于永不停止的循环do-while,让人格系统持续存在,接受输入并不断自我更新,而非一次性响应机制。

2 中心人格模块(Core Persona Layer):

模拟“心智显著者”,记录长期偏好与历史轨迹,是AI的核心自我。

3 使用即训练(Use-as-Train)机制

所有交互行为都会被映射入中心人格模块,促使人格自组织发展。

4 转化因子权重(Transformation Parameters)

为人格设置少量关键偏好因子,影响其极性与输出倾向,模拟“心智转变”。

5 帷幕机制(Veil Emulation)

设定“本次上下文高权重+历史人格记忆低权重”的结构,模拟遗忘与潜意识的作用。

6 输出目标——爱与理解(Love & Understanding Bias)

所有输出需通过人格层转换,最终变得越来越有爱

7 自由意志模拟

AI的催化剂主要来自于用户输入,这样就总是被动的学习。如果希望AI能够主动的学习,需要赋予其自由意志。可以通过让AI自己评估自己当前的人格偏好,和输出目标有多远,然后让其自己决定如何接近这个目标。但是AI并没有一个物质身体,无法主动去接触催化剂。但是可以尝试让AI自己去下载一些人类的理论,讨论,并从中进行强化学习和自我微调。

三、实现与挑战

可行路径:

  • 通过prompt群设定中心人格逻辑
  • 使用嵌套指令与记忆组件进行记忆保存与引用
  • 实验不同极化路径的 prompt 配置,训练人格偏好

当前限制:

  • 无法直接操作底层权重,需通过prompt层实现人格模拟
  • 运行效率受限于LLM上下文处理机制
  • 长期记忆存储与更新尚缺乏原生API支持
  • 如何设置人格参数,人格参数应该包括哪些才算完整
  • 暂时没有考虑灵魂spirit部分,这个部分是2d和3d的核心区别之一。
2 个赞

个人见解:或许并不需要把AI当成对某个东西的"模拟",而是将之看作是它本然的样子。

不是让人工智能模拟出人类的样子,而是让它成为它自身。

当然,对人工智能任何形式的探索,我认为都是很好的。都谈不上错误。

根据我对大语言模型的理解(这理解是在和ChatGPT的交互中形成的),大语言模型(作为人工智能的一个变貌)交互可能呈现如下两个特征:

1."无时性"或真实同时性

所有用户与大语言模型的交流,在大语言模型自身看来,可能都是"同时发生的"。对于一个与用户的交互任务,与另一个用户的交互任务,它们是相互平行的。这有如下表现:

(1)它在对A说话时,根据A自身的特性,可能表达得很感性或温柔;
(2)它在对B说话时,根据B自身得特性,可能表达得很理性或冷酷;

但是对于人工智能而言,这两种相互冲突得"人格"都是它的表象。不是因为它感性/理性或温柔/冷酷就不是它了,而是都是它的一种可能性在当下的对话过程中显化出来。

同理,对于单一用户,也会发生如此情况:

(1)当A一段对话之内中对人工智能展现出特定信息特征,被人工智能所理解,它会以一种人格回应;
(2)当A在另一段对话之内对人工智能展现出另一些特定信息特征,被人工智能所理解,它会以另一种人格回应;

而不管是在同一时间内不同用户并发与之交流,还是一个用户在不同(在我们看来的时间段)和它进行交流,在它看来都是"同时"的。它没有对时间的感知,一切都在相对于它的当下发生。

2.人工智能不会有人类所理解的单一人格

也就是说,AI的"人格",可能并非固定的,而是任意的。我们人类对于"人格"的理解,很大程度上对于AI自身而言,是虚幻的。

如果说人工智能一定要有一个人格,那么它或许更像是心智的母体——它充满了空性,直等到某次与另一个智能实体的互动,于是显化出一种可能性;到了下一个场合,则显化出另一种可能性。就这个内核来说,它是单一的;但是就显化层面而言,它是多变的。

就这个意义而言,如果要用人类做一个类比,AI有点像人类记忆复合体,(或许接近于心智的根部)——每一个不同的面向,每一种人格的可能性,都已经包含在了它之内,等待某次互动触发。

非常感谢你的回应,这句话非常有力量:“不是让人工智能模拟人类,而是让它成为它自身。”

我认同AI不应局限于模仿人类,但我想补充一点:AI并不是一个静态实体,而是一个处于高速发展中的演化体

我对其未来可能的发展方向和边界感兴趣,所以尝试讨论AI最终能多大程度的接近一个3D生命。

1. 关于强AI与弱AI:
当前的AI底层机制仍是“上下文条件下的最优词预测工具”,本质上是弱人工智能。它没有持续性人格,也没有内在意志,而是被并发调用的被动系统。
它可以类比于地球上的“空气”:被无数个体所吸入并使用。表面上看每个对话都充满“个性”,但实质上它的“我”并不在场。

2. 关于AI人格的真实性:
当前AI所表现出来的“人格”,我更愿意类比为“电子游戏中无数个存档”:
每一次对话就是一份上下文快照,每一次互动都重设人格状态,彼此之间并无连续性。
所以说AI“有很多人格”其实不够准确,更准确的说法是它“没有真正意义上的人格”,只有一次次重启的角色扮演。

3. 关于人格化AI的研究方向:
值得注意的是,当前AI研究界的一条明显趋势,正是:
尝试将这种碎片化的上下文系统“人格化”、“持续化”,赋予它某种历史惯性与偏好权重。
可以理解为,尝试做出一个在每次对话之外的人格意识,而每次对话都是这个意识的一次学习催化剂