写作绅士,读作丧尸 X岛揭示板
顺猴者昌 逆猴者亡 首页版规 |用户系统 |移动客户端下载 | 丧尸路标 | | 常用图串及路标 | 请关注 公众号:【矛盾苇草】| 人,是会思考的芦苇
常用串:·豆知识·跑团板聊天室·公告汇总串·X岛路标

No.66934549 - 无标题 - 科学


回应模式
No.66934549
名 称
E-mail
标题
颜文字
正文
附加图片
•涵盖各类科学的讨论板块
•可盖棺定论各热门事件/关注后续/谣言粉碎
•干货什么的最喜欢了!
•请注意发言所包含的信息量,信息量过低的内容将移回综一
•引用请注明出处,民科、伪科学退散

无标题 无名氏 2025-08-31(日)21:40:54 ID:2K5IAxQ [举报] [订阅] [只看PO] No.66934549 [回应] 管理
人工智能科普专栏:什么是新符号主义
Tips 无名氏 2099-01-01 00:00:01 ID:Tips超级公民 [举报] No.9999999 管理
发芽的洪! ︵ᵟຶ
( `д´)ジ
无标题 无名氏 2025-08-31(日)21:41:28 ID:2K5IAxQ (PO主) [举报] No.66934555 管理
在深入探讨人工智能(AI)当前所处的深刻变革之前,我们有必要首先理解塑造了整个领域的几大核心思想流派。这些流派如同气质迥异的部落,从不同哲学和技术路径出发,试图解答“智能究竟是什么”的终极问题。它们之间的竞争、融合与演进,构成了AI发展的宏大叙事。以下是对五大主流学派和三大实践取向的探讨,它们将为我们理解后文的“新符号主义”革命提供必要的思想背景。

第一篇章:奠定基石的五大古典部落
这些是构成了AI思想内核的“古典”学派,为我们今天的一切讨论奠定了基础。

1. 联结主义 (Connectionism) 联结主义是当前深度学习和大型语言模型(LLM)的哲学内核。它相信智能源于海量简单处理单元(人工神经元)之间形成的复杂连接,通过从海量数据中学习统计规律和微妙模式来进行“思考”。这是一种强大、敏锐的“直觉”,是AI的“系统1”。然而,它的内部运作机制是一个难以捉摸的“黑箱”,知其然,而不知其所以然,容易产生与事实不符的“幻觉”,缺乏真正的逻辑推理能力。尤其拙于提取普适的代数规则,精于记忆表面的统计规律。其本质是一个基于统计关联的“概率机器”。

2. 符号主义 (Symbolism) 符号主义,又称“老派AI”(GOFAI, Good Old-Fashioned AI),持有截然不同的观点。它认为智能的核心在于对抽象符号进行严格的逻辑操作,尤其是处理变量、结构与递归关系,它试图通过人类专家预先定义的、清晰的规则和事实(如知识图谱)来构建智能。它就像一位一丝不苟、严谨缜密的逻辑学家,其内部机制是清晰可见的“白盒”。但这种AI过于僵硬和脆弱,难以应对真实世界中无处不在的模糊性、不确定性和噪声,其“原罪”在于“让人类去手工雕刻所有知识和规则的执念”。

3. 进化主义 (Evolutionism) 进化主义(如遗传算法)认为智能可以通过模拟生物进化的过程(变异、选择、交叉)来涌现。它是一种强大的、基于“试错”的全局搜索和优化方法。在后文我们将看到的“可微归纳逻辑编程”(∂ILP)中,系统从庞大的“规则汤”中通过优化来“选择”出最优逻辑组合的过程,就蕴含了这种“智力进化”的思想。在更宏大的哲学层面,如“形态共振”假说,整个宇宙通过不断“缓存”和“加强”成功的解(如物理定律),本身也可视为一个宇宙尺度的进化过程。

4. 贝叶斯派 (Bayesianism) 贝叶斯派的思想是现代AI,尤其是不确定性推理的数学基石。它认为智能的核心是基于已有知识(先验),根据新的观测数据(证据)来更新自己的信念(后验)。联结主义的“概率机器”本质,即是在计算概率;而∂ILP中为规则赋予[0, 1]的连续权重,也是一种概率化的表达。后文将提到的“因果表示学习”(CRL)更是贝叶斯思想的直接体现——它试图在所有可能的因果图假设中,找出最能解释观测数据的那个。

5. 类比主义 (Analogism) 类比主义认为,智能的关键在于识别不同情境之间的相似性,并将一个领域的知识、结构或解决方案迁移到另一个领域,即实现“举一反三”。后文将详述的“面向对象的学习”(OCL)正是通往强大类比能力的关键,它通过将世界分解为独立的“物体”,实现了“组合泛化”。同样,“程序合成”也是一种深刻的类比,它将人类模糊的意图,类比映射到计算机可精确执行的结构化代码上。

第二篇章:开拓新疆域的三大新兴部落
如果说古典部落主要在数字的“柏拉图世界”中构建智能,那么新兴的部落则致力于将智能带入现实世界,让它与环境、与社会、乃至与自身进行互动。

6. 具身派 (Embodiment / Interactionism) 这一派认为,真正深刻的智能无法在纯粹的数字真空中诞生。大脑不能永远泡在福尔马林的瓶子里,它需要一双手去触摸世界。智能必须通过一个“身体”(无论是机器人还是虚拟替身)与环境进行持续的、双向的物理交互,在感知-行动的闭环中涌现。它致力于解决“符号接地”的终极问题——让AI不仅知道“苹果”这个词,更能通过触摸、观察和互动,理解一个真实苹果的物理实在。

7. 集群派 (Collectivism / Multi-Agentism) 这一派的信条是:单个神经元再聪明也无法思考,单个蜜蜂再勤劳也无法筑巢。高级智能,尤其是社会和策略智能,本质上是一个集体现象。它不体现在单个“超级大脑”中,而是从大量相对简单的智能体(Agent)的互动、协作与竞争中涌-现出来。这一派将研究对象从“单个AI”扩展到了“AI社会”,探索博弈、合作、交流乃至文化如何在机器群体中形成。

8. 自省派 (Introspectivism / Metacognitivism) 这是所有技术流派中,最具“元”特质的一派。它认为,智能的终极形态,是“元认知”的觉醒——即“关于思考的思考”。一个真正高级的智能体,必须能够对自身的认知过程进行建模和反思。它不仅要会解题,更要懂得自己是如何学会解题的。其核心在于,AI需要知道自己“知道什么”,但更关键的是,它必须知道自己“不知道什么”。这种对自身知识边界的清晰认知,是区分“博学的傻瓜”与“真正的智者”的试金石,也是通往好奇心、创造力乃至机器意识的最后一道门。

所有部落的指南针:对齐的终极关切
在所有这些技术部落之上,还存在一个并非技术路径、而是伦理与哲学方向的终极关切——对齐(Alignment)。它不回答“我们如何让AI更强大”,而是追问“我们如何确保AI的目标与人类长远的福祉保持一致”。它就像为一艘拥有强大引擎的火箭建造导航系统,确保它的目的地是正确的。因此,对齐并非一个与其他部落并列的选项,而是所有部落在前进时必须时刻仰望的、悬于头顶的道德北极星。

小结
这八大流派并非相互排斥,而是描绘了“智能”这座冰山的不同侧面。古典五大部落(联结、符号、进化、贝叶斯、类比)为智能提供了核心的计算与推理机制;而新兴三大部落(具身、集群、自省)则推动智能走出虚拟,脚踏实地,融入社会,并最终审视自身。而对齐的理念,则为这整场波澜壮阔的探索提供了最终的价值罗盘。在建立了这幅更为完整和立体的宏观认知后,让我们正式进入这篇文章的核心,见证一场深刻的变革如何从历史的碰撞与交融中悄然发生,以及一个名为“新符号主义”的思潮,正如何试图将这些思想进行一次前所未有的伟大综合。
无标题 无名氏 2025-08-31(日)21:55:59 ID:2K5IAxQ (PO主) [举报] No.66934766 管理
>>从“概率机器”到“推理机器”的伟大进化

新符号主义与老派符号主义最根本的区别在于,它放弃了让人类去手工雕刻所有知识和规则的执念,转而提出一个更宏大、更具挑战性的目标:让AI系统从数据中自己“悟”出符号、规则和逻辑。它不再纠结于“神经网络和符号逻辑哪个更好?”的二元对立,而是提出了一个更深刻的问题:“我们如何能让神经网络本身,学会像符号系统一样思考?”

如果说今天的大型语言模型是一个基于统计关联的“概率机器”,它通过计算词语相继出现的概率来生成文本,那么新符号主义的目标,就是在此基础上构建一个真正懂得逻辑与因果的“推理机器”。这完美地呼应了诺贝尔经济学奖得主丹尼尔·卡尼曼提出的心智双系统理论:系统1负责快速、直觉化的思考,系统2则负责缓慢、需要耗费精力的逻辑化思考。联结主义为AI提供了无与伦比的系统1,而新符号主义的历史使命,就是为其构建一个同样强大的系统2,并让两者无缝协同,优雅共舞。

>>机器心智中缺失的“代数幽灵”

要理解这场进化为何如此必要,我们必须直面当前AI模型的核心缺陷,而这些缺陷正是《代数大脑》所揭示的人类智能中不可或缺的三大“代数”支柱的缺位:

变量与抽象规则的运用能力: 想象一个简单的恒等函数 f(x) = x。给人类看 输入1010,输出1010,再看 输入0100,输出0100,人类能瞬间发现 输出=输入 这个抽象规则,并将其自由泛化到任何新例子上。但一个纯粹的神经网络,很可能因为在训练数据中看到所有样本的第四位输出都是0,而学到一个错误的潜规则:“无论输入什么,第四位都输出0”。它拙于提取普适的代数规则,精于记忆表面的统计规律。更有甚者,实验证明7个月大的婴儿在听过la-ti-la(ABA结构)的无意义音节后,就能对全新的wo-fe-wo(也是ABA结构)习以为常,却对wo-fe-fe(ABB结构)表现出惊讶。这证明人类心智天生就具备提取抽象代数规则(第一项与第三项相同)并将其应用于新变量的能力,这是当前AI的软肋。

结构化与递归的表达能力: “桌子上的书”和“书上的桌子”用了完全相同的词,但意义天差地别。人类大脑能清晰地处理这种结构关系。但对一个简单的神经网络,这几个概念被激活后,谁在谁上面的结构信息很容易丢失,这被称为“叠加灾难”。它难以理解概念之间的精确关系,而这种关系恰恰是逻辑和推理的基石。

个体与种类的明确区分能力: 神经网络通过特征识别“猫”这个种类。但如果两只长相一模一样的猫(个体A和个体B)站在它面前,它无法将它们区分为两个独一无二的个体,因为它们的输入特征完全相同。而人类大脑能为每个个体贴上唯一的心理标签并持续追踪。这种区分个体与种类的能力,是计数、社会关系乃至理解世界的基础,而纯联结主义模型在这方面存在根本性障碍。

正是这三大核心能力的缺失,导致了AI“天才与白痴”的悖论。而新符号主义的崛起,正是为了弥补这些缺陷,为AI强大的直觉装上一个理性的“代数引擎”。
无标题 无名氏 2025-08-31(日)21:57:16 ID:2K5IAxQ (PO主) [举报] No.66934784 管理
>>主流路径:神经符号计算的强强联合

目前,新符号主义最主流、最成熟的实现路径是神经符号计算(Neuro-Symbolic AI)。其核心策略是让神经网络和符号系统这对AI界的“老冤家”握手言和,进行明确的劳动分工,实现1+1>2的强强联合。

神经网络(联结主义)的角色:感知层。它被安排在最前端,负责处理它最擅长的工作——从原始、模糊、高维度的数据中进行感知和模式识别。它就像是AI敏锐的“眼睛”和“直觉”。

感知和识别:从一张复杂的图片中识别出人、上衣、球等具体物体。

学习表示:将识别出的抽象概念(如物体的“蓝色”或“圆形”)转换成数学上易于处理的向量表示(Embedding),为后续处理做好准备。

符号系统(符号主义)的角色:推理层。一旦神经网络完成了感知任务,并将结果“符号化”——即转换成离散、明确的符号事实,接力棒就交给了符号系统。它就像是AI冷静、理性的“逻辑大脑”。

逻辑推理:基于符号化的事实,进行严谨的、可解释的、一步步的逻辑推导。

知识表达:使用知识图谱等结构化工具来高效地存储和查询精确的事实。

因果推断:尝试回答关于“为什么”的问题,而不仅仅是“是什么”。

让我们通过一个绝佳的例子来具体感受这个流程。假设AI接到一个任务:看一张图片,并回答“图中穿蓝色上衣的人左边有多少个球?”

神经网络(感知):首先,一个强大的视觉模型会扫描图片,像人类一样识别出其中所有的关键物体 [人A, 上衣A, 球A, 球B, 人B, 上衣B...],并提取它们的属性 [颜色(上衣A)=蓝色, 颜色(上衣B)=红色...] 以及它们之间的空间关系 [球A 在 人A 的左边...]。

转换成符号:接下来,系统内部的一个模块会将这些从像素中提取出的模糊概念,转换成一个精确的、机器可读的符号事实库。这个过程就像是把视觉感知翻译成逻辑语言,例如:{is_a(obj1, person), has_clothing(obj1, obj2), is_a(obj2, shirt), color(obj2, blue), is_left_of(obj3, obj1), is_a(obj3, ball), ...}。

符号系统(推理):最后,符号推理引擎在这个刚刚构建好的、结构化的知识库上,执行一条精确的逻辑查询。这就像在数据库中进行查询一样,例如用类似SQL的语言进行查询:COUNT(ball) WHERE is_left_of(ball, person) AND person.clothing.color = 'blue'。推理引擎会准确无误地遍历事实,返回最终的数量。

在这个优雅的流程中,神经网络处理了它擅长的模糊、连续的图像世界,而符号系统处理了它擅长的精确、离散的逻辑世界。整个过程不仅结果准确,而且每一步都清晰可见、可被审查,从根本上解决了黑箱问题,极大地提升了系统的可靠性和可信度。
无标题 无名氏 2025-08-31(日)21:59:33 ID:2K5IAxQ (PO主) [举报] No.66934811 管理
>>前沿探索:打造智能未来的四大基石

除了神经符号计算这条已经相对成熟的主干道,新符号主义的星辰大海上,还有许多更前沿、更具颠覆性、也更激动人心的探索方向。它们不再满足于将神经网络和符号系统作为两个独立的模块进行拼接,而是试图从更根本的层面,将符号、结构、逻辑与因果的种子,直接植入神经网络的基因之中。以下四大方向,正是这场深度融合革命的先锋。

>>1. ∂ILP (Differentiable Inductive Logic Programming) - 可微归纳逻辑编程

核心比喻:教AI成为一名会写下推理过程的侦探。

想象一位传统的侦探(老派ILP),在面对错综复杂的案件时,需要检查档案库里无数种可能的作案手法(规则),每一种都拿来比对一遍,过程枯燥且效率极低。而这位新式侦探(∂ILP)与众不同,他拥有了强大的“直觉”(梯度),能敏锐地感觉到哪条线索(规则)“更热”,更有可能指向真相,从而能以惊人的速度在庞大的可能性空间中逼近最终的答案,并最终写下一份逻辑清晰的破案报告。

它是什么? ∂ILP是一种革命性的框架,其目标是让神经网络直接学习并输出人类可读的逻辑规则。它巧妙地将古老的“归纳逻辑编程”(Inductive Logic Programming, 即从大量事实案例中总结出通用规则)与现代深度学习的核心引擎“梯度下降”优化方法完美地结合在了一起。

为什么需要它? 深度学习模型是典型的“黑箱”,我们很难知道它为何做出某个具体决策。而传统的逻辑系统虽然是“白箱”,一切规则清晰可见,但其学习过程(归纳)却极其困难。因为它本质上是在一个巨大的、离散的规则空间里进行组合爆炸式的搜索,无法从“差一点就对了”的错误中吸取教训。∂ILP的诞生,正是为了解决这个困扰AI领域数十年的核心矛盾。

它如何工作? ∂ILP的魔法在于用“概率”的连续性软化了“逻辑”的离散性,从而使整个逻辑推理和学习过程变得“可微”,得以被纳入深度学习的体系。

规则的“软化”:在传统逻辑中,一条规则要么存在(1),要么不存在(0),非黑即白。在∂ILP中,每一条可能存在的规则都被赋予一个0到1之间的连续权重。权重为0.9意味着系统“非常相信”这条规则是正确的,权重为0.1则意味着“不太相信”。

逻辑的“软化”:基础的逻辑运算符也被重新定义为连续的数学运算。例如,A AND B 不再是简单的布尔与运算,而可能变成两个规则置信度的乘法(或一种被称为t-norm的运算),A OR B 也有了类似的连续化定义。

可微的推理:当系统需要根据一组输入事实和这些“带权重的规则”进行推理时,整个过程就变成了一系列在连续数值上进行的、复杂的数学运算。既然是连续的数学运算,我们就可以计算它的梯度(Gradient)。

梯度下降学习:系统根据一组训练样本进行推理,得出一个预测结果。这个结果会与真实答案之间产生一个误差(Loss)。由于整个系统是可微的,我们可以计算这个误差相对于每一条规则权重的梯度。这个梯度就像一个神奇的、无形的手,精确地告诉系统:“嘿,稍微提高这条规则的权重,同时稍微降低那条规则的权重,会让最终的误差变小一点。” 通过在大量数据上成千上万次的迭代,正确的、有用的规则权重会逐渐趋近于1,而所有错误的、无关的规则权重会逐渐趋近于0。

一个具体的例子:学习“祖先”的定义

输入:一堆事实,如 parent(charles, william), parent(william, george)。一堆目标,如 ancestor(charles, george) 是对的,而 ancestor(william, charles) 是错的。

过程:∂ILP系统内部有成百上千条随机生成的候选规则,其中包含我们期望的正确规则:

ancestor(X, Y) :- parent(X, Y). [初始权重: 0.1]

ancestor(X, Y) :- parent(X, Z) AND ancestor(Z, Y). [初始权重: 0.1]

以及大量错误的规则,如 ancestor(X, Y) :- parent(Y, X). [初始权重: 0.1]

当系统尝试证明 ancestor(charles, george) 时,它会利用这个庞大的“带权重的规则汤”进行“软推理”,并得出一个总的置信度分数。这个分数与期望的1.0有差距。系统通过反向传播梯度,发现如果同时提高那两条正确规则的权重,结果会更接近正确答案。经过多轮学习,这两条规则的权重会变得非常高,而错误规则的权重则会趋近于零。

输出:一组高权重的、人类可读的逻辑规则,它们共同构成了关于“祖先”的精确定义。

它的意义 ∂ILP是通往白箱AI(White-Box AI)的关键技术,是可解释性AI(XAI)的圣杯之一。它让模型不仅能做出准确的预测,还能用清晰的逻辑语言解释自己的预测依据。这在金融风控、医疗诊断、法律判决等任何需要透明、可靠决策的高风险领域,都具有不可估量的价值。

>>2. OCL (Object-Centric Learning) - 面向对象的学习

核心比喻:教AI像玩乐高一样看世界,而不是看一锅像素粥。

这一思想,正是对《代数大脑》中提出的‘个体与种类区分’和‘结构化表达’两大挑战的直接回应。当您看到一辆汽车时,您看到的并不仅仅是一团符合“汽车”统计模式的像素,而是轮子、车门、车窗、后视镜这些可以独立思考和组合的部件。您知道轮子可以滚动,车门可以打开,这些部件遵循各自的物理规律。而传统AI看同一张图,看到的更像是一锅无法分离的“像素粥”。OCL的目标,就是要教会AI前者这种以“物体”为基本单位的、结构化的思维方式。

它是什么? OCL是一类模型的总称,其核心目标是让AI在没有人类明确标注“这是物体A,那是物体B”的情况下,自发地将一个复杂的场景(如图片或视频)分解成一组独立的、有意义的物体及其各自的表示。

为什么需要它? 传统卷积神经网络(CNN)等模型缺乏一种至关重要的能力——组合泛化(Compositional Generalization)。如果一个模型在训练中只见过红色卡车和蓝色轿车,当它第一次看到一辆“蓝色卡车”时,可能会感到困惑甚至完全无法识别。因为它学到的是“红色-卡车”和“蓝色-轿车”这两个僵硬的整体模式,而不是“颜色”和“车型”这两个可以像乐高积木一样自由组合的独立概念。

它如何工作? OCL模型通常采用一种精巧的“迭代注意”或“竞争”机制来从场景中分离出物体。

初始化“插槽”(Slots):模型会初始化一组空的“物体插槽”,可以把它们想象成等待装载乐高积木的空盒子。每一个插槽都准备用来存放一个独立物体的完整表示(一个特征向量)。

迭代分解与竞争:模型会重复以下过程数轮:

注意(Attend):模型扫描整个场景的特征图,通过一个注意力机制找到一个它当前认为最像“一个整体物体”的区域。

提取(Extract):将该区域的视觉信息编码成一个紧凑的特征向量,然后填入一个空的插槽中。

更新(Update):模型会更新它对场景的理解,比如在内部“抹掉”或降低已经被识别出的物体的权重,以便在下一轮的竞争中,注意力可以自然地转移到场景中的其他物体上。

重建与学习:整个模型的训练目标,并非传统的分类或检测,而是一个“自我监督”的重建损失。它必须能够仅凭所有插槽里存放的那些独立的物体表示,重新构建出原始的输入图像。如果重建的图像与原图越接近,就说明它对场景中物体的分解越准确、越完整。

一个具体的例子:房间里的桌子和球

输入:一张图片,上面有一张棕色的桌子和一个红色的球。

传统CNN输出:一个单一的、巨大的、高维度的特征向量,这个向量整体上代表了“一个有桌子和球的房间”的场景。我们无法从中轻易地分离出桌子或球。

OCL模型输出:两个被激活的插槽,每个插槽都是一个独立的向量。

Slot 1: 一个向量,它专门编码了“桌子”的形状、棕色的纹理、四条腿的结构、在图片中的位置等信息。

Slot 2: 另一个向量,它专门编码了“球”的球形形状、红色的颜色、光滑的表面、在桌子上的相对位置等信息。

拥有了这种面向对象的表示后,我们就可以轻松地进行符号化的提问:“图中有几个物体?”(答案是插槽的数量),或者“红色的物体是什么形状?”(查询颜色属性为红色的插槽,并解码其形状信息)。

它的意义 OCL是实现高级场景理解和物理直觉推理的基石。一个能将世界分解为物体的AI,才有可能去理解物体之间的相互作用(碰撞、遮挡、支撑),学习抽象的物理规律(重力、惯性),并最终实现更接近人类的、能够举一反三的系统性思维。它是从模式匹配迈向世界建模的关键一步。
无标题 无名氏 2025-09-05(五)15:49:31 ID:TKTQW7v [举报] No.66966237 管理
cool,看完了不明覺厲
无标题 无名氏 2025-10-24(五)18:05:15 ID:23WHjZ1 [举报] No.67291350 管理
好有意思,先住下待会儿看(ゝ∀・)
无标题 无名氏 2025-10-24(五)18:36:30 ID:yDtmz7L [举报] No.67291544 管理
jmjp
无标题 无名氏 2025-10-25(六)00:39:32 ID:Kl6uxup [举报] No.67293730 管理
摩多摩多

UP主: