从“知识是什么”到“知识的表征”

从“知识是什么”到“知识的表征”

引子

昨天在群中讨论时,突然想到“知识是什么”的问题,觉得不太理解,在编辑这一篇文章前在知乎的“我的想法”里记录了,原来的表述可能有点问题,修改一下放到这吧:

“知识”是什么?什么动物开始拥有“知识”?是人才拥有,还是有意识的或是高等的动物可以拥有,或是固化的反射行为里也都调用了“知识”?水螅的神经网控制下,对外界刺激可能产生弥散性的收缩,这中间是否包含了水螅对刺激的“知识”吗?草履虫的应激性行为,由内在结构、物理和生化作用驱动,这种驱动中是否可视为包含了草履虫对环境条件的“知识”吗?

知识是什么,其实是一个非常泛、非常哲学的问题,是知识的抽象定义问题。而笔者这一连串提问中,除第一个,后面涉及的主要是知识的表征问题,即(智能系统中)知识如何表征以及知识的主体性(即意识),笔者当时疑惑的问题其实是智能系统中知识的外在(客观的)和内在(自感知到的)形式。

最初笔者应该是觉得知识这个词比较高级抽象,非常含糊不具体,在AI领域一些用法使用较为随意,不太具有科学性。例如,神经网络的“知识蒸馏”(knowledge distillation)技术,笔者觉得目前神经网络里的东西可能尚不能称为“知识”;或是王培老师的NARS中“知识和资源不足”的假设,笔者觉得将“知识”换成“信息”更客观,但王老师可能是强调的主体内在的感知。这些认识或许只是个人偏见,但理一理分享一下或于己于人有所启发。

人类作为有意识的智能体,其所能感受到的,不只有知识。我们不仅能感受到所谓Inner Speech表达的“知识”,也能通过看感受到“知识”的视觉形式,还能想象具体场景和物体,此外还感知自己的情绪、情感。这个角度来看,知识只是有意识智能体所感知到的一部分。另外,某条“知识”的背景信息,是如何感知到的?这里面有grounding的过程。“知识”会是一个系统,有它的底层支持。我无法说明通用智能系统一定是否需要意识,尽管意识有反思、决策、注意力控制等功能,但无法说明这些功能是意识本身的、抑或只是事后的信息简报。

不过,笔者一向认为通用智能系统需要考虑从原始感官信息到抽象出的内在认知,乃至到行为输出。

知识是什么

笔者简单查从维基和百度看了下知识的定义,其中也涉及知识的内涵,即“哪些属于知识”。

抽象的定义具体什么是知识
维基百科(英)知识是一种觉知(awareness)或熟悉度(familiarity)的形式。它通常被理解为对事实的认识或实践技能,也可能意味着对物体或情况的熟悉度。分析哲学中的大多数知识定义都承认三种基本类型。“Knowledge-that”,也叫命题知识,可以用that从句表达,如“I know that Dave is at home(我知道Dave在家)”。“Knowledge-how”(know-how)表达实际能力,如“She knows how to swim(她会游泳)”。最后,“Knowledge by acquaintance”是指基于先前的直接经验对已知对象的熟悉度。
百度百科人类对物质世界以及精神世界探索的结果总和。知识也是人类在实践中认识世界(包括人类自身)的成果,它包括事实、信息的描述或在教育和实践中获得的技能。知识是人类从各个途径中获得的经过提升总结与凝练的系统的认识。广义的知识可以分为两类,即陈述性知识、程序性知识。

百度百科的这个词条,目前还没有专家认证,可见这个词的广泛而难以抽象定义。上面列表中百度的定义第一句是开篇的第二句,后两句从“概念”一节中摘录。第一句提纲挈领,包含主客观两个方面。前一句强比较强调知识的客观性,是人类整体的事实性认知、信息描述及实践技能的抽象总和,后一句则说的强调是人类的主观认识及获得途径。

维基百科的定义笔者采用了开篇前面两句,完全是从人的认知角度来定义来的。英文中也说知识分为陈述性和程序 性,简单说分别叫做“知道-那件事”(know-that)和“知道怎么做”(know-how)。

和“智能”一样,中文的知识一词,“知”和“识”可以分开。而在英文中,知识对应的词为Knowledge,不用去调查具体的词源问题,大家直觉地会猜测其中涉及到“know”,笔者理解为中文的“知道”或“觉察到”的意思,正如上面提到的知识分类中有know-that和know-how所表达的。

知识的表征

这里讨论的是“知识”的神经表征,或是能完成类似任务的人工系统中可以怎么表征。

知识的定义涉及到主体性,目前一般都以人类总体或个体的角度来定义。但在这种抽象定义之外,作为对认知神经科学有一点涉及的科研民工,是非常相信一切抽象事物在人脑中有对应,有对应的神经细胞、生化物质等以及它们的活动。而这个科研民工的研究也涉及人工智能领域,有“知识表示”的子领域,但笔者特别接触较多的是“人工神经网络”子领域。在人工神经网络的研究中,知识这个词往往用得非常随意,似乎就非常统笼地对应语言表达的内容或是注入到神经网络中的一切形式。这里不再讨论“知识是什么”的问题,来到“知识的表征”问题。

传统的“知识表示与推理”,强调建立知识库、知识图谱等,以AI领域非常务实的方法来建立,但这种直接将知识编码存储的方式不是笔者想探讨的。最近,有人提出向量知识库的方法,为大语言模型(LLM)建立这类知识库。

用一种什么样的形式,是否可以达到人脑中知识的灵活性?我想传统的“知识表示”不敢说它能达到,也有很多人已怀疑类似方法用于LLM的效果。

当前的LLM一定程度上能在聊天问题中达到很强的通用性,这种尚不明白原理的训练出来的大型神经网络中,也存在知识的表征,但它是否就是AGI的核心了呢?

知识的获取

LLM中词嵌入形成的“概念”关系错踪复杂。


【待更新】……





说明:封面图来源见里面的水印,版权归原作者所有,侵删。

编辑于 2023-08-09 13:52・IP 属地广东