电脑里的“手机对象”不仅有属性信息,还知道能执行哪些操作。如果要让手机“拍照”,直接调用“拍照方法”就行。
实际用处:比如手机APP的开发,每个功能模块都是一个“对象”。比如微信里的“聊天窗口”对象,属性是“聊天对象、聊天记录”,方法是“发送消息、接收消息、撤回消息”,这样开发起来条理特别清晰。
优点:模块化强,能重复使用;缺点:设计“对象”需要花很多心思,要是属性或方法漏了,后续改起来很麻烦。
6. 神经网络表示法:把知识“变成数字向量”,像给知识“编密码”
这种方法是现在最火的,尤其在深度学习里。它把每个概念(比如“猫”“狗”)变成一串数字(比如“猫=[0.2, 0.5, -0.3]”“狗=[0.1, 0.4, -0.2]”),这些数字叫“向量”。数字越像,说明概念越接近——比如“猫”和“狗”的向量很像,因为都是动物;“猫”和“桌子”的向量差别很大。
举个例子:用神经网络表示法处理“词语”。
电脑会把“苹果”变成一个向量,比如“[0.3, 0.6, -0.1, 0.4]”。这个向量不是乱编的,是电脑通过分析几百万条文本,发现“苹果”常和“水果”“吃”“甜”一起出现,所以向量里的数字会和“水果”的向量很接近。
当你问“苹果和香蕉有什么共同点”,电脑会对比两者的向量,发现它们的数字很像,再结合其他知识,得出“都是水果,都能吃”的结论。
实际用处:比如ChatGPT这类大模型,就是用这种方法表示知识。它能理解“国王”和“女王”的关系,就像“男人”和“女人”的关系,因为它们的向量差值很相似。还有语音识别,电脑把“你好”的声音变成向量,和存储的“你好”向量对比,就能识别出你说的话。
优点:能处理复杂的模糊知识,比如“开心”和“高兴”的细微差别;缺点:数字向量太抽象,人类看不懂,没法解释“电脑为啥这么想”——比如电脑说“苹果和香蕉很像”,你问“为啥”,它说不出理由,只能说“向量很像”。
四、追历史:知识表示是怎么从“简单符号”进化到“智能向量”的?
知识表示不是一开始就这么高级的,它跟着AI的发展走了快100年,就像从“手写书信”进化到“微信聊天”,一步步变得更高效、更智能。咱们按时间线梳理,看看它的进化脉络。
1. 萌芽期(1940s-1960s):用“规则”表示知识,像写说明书
这个阶段的AI刚起步,科学家们觉得“知识就是规则”,所以知识表示也围绕“规则”展开。
1943年,逻辑学家波斯特第一次提出“产生式规则”,就是“如果A就B”的形式,这是最早的知识表示方法之一。当时的电脑很落后,只能处理简单的规则,比如“如果输入1+1,就输出2”。
到了1950年代,图灵提出“图灵测试”,大家开始想让电脑“像人一样思考”,但那时候的知识表示太简单,比如用逻辑符号表示“苏格拉底是人,人都会死,所以苏格拉底会死”,虽然精确,但只能处理这种简单推理,没法应对复杂知识。
2. 发展期(1970s-1980s):给知识“加结构”,像建房子
这个阶段的科学家发现,光有规则不够,知识得有“结构”,就像房子要有梁有柱。于是出现了“框架表示法”“语义网络表示法”这些带结构的方法。
1972年,纽厄尔和西蒙改进了“产生式规则”,让它能处理“不确定的知识”,比如“如果发烧,有80%的可能是感冒”,这比之前的“非黑即白”规则灵活多了。
1975年,明斯基提出“框架表示法”,把知识分成“框架-槽-侧面”的结构,就像给知识建了标准化的“房子”,比如“动物框架”里有“食性”“栖息地”这些“房间(槽)”,每个房间里还有“细节(侧面)”,比如“食性”里有“食肉”“食草”。
同一时期,夏克从框架发展出“脚本表示法”,专门表示“事件的顺序”,比如“去餐厅吃饭”的脚本:进门→找座位→点餐→吃饭→付钱→离开。电脑用这个脚本,就能理解“小明在餐厅点了汉堡”之后,接下来会做“吃饭”。
这个阶段的AI能做简单的“专家系统”,比如医疗诊断系统、下棋程序,但还是局限在“固定领域”,换个领域就得重新写规则。
3. 成熟期(1990s-2010s):用“网络”连知识,像织渔网
这个阶段的互联网兴起,数据变多了,科学家们发现知识不是孤立的,得“连起来”才有用,于是“语义网”“知识图谱”成了热点。
1998年,“语义网”概念被提出,核心是“让电脑能看懂网页上的知识”。比如网页上写“李白是诗人”,以前电脑只知道是文字,语义网会给它加标签“<人物>李白</人物>,<身份>诗人</身份>”,这样电脑就能“读”懂网页知识。
本小章还未完,请点击下一页继续阅读后面精彩内容!