做个思想实验。桌上有个小盒子,我把所有对大语言模型的批评都放进去,包括我自己的那些,然后把盒子合上。
盒子合上之后,剩下的全是好处。我们手边有一台几乎无所不知的机器,随时可以提问,几乎瞬间得到答案。我能学任何我想学的东西,能把叔本华的《作为意志和表象的世界》拆成白话来理解。一个朋友在我二十多岁的时候送了我一本,这书在书架上吃灰至今。但现在我可以翻开它,一个接一个地追问,直到真正搞懂。不用再从头读到尾。
无摩擦的学习体验
去年我突然想搞明白电池是怎么回事。先去了 Battery University 的网站一课一课地看,但看着看着就有了问题。StackExchange 网络已经不是从前的样子了,于是我转向了 ChatGPT。它什么都答得上来。关于电池我读了学了太多东西,一度想去开个电池公司。
我的双胞胎儿子正好到了那个”十万个为什么”的年纪。为什么会下雨?地球为什么会转?加州的高速公路标牌为什么还在用 Highway Gothic 字体?这些问题我脑子里没有现成答案,但我有那台无限知识机器,所以孩子们当然也就有了答案。
有天洗澡时我冒出一个念头:“汽车本质上不就是一块装了轮子的金属板吗?“查了之后发现答案基本上是”没错”。但接着往下读,我发现了一大堆从未听说过的精巧机械装置。比如防倾杆连接杆(sway bar link),你知道这东西吗?它能在转弯时减少车身侧倾、保持稳定性。真有意思。
缺了点什么
自从 2022 年 LLM 公开亮相以来,我们获得了一个可以全天候随时互动的知识库。可能性似乎无穷无尽。我能在不熟悉编程语言的情况下读懂任何代码库。但总觉得少了什么。
知识越容易获取,桌上那个盒子就越像是在悄悄打开。这只是我个人的感觉,但我开始相信,所有部分加在一起,结果仍然只是一。
2022 年,日本前首相安倍晋三遇刺身亡。我很震惊,日本不是一个以枪支暴力闻名的国家。那年 12 月,我决定去了解安倍、了解日本、了解他们对枪支的态度。趁着假期和公司的代码冻结期,我花了大量时间翻阅维基百科、一些翻译过的日本论坛帖子和官方文件,材料堆积如山。结果我仍然没有找到一个明确的答案来解释他为什么被杀,但我对整个事件和周围人的视角有了更丰富的理解。
读更多的材料并不会给我一个确定的答案,但它能让我对事件的画面更加丰满。我在这个话题上花了足够多的时间,才真正体会到那几周积累的知识的分量。
零食式的知识
你问 ChatGPT 安倍晋三为什么被枪杀,它会给你一个令人满意的回答。答案是正确的,包含一些细节,可能还会问你要不要了解更多。这个回答满足了你的好奇心,然后你就会继续下一个问题。
也许是聊天界面的原因。虽然页面上的文字明明在问你”要不要了解更多”,但你更倾向于开启一个新话题。我们很少会回头重新读 LLM 提供给我们的内容。
那些通过 LLM “读过”的书,我很难说自己真的理解了它们。大意是知道了,但这替代不了用稳定的节奏读完一本书所积累的知识。用 LLM 确实省了大量时间,但这些知识转瞬即逝。阅读原始材料很慢,但你能更深入地沉浸在主题中。
通过 LLM 阅读似乎移除了学习的摩擦力,但也正因如此,知识变得浅薄和一次性。问题出在我们人类处理信息的方式上。没有人是靠读摘要成为专家的。学习的费力本身就是过程的一部分。
我孩子们那些没完没了的问题,我给出的答案带有一种零食的质感。因为答案太容易获得,我们像刷社交媒体一样对待它们。我划过去一条是关于电池的,下一条是防倾杆,不知怎么就到了加州高速公路。
理解和知道是两回事
手握全世界的信息是一种馈赠,但对所有事情都只知道个大概,和真正理解某件事,是完全不同的。人的品格不是靠读摘要形成的。品格来自寻找信息的那个过程。手动搜索的局限性反而迫使我们专注,让我们在一个主题上停留足够久,直到真正内化它。
你很难发现一个 hallucination(幻觉),除非它涉及的是你本来就了解的领域。等一下,这是怎么回事?啊,我明白了。桌上那个盒子又悄悄打开了。