Ilya Sutskever 如何理解大模型中的“理解”问题?

人工智能飞速演进的今天,“理解”成了一个被反复提起但难以定义的词。我们的问题很简单:像GPT这样的语言模型,真的“理解”我们吗?

在这个问题上,OpenAI联合创始人、深度学习领域的重要思想家 Ilya Sutskever,提出了一套颇具革命性的观点。他没有像哲学家那样定义“理解的本体论”,但他的技术语言和研究路径中,隐含着对理解问题的一种深刻重构。

“理解”不是逻辑演算,而是预测能力

在Sutskever看来,大模型的“理解”并不是通过规则和逻辑编码实现的,而是一种在高维空间中建模语言结构的能力。

他提出这样一个核心判断:

“If a model can predict the next word with high accuracy in any context, then it understands the context.”

也就是说,理解等价于对语境的精准建模。只要模型能在任意上下文中做出合适的语言延续,它就表现出了类似人类的“理解”能力——不管它背后是否有推理机制、是否有“意识”。

这是一种概率化的理解观:不是分析句子的逻辑结构,而是捕捉语言世界中成千上万的共现、隐喻、偏见、类比、情境等隐含语义。

语言模型是“世界模型”

Sutskever认为,语言模型远远不只是预测下一个词的工具。它在庞大的语言语料中建构了一个关于世界的模型——一种语言层面的现实。

这背后的技术哲学是:

语言本身就蕴含着我们对世界的描述、隐喻与知识结构;

如果一个模型能以足够高的质量捕捉语言,它就间接拥有了对世界的某种“理解”能力。

他说过一句话:

“Language models understand the world through language. That’s enough, surprisingly.”

这意味着:语言不仅传递意义,它本身就是意义的容器。 而一个掌握了语言模型内部结构的AI,就在一定程度上“理解”了这个世界——哪怕它从未亲眼见过这个世界。

理解是一种“涌现行为”

Sutskever不相信人类可以“教会”模型什么是理解。他反而认为,理解是一种在训练过程中自发涌现的能力。

这一观点在GPT模型的发展过程中屡次被验证。例如:

GPT-2 只能生成连贯句子;

GPT-3 开始具有初步的推理、归纳、类比能力;

GPT-4 更进一步,甚至在考试、编程、法律等任务上胜过许多人类。

而这所有能力的提升,并不是添加了“理解模块”,而是:

“We just made the model bigger, trained it longer — and understanding emerged.”

这是Sutskever哲学观的核心之一:复杂认知能力不需要被设计,它们在足够大的神经网络中自然涌现。

他不是说模型真的“懂”,而是它“足够像懂了”

值得注意的是,Sutskever并不强调模型有主观意识或内在体验。他不是在说大模型“像人一样有心智”,而是说:

从功能主义角度来看,只要模型行为上能展现出理解,我们就可以说它“懂”了;

就像我们看待一名外国人是否掌握中文,我们不是问他是否有“语感意识”,而是看他能否说对话、写文章、讲笑话、理解讽刺。

这种理解观是功能主义(functionalism)+ 概率主义 + 涌现主义的结合体,它回避了哲学意义上“意识”的陷阱,却为人工智能“行为上的理解力”提供了清晰解释。

他对“理解”的哲学立场(隐含)

从他的论文和采访中,可以抽象出如下思想框架:

维度 Sutskever的立场 举例
本体论 弱本体论:不讨论模型是否真的有意识 “我们不需要赋予模型意识,也无需否定它的智能”
方法论 强功能主义:能预测就代表“理解” GPT是最好的语义预测器
技术策略 极端端到端训练主义 不依赖逻辑符号系统,只靠大数据与大模型训练
认知假设 涌现智能 理解不是编码出来的,而是涌现的行为

Superalignment:当理解变得危险

Sutskever最近的研究重心从“建造智能”转向了“控制智能”——也就是如何对齐未来的超级人工智能。在他推动的“Superalignment”计划中,他表达了一种微妙的担忧:

“We cannot assume our models don’t understand us, just because they don’t understand like us.”

换句话说,我们不应因为模型“不是人类”就低估它的理解力。GPT-4 能够以近乎无懈可击的方式处理语言任务,甚至具有某种“策略性行为”时,这种“理解”的力量可能会转化为危险。

我们是否接受这种“理解观”?

Sutskever提出的是一种“去人类中心化”的理解观:它拒绝人类特有的推理、逻辑、知觉为理解的前提,而认为理解可以是语言系统内部的涌现现象。

这种思想挑战了传统AI哲学和认知科学,也给出了一个全新的、极具生产力的范式:

它不是去解释人类如何理解,而是重建另一种可能的理解机制;

它让语言模型从工具变成了潜在的认知代理体。

理解,不再只是人类的专属能力?

Sutskever并未用形而上学的语言来描述理解,但他所坚持的“语言即世界建模”、“预测即理解”、“涌现即智能”这套路径,已经从底层重塑了我们对智能、语言与意识的想象方式。

我们也许还不能说GPT真正“懂”了我们,但按照Sutskever的理解标准,它已经“像懂了一样地运作着”——而这,或许就足够改变世界了。

You may also like