| title | 知识地图 | |||
|---|---|---|---|---|
| aliases |
|
|||
| category |
|
|||
| tags |
|
|||
| type | topic | |||
| status | stable | |||
| importance | core | |||
| version | v2.1 | |||
| date | 2026-04-08 |
上帝视角:这不是某一门学科的专题文,而是整套知识库的导航页。它要回答的是两个问题:第一,哪些基础学科共同汇聚成了今天的 AI;第二,读者应该沿什么路径进入这套跨学科知识,而不在大量专题之间迷路。
AI 从来不是单一学科的自然延伸。它更像一个汇流系统:
- 数学与形式基础负责给出表示、优化、推理和不确定性的语言;
- 计算与系统工程负责把这些理论变成可运行、可扩展的系统;
- 认知、生物与语言研究解释自然智能如何形成,并持续为 AI 提供结构启发;
- 决策、交互与社会机制告诉我们多主体、资源、激励和博弈如何影响系统行为;
- 物理与哲学基础则分别从能量、相变、认识论与心灵问题上约束我们如何理解智能。
因此,索引页的职责不是替代正文,而是把全书压缩成一张结构图,让读者始终知道:
- 自己正在学哪一类问题;
- 这个问题与哪些学科直接相连;
- 接下来最自然的阅读迁移方向是什么。
截至 2026-04-08,中文专题文档按 25 个学科组织为五组:
- 数学与形式基础(01-09)
- 计算与系统工程(10-15)
- 认知、生物与语言(16-20)
- 决策、交互与社会机制(21-23)
- 物理与哲学基础(24-25)
本页不直接替代:
- 各篇专题中的公式推导和例题;
- 代码示例、图表与可视化脚本;
- 英文版内容;
- 尚未独立展开的时间线页和学科关系图。
它的作用始终是:帮助定位,而不是代替正文。
把 25 个学科放进同一张图里,并不是人为拼盘,而是因为 AI 本身就沿着这条汇流史发展:
- 1943:McCulloch 与 Pitts 提出人工神经元模型,神经科学与计算理论首次直接耦合;
- 1948:Wiener 发表控制论,Shannon 建立信息论,AI 的反馈与信息语言同时成形;
- 1950:Turing 提出图灵测试,把“机器能否表现出智能”变成可讨论问题;
- 1956:达特茅斯会议标志 AI 作为独立研究方向形成;
- 1986:反向传播重新点燃连接主义,优化、数值计算与神经科学重新汇流;
- 2012:AlexNet 借助 GPU 训练取得突破,数学方法与硬件系统开始大规模合流;
- 2017:Transformer 让表示学习、语言学、系统工程和规模化训练进一步汇聚;
- 2022 以后:大语言模型、Agent 和对齐问题把哲学、经济学、复杂性科学等重新拉回 AI 中心。
因此,这张索引不是静态目录,而是对一条真实历史汇流过程的结构化整理。
这一组回答的是:AI 的数学语言、形式边界与结构表达从哪里来?
- [[01-probability-and-statistics|概率论与数理统计]]
- [[02-linear-algebra|线性代数]]
- [[03-calculus-and-optimization|微积分与优化理论]]
- [[04-information-theory|信息论]]
- [[05-approximation-theory|逼近论]]
- [[06-graph-theory|图论]]
- [[07-topology-and-geometry|拓扑与几何]]
- [[08-logic|逻辑学与形式推理]]
- [[09-causal-inference|因果推断]]
这一组决定 AI 的底层表达能力:怎样描述不确定性、怎样进行可微优化、怎样表示关系结构、怎样讨论规则与机制边界。
这一组回答的是:理论成立之后,AI 怎样被算出来、控出来、部署出来,并演化成复杂系统?
- [[10-computer-science|计算机科学]]
- [[11-numerical-analysis|数值分析]]
- [[12-signal-processing|信号处理]]
- [[13-cybernetics|控制论]]
- [[14-complexity-science|复杂性科学]]
- [[15-computing-hardware-and-parallel-computing|AI 计算硬件与并行计算]]
这一组把“理论上可行”的方法变成“工程上可落地”的系统,同时解释规模化、反馈和复杂行为为何会在真实 AI 中出现。
这一组回答的是:自然智能如何形成,以及这些形成机制对 AI 有何启发与约束?
- [[16-neuroscience|神经科学]]
- [[17-cognitive-science|认知科学]]
- [[18-psychology|心理学]]
- [[19-linguistics|语言学]]
- [[20-evolutionary-biology|进化生物学]]
这一组提供自然智能的参照系,帮助我们理解注意力、记忆、语言、行为和适应机制如何被 AI 吸收、改写或偏离。
这一组回答的是:主体如何决策、互动、协商和竞争,激励结构如何改变系统行为?
- [[21-operations-research|运筹学]]
- [[22-game-theory|博弈论]]
- [[23-economics|经济学]]
这一组处理的是单个模型之外的问题:多主体如何互动,资源如何配置,激励结构如何改变系统结果。
这一组回答的是:系统的能量、相变与知识边界如何约束我们对智能的理解?
- [[24-statistical-physics|统计物理与能量模型]]
- [[25-philosophy|哲学]]
这一组分别从物理系统与认识边界两端,约束我们如何理解学习、能量、解释、意识与 AGI 问题。
如果你更关心“能力如何长出来”,而不是“学科如何分类”,可以按下面几条路径进入。
你会理解向量表示如何形成、梯度如何更新、有限精度与硬件为何共同决定模型是否可训练。
[[02-linear-algebra|线性代数]] → [[03-calculus-and-optimization|微积分与优化理论]] → [[11-numerical-analysis|数值分析]] → [[15-computing-hardware-and-parallel-computing|AI 计算硬件与并行计算]]
你会理解当世界不是规则网格,而是关系网络与连续空间时,AI 如何表示结构。
[[06-graph-theory|图论]] → [[07-topology-and-geometry|拓扑与几何]] → [[10-computer-science|计算机科学]] → [[14-complexity-science|复杂性科学]]
你会理解模型如何处理不确定性、压缩信息,以及如何区分相关与因果。
[[01-probability-and-statistics|概率论与数理统计]] → [[04-information-theory|信息论]] → [[09-causal-inference|因果推断]] → [[24-statistical-physics|统计物理与能量模型]]
你会理解反馈、序贯决策和多主体互动为什么是 Agent 系统的理论前身。
[[12-signal-processing|信号处理]] → [[13-cybernetics|控制论]] → [[21-operations-research|运筹学]] → [[22-game-theory|博弈论]]
你会理解大脑、认知、行为、语言和哲学问题为何始终是 AGI 讨论的背景层。
[[16-neuroscience|神经科学]] → [[17-cognitive-science|认知科学]] → [[18-psychology|心理学]] → [[19-linguistics|语言学]] → [[25-philosophy|哲学]]
这部分把静态目录改写成动态能力形成路径,让读者围绕训练、结构、控制、推理和 AGI 问题组织阅读,而不是被学科名称本身牵着走。
[[01-probability-and-statistics|概率论]] → [[02-linear-algebra|线性代数]] → [[03-calculus-and-optimization|微积分与优化]] → [[04-information-theory|信息论]] → [[11-numerical-analysis|数值分析]] → [[15-computing-hardware-and-parallel-computing|AI 计算硬件与并行计算]]
[[06-graph-theory|图论]] → [[07-topology-and-geometry|拓扑与几何]] → [[10-computer-science|计算机科学]] → [[14-complexity-science|复杂性科学]]
[[01-probability-and-statistics|概率论]] → [[03-calculus-and-optimization|优化理论]] → [[13-cybernetics|控制论]] → [[21-operations-research|运筹学]] → [[22-game-theory|博弈论]] → [[14-complexity-science|复杂性科学]]
[[08-logic|逻辑学]] → [[09-causal-inference|因果推断]] → [[10-computer-science|计算机科学]] → [[17-cognitive-science|认知科学]] → [[19-linguistics|语言学]] → [[25-philosophy|哲学]]
这部分的作用是降低进入门槛,让不同目标的读者都能快速找到一条可执行的入门路径,而不是在 25 个专题之间平均发力。
如果你第一次进入这套知识库,可以先抓住下面 10 个支点:
| 专题 | 为什么优先 |
|---|---|
| 概率论与数理统计 | 不确定性、统计学习与贝叶斯思维的起点 |
| 线性代数 | 几乎所有现代模型都运行在向量与矩阵上 |
| 微积分与优化理论 | 训练过程本质上是可微优化 |
| 信息论 | 熵、压缩、互信息与损失函数语言 |
| 图论 | 关系结构与图学习的基础入口 |
| 逻辑学与形式推理 | 符号推理与规则系统的基础 |
| 因果推断 | 让模型从相关走向机制 |
| 控制论 | 反馈、闭环和智能体问题的前史 |
| AI 计算硬件与并行计算 | 理解为什么现代 AI 必然是系统工程 |
| 哲学 | 解释“什么算理解、推理、意识与 AGI” |
这一部分相当于全书的“最短抓手”。如果读者时间有限,这 10 个专题能最快搭起现代 AI 的主梁。
在 Obsidian 或本地知识库环境中,最有效的读法通常是:
- 从本页进入任一专题后,继续使用该页的
相关主题横向跳转; - 用反向链接查看某个学科被哪些篇章共同引用;
- 把本页作为工作台首页,避免阅读路径只沿单一学科线性展开。
导航效率本身会影响跨学科学习质量。阅读顺序若只沿单一学科推进,读者很容易错过 AI 最关键的“汇流点”。
作为一页索引,本页的贡献不在于提供新理论,而在于提供新结构。
单篇专题容易让人获得“局部正确”,但难以形成整体判断。知识地图的作用,是把 25 个专题重新压缩为一套可导航的结构。
目录只告诉你有哪些主题,路径则告诉你这些主题如何共同形成表示、训练、推理、控制、交互和 AGI 讨论。
读者不必先一次性掌握全部学科,仍可以按目标选择入口,并沿着跨学科链接逐步扩展。
这张地图本身也仍在演化。接下来值得持续完善的方向包括:
- 更细的时间线导航;
- 学科之间的关系图谱;
- 英文版同步;
- 代码示例与专题页之间的双向链接;
- 面向不同读者画像的定制阅读路径。
这页更像导航页,因此推荐优先阅读以下全局性材料:
- Russell, S., & Norvig, P. (2020). Artificial Intelligence: A Modern Approach. Pearson.
- Marr, D. (1982). Vision. W. H. Freeman.
- Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning. MIT Press.
- Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433-460.
- McCarthy, J., Minsky, M., Rochester, N., & Shannon, C. (1955). A proposal for the Dartmouth summer research project on artificial intelligence.
- Mitchell, T. M. (1997). Machine Learning. McGraw-Hill.
- LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521, 436-444.
- Vaswani, A., et al. (2017). Attention is all you need. NeurIPS.
- Sutton, R. S., & Barto, A. G. (2018). Reinforcement Learning: An Introduction. MIT Press.
- Bommasani, R., et al. (2021). On the opportunities and risks of foundation models. arXiv:2108.07258.
- Bronstein, M. M., et al. (2021). Geometric deep learning: Grids, groups, graphs, geodesics, and gauges. arXiv:2104.13478.
- Kaplan, J., et al. (2020). Scaling laws for neural language models. arXiv:2001.08361.
若想先看项目层面的全景综述,可继续阅读 00-overview.md。
本篇就是整套知识库的入口层。它不属于某一个单独学科,而是为全部 25 个专题提供结构索引、阅读顺序和横向迁移入口。
最适合的使用方式是:
- 第一次进入本库时,从这里找到你的起点;
- 读完一篇专题后,再回到这里决定下一跳;
- 当你想理解“这门学科在 AI 全景里到底处于什么位置”时,再回到这里校准自己的地图。