Skip to content

Latest commit

 

History

History
312 lines (199 loc) · 13.6 KB

File metadata and controls

312 lines (199 loc) · 13.6 KB
title 知识地图
aliases
从基础学科到通用人工智能
Index
category
导航与索引
tags
ai-foundations
index
knowledge-map
type topic
status stable
importance core
version v2.1
date 2026-04-08

从基础学科到通用人工智能:25 学科知识地图

上帝视角:这不是某一门学科的专题文,而是整套知识库的导航页。它要回答的是两个问题:第一,哪些基础学科共同汇聚成了今天的 AI;第二,读者应该沿什么路径进入这套跨学科知识,而不在大量专题之间迷路。


1. 上帝视角:为什么 AI 需要一张知识地图

AI 从来不是单一学科的自然延伸。它更像一个汇流系统:

  • 数学与形式基础负责给出表示、优化、推理和不确定性的语言;
  • 计算与系统工程负责把这些理论变成可运行、可扩展的系统;
  • 认知、生物与语言研究解释自然智能如何形成,并持续为 AI 提供结构启发;
  • 决策、交互与社会机制告诉我们多主体、资源、激励和博弈如何影响系统行为;
  • 物理与哲学基础则分别从能量、相变、认识论与心灵问题上约束我们如何理解智能。

因此,索引页的职责不是替代正文,而是把全书压缩成一张结构图,让读者始终知道:

  • 自己正在学哪一类问题;
  • 这个问题与哪些学科直接相连;
  • 接下来最自然的阅读迁移方向是什么。

1.1 当前覆盖范围

截至 2026-04-08,中文专题文档按 25 个学科组织为五组:

  1. 数学与形式基础(01-09)
  2. 计算与系统工程(10-15)
  3. 认知、生物与语言(16-20)
  4. 决策、交互与社会机制(21-23)
  5. 物理与哲学基础(24-25)

1.2 这张地图不替代什么

本页不直接替代:

  • 各篇专题中的公式推导和例题;
  • 代码示例、图表与可视化脚本;
  • 英文版内容;
  • 尚未独立展开的时间线页和学科关系图。

它的作用始终是:帮助定位,而不是代替正文。


2. 历史脉络:AI 为什么必然是跨学科产物

把 25 个学科放进同一张图里,并不是人为拼盘,而是因为 AI 本身就沿着这条汇流史发展:

  • 1943:McCulloch 与 Pitts 提出人工神经元模型,神经科学与计算理论首次直接耦合;
  • 1948:Wiener 发表控制论,Shannon 建立信息论,AI 的反馈与信息语言同时成形;
  • 1950:Turing 提出图灵测试,把“机器能否表现出智能”变成可讨论问题;
  • 1956:达特茅斯会议标志 AI 作为独立研究方向形成;
  • 1986:反向传播重新点燃连接主义,优化、数值计算与神经科学重新汇流;
  • 2012:AlexNet 借助 GPU 训练取得突破,数学方法与硬件系统开始大规模合流;
  • 2017:Transformer 让表示学习、语言学、系统工程和规模化训练进一步汇聚;
  • 2022 以后:大语言模型、Agent 和对齐问题把哲学、经济学、复杂性科学等重新拉回 AI 中心。

因此,这张索引不是静态目录,而是对一条真实历史汇流过程的结构化整理。


3. 核心知识点详解

3.1 按学科簇浏览

数学与形式基础(01-09)

这一组回答的是:AI 的数学语言、形式边界与结构表达从哪里来?

  • [[01-probability-and-statistics|概率论与数理统计]]
  • [[02-linear-algebra|线性代数]]
  • [[03-calculus-and-optimization|微积分与优化理论]]
  • [[04-information-theory|信息论]]
  • [[05-approximation-theory|逼近论]]
  • [[06-graph-theory|图论]]
  • [[07-topology-and-geometry|拓扑与几何]]
  • [[08-logic|逻辑学与形式推理]]
  • [[09-causal-inference|因果推断]]

AI 中的角色

这一组决定 AI 的底层表达能力:怎样描述不确定性、怎样进行可微优化、怎样表示关系结构、怎样讨论规则与机制边界。

计算与系统工程(10-15)

这一组回答的是:理论成立之后,AI 怎样被算出来、控出来、部署出来,并演化成复杂系统?

  • [[10-computer-science|计算机科学]]
  • [[11-numerical-analysis|数值分析]]
  • [[12-signal-processing|信号处理]]
  • [[13-cybernetics|控制论]]
  • [[14-complexity-science|复杂性科学]]
  • [[15-computing-hardware-and-parallel-computing|AI 计算硬件与并行计算]]

AI 中的角色

这一组把“理论上可行”的方法变成“工程上可落地”的系统,同时解释规模化、反馈和复杂行为为何会在真实 AI 中出现。

认知、生物与语言(16-20)

这一组回答的是:自然智能如何形成,以及这些形成机制对 AI 有何启发与约束?

  • [[16-neuroscience|神经科学]]
  • [[17-cognitive-science|认知科学]]
  • [[18-psychology|心理学]]
  • [[19-linguistics|语言学]]
  • [[20-evolutionary-biology|进化生物学]]

AI 中的角色

这一组提供自然智能的参照系,帮助我们理解注意力、记忆、语言、行为和适应机制如何被 AI 吸收、改写或偏离。

决策、交互与社会机制(21-23)

这一组回答的是:主体如何决策、互动、协商和竞争,激励结构如何改变系统行为?

  • [[21-operations-research|运筹学]]
  • [[22-game-theory|博弈论]]
  • [[23-economics|经济学]]

AI 中的角色

这一组处理的是单个模型之外的问题:多主体如何互动,资源如何配置,激励结构如何改变系统结果。

物理与哲学基础(24-25)

这一组回答的是:系统的能量、相变与知识边界如何约束我们对智能的理解?

  • [[24-statistical-physics|统计物理与能量模型]]
  • [[25-philosophy|哲学]]

AI 中的角色

这一组分别从物理系统与认识边界两端,约束我们如何理解学习、能量、解释、意识与 AGI 问题。

3.2 按 AI 能力形成路径浏览

如果你更关心“能力如何长出来”,而不是“学科如何分类”,可以按下面几条路径进入。

路径一:表示与训练

你会理解向量表示如何形成、梯度如何更新、有限精度与硬件为何共同决定模型是否可训练。

[[02-linear-algebra|线性代数]] → [[03-calculus-and-optimization|微积分与优化理论]] → [[11-numerical-analysis|数值分析]] → [[15-computing-hardware-and-parallel-computing|AI 计算硬件与并行计算]]

路径二:结构与关系

你会理解当世界不是规则网格,而是关系网络与连续空间时,AI 如何表示结构。

[[06-graph-theory|图论]] → [[07-topology-and-geometry|拓扑与几何]] → [[10-computer-science|计算机科学]] → [[14-complexity-science|复杂性科学]]

路径三:不确定性、信息与机制

你会理解模型如何处理不确定性、压缩信息,以及如何区分相关与因果。

[[01-probability-and-statistics|概率论与数理统计]] → [[04-information-theory|信息论]] → [[09-causal-inference|因果推断]] → [[24-statistical-physics|统计物理与能量模型]]

路径四:控制与智能体

你会理解反馈、序贯决策和多主体互动为什么是 Agent 系统的理论前身。

[[12-signal-processing|信号处理]] → [[13-cybernetics|控制论]] → [[21-operations-research|运筹学]] → [[22-game-theory|博弈论]]

路径五:自然智能与 AGI

你会理解大脑、认知、行为、语言和哲学问题为何始终是 AGI 讨论的背景层。

[[16-neuroscience|神经科学]] → [[17-cognitive-science|认知科学]] → [[18-psychology|心理学]] → [[19-linguistics|语言学]] → [[25-philosophy|哲学]]

AI 中的角色

这部分把静态目录改写成动态能力形成路径,让读者围绕训练、结构、控制、推理和 AGI 问题组织阅读,而不是被学科名称本身牵着走。

3.3 按读者目标进入

路线 A:面向机器学习 / 深度学习

[[01-probability-and-statistics|概率论]] → [[02-linear-algebra|线性代数]] → [[03-calculus-and-optimization|微积分与优化]] → [[04-information-theory|信息论]] → [[11-numerical-analysis|数值分析]] → [[15-computing-hardware-and-parallel-computing|AI 计算硬件与并行计算]]

路线 B:面向结构化 AI / 图学习

[[06-graph-theory|图论]] → [[07-topology-and-geometry|拓扑与几何]] → [[10-computer-science|计算机科学]] → [[14-complexity-science|复杂性科学]]

路线 C:面向强化学习 / 智能体

[[01-probability-and-statistics|概率论]] → [[03-calculus-and-optimization|优化理论]] → [[13-cybernetics|控制论]] → [[21-operations-research|运筹学]] → [[22-game-theory|博弈论]] → [[14-complexity-science|复杂性科学]]

路线 D:面向推理 / AGI

[[08-logic|逻辑学]] → [[09-causal-inference|因果推断]] → [[10-computer-science|计算机科学]] → [[17-cognitive-science|认知科学]] → [[19-linguistics|语言学]] → [[25-philosophy|哲学]]

AI 中的角色

这部分的作用是降低进入门槛,让不同目标的读者都能快速找到一条可执行的入门路径,而不是在 25 个专题之间平均发力。

3.4 当前最值得优先阅读的 10 个专题

如果你第一次进入这套知识库,可以先抓住下面 10 个支点:

专题 为什么优先
概率论与数理统计 不确定性、统计学习与贝叶斯思维的起点
线性代数 几乎所有现代模型都运行在向量与矩阵上
微积分与优化理论 训练过程本质上是可微优化
信息论 熵、压缩、互信息与损失函数语言
图论 关系结构与图学习的基础入口
逻辑学与形式推理 符号推理与规则系统的基础
因果推断 让模型从相关走向机制
控制论 反馈、闭环和智能体问题的前史
AI 计算硬件与并行计算 理解为什么现代 AI 必然是系统工程
哲学 解释“什么算理解、推理、意识与 AGI”

AI 中的角色

这一部分相当于全书的“最短抓手”。如果读者时间有限,这 10 个专题能最快搭起现代 AI 的主梁。

3.5 使用建议

在 Obsidian 或本地知识库环境中,最有效的读法通常是:

  • 从本页进入任一专题后,继续使用该页的 相关主题 横向跳转;
  • 用反向链接查看某个学科被哪些篇章共同引用;
  • 把本页作为工作台首页,避免阅读路径只沿单一学科线性展开。

AI 中的角色

导航效率本身会影响跨学科学习质量。阅读顺序若只沿单一学科推进,读者很容易错过 AI 最关键的“汇流点”。


4. 对 AI 的核心贡献

作为一页索引,本页的贡献不在于提供新理论,而在于提供新结构。

4.1 把分散专题压缩成可理解的地图

单篇专题容易让人获得“局部正确”,但难以形成整体判断。知识地图的作用,是把 25 个专题重新压缩为一套可导航的结构。

4.2 把“学科目录”翻译成“能力路径”

目录只告诉你有哪些主题,路径则告诉你这些主题如何共同形成表示、训练、推理、控制、交互和 AGI 讨论。

4.3 降低跨学科学习成本

读者不必先一次性掌握全部学科,仍可以按目标选择入口,并沿着跨学科链接逐步扩展。


5. 前沿与开放问题

这张地图本身也仍在演化。接下来值得持续完善的方向包括:

  • 更细的时间线导航;
  • 学科之间的关系图谱;
  • 英文版同步;
  • 代码示例与专题页之间的双向链接;
  • 面向不同读者画像的定制阅读路径。

6. 推荐阅读与参考文献

这页更像导航页,因此推荐优先阅读以下全局性材料:

全景与教材

  • Russell, S., & Norvig, P. (2020). Artificial Intelligence: A Modern Approach. Pearson.
  • Marr, D. (1982). Vision. W. H. Freeman.
  • Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning. MIT Press.

AI 历史与结构锚点

  • Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433-460.
  • McCarthy, J., Minsky, M., Rochester, N., & Shannon, C. (1955). A proposal for the Dartmouth summer research project on artificial intelligence.
  • Mitchell, T. M. (1997). Machine Learning. McGraw-Hill.
  • LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521, 436-444.
  • Vaswani, A., et al. (2017). Attention is all you need. NeurIPS.
  • Sutton, R. S., & Barto, A. G. (2018). Reinforcement Learning: An Introduction. MIT Press.
  • Bommasani, R., et al. (2021). On the opportunities and risks of foundation models. arXiv:2108.07258.
  • Bronstein, M. M., et al. (2021). Geometric deep learning: Grids, groups, graphs, geodesics, and gauges. arXiv:2104.13478.
  • Kaplan, J., et al. (2020). Scaling laws for neural language models. arXiv:2001.08361.

若想先看项目层面的全景综述,可继续阅读 00-overview.md

7. 本篇在全书中的位置

本篇就是整套知识库的入口层。它不属于某一个单独学科,而是为全部 25 个专题提供结构索引、阅读顺序和横向迁移入口。

最适合的使用方式是:

  • 第一次进入本库时,从这里找到你的起点;
  • 读完一篇专题后,再回到这里决定下一跳;
  • 当你想理解“这门学科在 AI 全景里到底处于什么位置”时,再回到这里校准自己的地图。