← 返回智库列表

01 AI 发展史:从逻辑幻想至硅基黎明

人工智能(Artificial Intelligence)的历史不仅是算力的竞赛,更是人类对“智能”本质理解的深刻革命。从 1950 年的图灵之问,到 2026 年的通用智能(AGI),这场跨越 70 余年的接力,揭示了碳基生命如何通过数学与硅片复刻智慧的过程。

一、 启蒙与奠基:符号主义的逻辑之光 (1950 - 1960s)

1950年,阿兰·图灵(Alan Turing)发布了划时代的论文《计算机器与智能》,他没有直接定义智能,而是提出了“模拟游戏”(即图灵测试)。他预言:到 20 世纪末,机器将拥有让人类无法分辨的对话能力。

1956年,在达特茅斯学院,约翰·麦卡锡、马文·明斯基等学者正式确立了 AI 这一学科。当时的统治思想是**符号主义(Symbolism)**:认为智能可以通过对符号的逻辑运算来实现。早期的成就如“逻辑理论家”程序,成功证明了《数学原理》中的多个定理。当时的人们极度乐观,认为“只需一个夏天,就能解决计算机视觉问题”。

二、 第一次低谷与莫拉维克悖论 (1970s)

当科学家试图让 AI 处理现实世界的复杂任务时,遇到了“组合爆炸”问题。1970 年代,AI 遭遇了第一次寒冬。此时,著名的**“莫拉维克悖论”(Moravec's Paradox)**被提出:

“要让计算机展现出成人水平的下棋、逻辑推理能力是相对容易的;但要让计算机展现出一岁小孩水平的感知、运动能力,却是极其困难甚至是不可能的。”

这反映了早期 AI 缺乏对物理世界的感官认知,完全依赖于死板的 if-then 规则。

三、 联结主义的伏笔:神经网络与反向传播 (1980s)

1980 年代,以杰弗里·辛顿(Geoffrey Hinton)为首的学者坚持**联结主义(Connectionism)**,主张模仿人脑神经元结构。1986 年,反向传播算法(Backpropagation)的提出解决了多层神经网络的训练难题。其数学核心在于利用链式法则计算误差对权重的偏导数:

$$\frac{\partial E}{\partial w_{ij}} = \frac{\partial E}{\partial y_j} \cdot \frac{\partial y_j}{\partial net_j} \cdot \frac{\partial net_j}{\partial w_{ij}}$$

虽然理论有了突破,但受限于当时的算力(CPU)和稀缺的数据,神经网络在接下来的 20 年里一直被主流学术界边缘化。

四、 深度学习的奇点爆发 (2012 - 2017)

2012 年,AlexNet 在 ImageNet 图像识别大赛中夺冠,错误率比第二名低了近一半。这是 **GPU(图形处理器)+ 大数据 + 深度卷积神经网络(CNN)** 的合力产物。2016 年,DeepMind 的 AlphaGo 击败李世石,标志着 AI 具备了在极高复杂度空间中进行博弈搜索的能力。

[技术范式转移示意图]

符号主义 传统机器学习 大模型(LLM)

五、 大模型时代与通用智能 (2018 - 2026)

2017 年 Transformer 架构的诞生彻底改写了游戏规则。通过 Scaling Laws(尺度定律),研究者发现只要不断堆叠算力、数据和参数,AI 就会产生“涌现能力”(Emergence)。

到了 2026 年的今天,我们正处于 AGI 的黎明。AI 不再只是回答问题,而是作为“数字员工”自主操作软件、进行科学实验、理解复杂的物理规律。这场历史接力的终点尚未可知,但人类文明已经与硅基智慧深度融合。

实验室核心观点: 回顾 AI 七十年,每一次跨越都源于对“模拟”方式的改变:从模拟逻辑,到模拟神经,再到如今模拟世界本身。