🤖 零基础友好

AI 人工智能入门

不需要任何技术背景,用生活中的例子,带你搞懂人工智能的核心概念

👇 向下滚动开始探索

什么是人工智能?

人工智能(AI)就是让机器像人一样"思考"和"学习"。但别被这个词吓到,它比你想象的简单多了。

🐱

就像教小孩认东西

想象你在教一个小朋友认猫。你不会给他背一堆规则:"四条腿、有毛、会喵喵叫……"。你只需要给他看很多很多猫的照片,说"这是猫"。看了 1000 张之后,他就学会认猫了——即使碰到一只从没见过的猫,他也能认出来。

AI 就是这样学习的!给它喂大量数据(照片),它自己总结出规律(长什么样是猫),然后就能识别新东西了。

AI 发展简史

从 1950 年的一个大胆想法,到今天的 ChatGPT,AI 走过了 70 多年。点击每个节点看详情 👇

timeline.interactive
💡

点击任意事件卡片,展开查看详细故事。时间线从上到下,颜色交替方便区分。

1950
图灵测试诞生

艾伦·图灵提出了著名的"图灵测试":如果一台机器能让人类分不清它是人还是机器,那它就算有"智能"了。这是 AI 最早的定义之一。

1956
"人工智能"一词诞生

在达特茅斯会议上,科学家们第一次正式使用了"Artificial Intelligence"这个词。AI 作为一个学科正式诞生。

1997
深蓝击败国际象棋冠军

IBM 的"深蓝"计算机在六局比赛中击败了世界象棋冠军卡斯帕罗夫。第一次让大众感受到 AI 的力量。

2012
深度学习爆发

AlexNet 在图像识别比赛中碾压对手,错误率比第二名低了整整 10%。深度学习从此成为 AI 的主流方法,标志着 AI 复兴。

2016
AlphaGo 击败围棋世界冠军

谷歌 DeepMind 的 AlphaGo 以 4:1 击败韩国围棋九段棋手李世石。围棋的可能性比宇宙中的原子还多,AI 能赢震惊了全世界。

2017
Transformer 架构发布

谷歌发表论文"Attention Is All You Need",提出 Transformer 架构。这是 ChatGPT、Claude 等所有大语言模型的技术基础。

2022-2024
ChatGPT 引爆 AI 时代

OpenAI 发布 ChatGPT,两个月用户破亿。随后各公司纷纷推出 AI 产品:Claude、Gemini、文心一言……AI 从实验室走进了每个人的日常生活。

什么是机器学习?

机器学习是 AI 最核心的方法——不是人写死规则,而是让机器自己从数据里学。

🚲

就像小孩学骑自行车

你没法通过看说明书学会骑自行车,对吧?你得亲自骑上去,摔几次,身体自己就找到平衡了。

机器学习也一样:不是程序员告诉机器"如果 A 就做 B",而是给它大量例子(数据),让它自己试错,自己找到规律。摔了几次(预测错了几次),它就越来越准了。

📏

传统编程

人写好规则 → 机器执行
比如:"如果温度 > 30 就开空调"

🧠

机器学习

给数据和答案 → 机器自己学规则
比如:给 1 万天的温度和人的行为数据,让它自己学会什么时候该开空调

什么是深度学习?

深度学习是机器学习的一种特殊方法,用很多"层"来逐步理解复杂信息。

🧅

就像剥洋葱

想象你在看一张人脸照片:

🔹 第一层(最外层):只能看到线条和边缘
🔹 第二层:把线条拼成形状——眼睛、鼻子、嘴巴
🔹 第三层:把形状拼成五官的组合
🔹 最深层:终于认出——"这是张三!"

深度学习的"深度"就是层数多。每一层提取更高级的特征,层层递进,最终理解整体。就像剥洋葱,一层层剥开才能看到核心。

什么是神经网络?

神经网络是深度学习的核心结构,灵感来自人类大脑中神经元的连接方式。

🗳️

一群小助手投票做决定

想象有一群小助手,每人负责观察一个特征。比如判断一张图是猫还是狗:

👤 助手 A:看有没有胡须 → "有!像猫"
👤 助手 B:看耳朵形状 → "尖尖的!像猫"
👤 助手 C:看体型大小 → "挺大的……像狗?"

最后大家投票,多数说"猫",结果就是猫。神经网络就是这样:很多"神经元"各看一部分信息,最后综合起来做决定。

neural_network_vote.js
🧪

打开/关闭下面的特征开关,看神经网络如何一层层判断这是猫还是狗!每个神经元都会亮起来表示被激活。

① 设置特征 ② 观察网络 ③ 看结果
🐾 有胡须?
👂 耳朵是尖的?
🔊 会汪汪叫?
🐟 爱吃鱼?
输入层
🐾
👂
🔊
🐟
隐藏层
输出层
🐱
🐶
👆 打开一些特征开关试试

训练 AI 需要什么?

三大要素:数据 + 算力 + 算法,缺一不可。

🍳

就像做菜

🥦 数据 = 食材:没有食材,再好的厨师也做不出菜

🔥 算力 = 灶台:灶台越大火越猛,做菜越快

📖 算法 = 菜谱:告诉你按什么步骤来做

三者缺一不可:食材不好菜不好吃,灶台太小做到明年,菜谱不对乱炒一通。

🥦

数据

AI 学习的"原材料"。越多越好、越干净越好。比如训练图像识别需要上百万张标注好的图片。

🔥

算力(GPU)

计算能力。训练大模型需要成千上万块 GPU,花费几百万美元。普通电脑做不了。

📖

算法

学习的方法。比如 Transformer、CNN 等。好的算法能让 AI 学得更快更好。

⚖️

平衡很重要

数据有偏差,AI 就有偏见;算力不够,训练不完;算法不对,学不到东西。三者必须配合。

AI 能做什么?

AI 的四大超能力:分类、生成、预测、决策。

🏷️

分类识别

给东西贴标签。比如:这张照片是猫还是狗?这封邮件是不是垃圾邮件?这个肿瘤是良性还是恶性?

🎨

生成创作

创造新内容。比如:画画(Midjourney)、写文章(ChatGPT)、编曲、写代码。

🔮

预测判断

根据历史预测未来。比如:天气预报、股价走势、用户可能喜欢什么商品。

🎮

决策行动

在复杂环境中做出最优选择。比如:下棋(AlphaGo)、自动驾驶、机器人控制。

AI 不能做什么?

AI 很强大,但它也有明确的局限。它没有真正的理解和情感,会犯错,会"幻觉"。

🤥

什么是"幻觉"?

AI 有时候会一本正经地胡说八道——比如编造不存在的论文、虚构历史事件。这叫"幻觉"(Hallucination)。因为 AI 本质是在做"最可能的下一个词"的预测,它不真正"理解"内容,只是在模仿。

can_or_cannot.game
🎴

点击翻转卡片,看看 AI 到底能不能做这件事!绿色 = 能做,红色 = 不能做。

训练 vs 推理

AI 的两个阶段:训练(学习)和推理(应用),就像上学和考试。

📚

训练 = 上学

需要大量时间和资源。给 AI 看海量数据,让它反复学习、调整。一次训练可能花几周甚至几个月,花费数百万美元。

📝

推理 = 考试

学完之后就很快了。你问 ChatGPT 一个问题,它几秒就回答——这就是"推理"。用学到的知识来解决新问题。

training_simulation.py
⚙️

点击"开始训练",模拟 AI 的学习过程。观察准确率如何从 50%(随机瞎猜)慢慢涨到 95%!

① 准备数据 ② 开始训练 ③ 训练完成
Epoch: 0/20 准确率: 50.0% Loss: 0.693
等待开始训练...

什么是 GPU?为什么 AI 需要它?

GPU 是 AI 的"发动机"。没有它,训练大模型就像用蜡烛烧开水。

🧮

一个天才 vs 1000 个小学生

CPU 就像一个数学天才:什么题都能做,但一次只能做一道题。

GPU 就像 1000 个小学生:每人只会做简单的加减法,但他们同时做!1000 道题同时算,速度快得飞起。

AI 的训练恰好需要大量简单计算同时进行(矩阵运算),所以 GPU 简直是为 AI 而生的。

gpu_vs_cpu_race.js
🏁

点击"开始赛跑",看 CPU(串行)和 GPU(并行)谁先算完 1000 个任务!

🐢 CPU(串行计算)0/1000
🚀 GPU(并行计算)0/1000
等待比赛开始...

🔬 教 AI 认形状

体验一下"训练 AI"的过程:先标注数据,然后训练,最后测试!

shape_recognition.ai
📐

步骤1:点击形状,选择它是什么(标注数据)。步骤2:标注够 6 个后点"训练"。步骤3:看 AI 能不能自己认出新形状!

① 标注数据 (0/6) ② 训练模型 ③ 测试 AI
点击上面的形状开始标注 👆