AI 名词解释精选 50 词
AI 词典 · 速查手册 · 50 个核心概念 · 一句话定义 · 生活化类比 · 建议收藏
每天刷到 AI 新闻,LLM、RAG、Agent、LoRA 满天飞,看完还是不知道在说什么?
今天我把 AI 领域最常出现的 50 个名词整理出来,每个词一句话讲清楚 + 一个生活类比。看完这篇,90% 的 AI 新闻你都能看懂。
本文按「从基础到进阶」排序。前 15 个是最基础的概念,建议从头看。
一、基础概念(入门必读)
名词 | 一句话定义 | 生活类比 |
人工智能 (AI) | 让机器模拟人类智能的技术总称 | 就像教小孩认字——你给机器看足够多的例子,它就「学会」了 |
机器学习 (ML) | AI 的一个分支,让机器从数据中自动学习规律 | 不是手动写规则,而是让机器自己找规律,像学生做题总结套路 |
深度学习 (DL) | 用多层神经网络处理复杂任务的学习方法 | 普通机器学习是「一层思考」,深度学习是「十层思考」 |
神经网络 (Neural Network) | 模仿人脑神经元结构的计算模型 | 像一张蜘蛛网——信息从一端输入,经过多层节点处理,从另一端输出结果 |
大语言模型 (LLM) | 用海量文本训练的超大规模语言模型 | 读完了整个互联网的 AI,能跟你聊天、写文章、写代码 |
参数 (Parameters) | 模型内部的「调节旋钮」,决定模型行为 | GPT-4 有上万亿个参数,就像一个有万亿个齿轮的精密机器 |
训练 (Training) | 用大量数据教模型学习的过程 | 就像刷题——做得越多,正确率越高 |
推理 (Inference) | 训练好的模型对新输入做出预测 | 训练是「学习」,推理是「考试」——学完之后去答题 |
Token | 模型处理文本的最小单位(约 0.75 个汉字) | AI 不是按字收费,是按 Token 收费。1000 个 Token ≈ 750 个汉字 |
二、模型训练(怎么造 AI)
名词 | 一句话定义 | 生活类比 |
预训练 (Pre-training) | 用海量通用数据做基础训练 | 先读完整个人类图书馆,建立基础知识 |
微调 (Fine-tuning) | 在预训练基础上用专项数据继续训练 | 大学读了通识课(预训练),研究生选了专业方向(微调) |
LoRA | 一种低成本微调方法,只训练很少的参数 | 不重新装修整栋楼,只换几个房间壁纸——省时省力 |
RLHF | 基于人类反馈的强化学习,让模型更「听话」 | 教小孩说「请」和「谢谢」——用奖励引导好行为 |
蒸馏 (Distillation) | 把大模型的知识压缩到小模型里 | 老师教了一辈子,学生用一本笔记就学到了精华 |
量化 (Quantization) | 降低模型参数精度来减小体积 | 照片从 RAW 压缩成 JPEG——体积小了 10 倍,看着差不多 |
Embedding | 把文字/图片转换成数字向量 | 给每个概念发一个「身份证号码」,相似的词号码也相近 |
注意力机制 (Attention) | 让模型知道输入中哪些部分更重要 | 看一篇文章时,你的眼睛会自动聚焦关键词——AI 也是 |
三、提示词与应用(怎么用 AI)
名词 | 一句话定义 | 生活类比 |
提示词 (Prompt) | 你给 AI 的指令或问题 | 跟 AI 对话就像跟实习生沟通——指令越清楚,结果越好 |
系统提示词 (System Prompt) | 设定 AI 角色和行为规则的指令 | 面试前的岗位说明书——告诉 AI「你是谁、该怎么做」 |
上下文窗口 (Context Window) | AI 一次能记住的文本长度 | AI 的短期记忆——GPT-4 能记住一本书,GPT-3 只能记住一页 |
幻觉 (Hallucination) | AI 编造不存在的信息 | AI 也会「一本正经地胡说八道」——它不是撒谎,是真的不知道自己在乱编 |
零样本 (Zero-shot) | 不给任何示例就让 AI 完成任务 | 跟新人说「帮我写个报告」——不给模板,看他自己发挥 |
少样本 (Few-shot) | 给几个示例让 AI 学习任务格式 | 给新人看了 3 个范例再让他写——质量明显提高 |
思维链 (CoT) | 让 AI 一步步推理而不是直接给答案 | 不要只给最终答案,要写解题步骤——这样错误率大大降低 |
RAG | 检索增强生成,让 AI 查资料再回答 | 开卷考试——AI 先从知识库里找相关资料,再组织回答 |
四、架构与生成(AI 怎么运作)
名词 | 一句话定义 | 生活类比 |
Transformer | 现代大模型的核心架构 | AI 世界的「发动机」——GPT、Claude、Gemini 全靠它 |
扩散模型 (Diffusion) | 通过逐步去噪生成图片的模型 | 从一团毛玻璃慢慢擦出清晰画面——这就是 AI 画画的原理 |
多模态 (Multimodal) | 能同时处理文字、图片、音频的模型 | 以前的 AI 只会读写文字,现在能看图、听音、看视频了 |
MoE | 混合专家模型,不同任务用不同「专家」 | 一家医院里有内科外科各科医生,根据病情自动分配 |
Agent | 能自主规划、使用工具完成任务的 AI | 不是你问一句它答一句,而是你说「帮我订机票」,它自己查航班、比价、下单 |
MCP | 模型上下文协议,让 AI 连接外部工具的标准 | AI 的 USB 接口——统一的插拔标准,让 AI 能连数据库、搜索引擎等工具 |
A2A | Agent 之间的通信协议 | AI 之间的「微信群」——不同 Agent 可以互相发消息协作 |
五、部署与生态(AI 怎么落地)
名词 | 一句话定义 | 生活类比 |
API | 应用程序接口,通过代码调用 AI 的方式 | AI 的「外卖窗口」——你下单(发请求),它出餐(返回结果) |
开源模型 (Open Source) | 公开代码和权重,可自由使用的模型 | 免费的公共图书馆——Llama、Qwen、DeepSeek 谁都能用 |
闭源模型 (Closed Source) | 不公开内部细节的商业模型 | GPT-4、Claude——像可口可乐配方,只给你喝,不告诉你怎么做 |
GGUF | 一种本地运行的模型文件格式 | 把大模型打包成一个文件——下载后直接用 Ollama 跑 |
Ollama | 本地运行大模型的最简工具 | 一行命令就能在自己的电脑上跑 AI——不需要联网 |
GPU | 图形处理器,AI 训练和推理的核心硬件 | CPU 是大学教授(擅长复杂逻辑),GPU 是 1000 个小学生(并行算简单的活) |
TPU | 谷歌专为 AI 设计的芯片 | GPU 是通用的,TPU 是专门为 AI 定制的——更贵但更快 |
推理时计算 (Inference-time Compute) | 在回答时花更多计算来提高质量 | 「想 5 秒再回答」vs「脱口而出」——给 AI 更多思考时间,答案更好 |
护栏 (Guardrails) | 限制 AI 输出的安全机制 | AI 的「围栏」——防止它说出危险、违法、偏见的内容 |
六、2026 热门模型速查表
模型 | 厂商 | 类型 | 特点 |
GPT-4o / o3 | OpenAI | 闭源 | 综合最强,多模态,推理能力强 |
Claude 4 | Anthropic | 闭源 | 长文本最强,安全对齐好,编程能力强 |
Gemini 2.5 Pro | Google | 闭源 | 100万 Token 上下文,多模态集成 |
DeepSeek R1/V3 | 深度求索 | 开源 | 国产之光,推理能力接近 GPT-4,完全开源 |
Qwen 3 | 阿里 | 开源 | 中文最强开源模型,多尺寸可选 |
Llama 4 | Meta | 开源 | 全球最大开源模型社区,英文为主 |
Kimi k2 | 月之暗面 | 闭源 | 中文长文本优秀,200 万 Token 上下文 |
Grok 3 | xAI | 闭源 | 实时信息,不设限风格 |
总结
- 🧠 基础三件套:AI → 机器学习 → 深度学习,一个比一个具体
- 🏋️ 训练四步走:预训练 → 微调 → RLHF → 量化,从通才到专家
- 💬 使用三关键:Prompt 写清楚、Context 够大、警惕幻觉
- 🔧 部署两路径:云端 API 省心,本地 Ollama 省钱
- 📖 选模型看需求:中文用 Qwen/DeepSeek,编程用 Claude,全能用 GPT
50 个词,从「什么是 AI」到「怎么选模型」,一篇文章帮你建立完整的 AI 知识框架。建议收藏,遇到不懂的词随时回来查。
黑粉科技 · 让普通人也能驾驭 AI · hyphentech.top
分享到: