AI 名词解释精选 50 词

AI 名词解释精选 50 词

2026/04/272 分钟
分类:技术分享

AI 名词解释精选 50 词

AI 词典 · 速查手册 · 50 个核心概念 · 一句话定义 · 生活化类比 · 建议收藏
AI 概念图示
AI 概念图示
每天刷到 AI 新闻,LLM、RAG、Agent、LoRA 满天飞,看完还是不知道在说什么?
今天我把 AI 领域最常出现的 50 个名词整理出来,每个词一句话讲清楚 + 一个生活类比。看完这篇,90% 的 AI 新闻你都能看懂。
本文按「从基础到进阶」排序。前 15 个是最基础的概念,建议从头看。

一、基础概念(入门必读)

名词
一句话定义
生活类比
人工智能 (AI)
让机器模拟人类智能的技术总称
就像教小孩认字——你给机器看足够多的例子,它就「学会」了
机器学习 (ML)
AI 的一个分支,让机器从数据中自动学习规律
不是手动写规则,而是让机器自己找规律,像学生做题总结套路
深度学习 (DL)
用多层神经网络处理复杂任务的学习方法
普通机器学习是「一层思考」,深度学习是「十层思考」
神经网络 (Neural Network)
模仿人脑神经元结构的计算模型
像一张蜘蛛网——信息从一端输入,经过多层节点处理,从另一端输出结果
大语言模型 (LLM)
用海量文本训练的超大规模语言模型
读完了整个互联网的 AI,能跟你聊天、写文章、写代码
参数 (Parameters)
模型内部的「调节旋钮」,决定模型行为
GPT-4 有上万亿个参数,就像一个有万亿个齿轮的精密机器
训练 (Training)
用大量数据教模型学习的过程
就像刷题——做得越多,正确率越高
推理 (Inference)
训练好的模型对新输入做出预测
训练是「学习」,推理是「考试」——学完之后去答题
Token
模型处理文本的最小单位(约 0.75 个汉字)
AI 不是按字收费,是按 Token 收费。1000 个 Token ≈ 750 个汉字

二、模型训练(怎么造 AI)

AI 训练过程示意图
AI 训练过程示意图
名词
一句话定义
生活类比
预训练 (Pre-training)
用海量通用数据做基础训练
先读完整个人类图书馆,建立基础知识
微调 (Fine-tuning)
在预训练基础上用专项数据继续训练
大学读了通识课(预训练),研究生选了专业方向(微调)
LoRA
一种低成本微调方法,只训练很少的参数
不重新装修整栋楼,只换几个房间壁纸——省时省力
RLHF
基于人类反馈的强化学习,让模型更「听话」
教小孩说「请」和「谢谢」——用奖励引导好行为
蒸馏 (Distillation)
把大模型的知识压缩到小模型里
老师教了一辈子,学生用一本笔记就学到了精华
量化 (Quantization)
降低模型参数精度来减小体积
照片从 RAW 压缩成 JPEG——体积小了 10 倍,看着差不多
Embedding
把文字/图片转换成数字向量
给每个概念发一个「身份证号码」,相似的词号码也相近
注意力机制 (Attention)
让模型知道输入中哪些部分更重要
看一篇文章时,你的眼睛会自动聚焦关键词——AI 也是

三、提示词与应用(怎么用 AI)

名词
一句话定义
生活类比
提示词 (Prompt)
你给 AI 的指令或问题
跟 AI 对话就像跟实习生沟通——指令越清楚,结果越好
系统提示词 (System Prompt)
设定 AI 角色和行为规则的指令
面试前的岗位说明书——告诉 AI「你是谁、该怎么做」
上下文窗口 (Context Window)
AI 一次能记住的文本长度
AI 的短期记忆——GPT-4 能记住一本书,GPT-3 只能记住一页
幻觉 (Hallucination)
AI 编造不存在的信息
AI 也会「一本正经地胡说八道」——它不是撒谎,是真的不知道自己在乱编
零样本 (Zero-shot)
不给任何示例就让 AI 完成任务
跟新人说「帮我写个报告」——不给模板,看他自己发挥
少样本 (Few-shot)
给几个示例让 AI 学习任务格式
给新人看了 3 个范例再让他写——质量明显提高
思维链 (CoT)
让 AI 一步步推理而不是直接给答案
不要只给最终答案,要写解题步骤——这样错误率大大降低
RAG
检索增强生成,让 AI 查资料再回答
开卷考试——AI 先从知识库里找相关资料,再组织回答

四、架构与生成(AI 怎么运作)

AI 架构示意图
AI 架构示意图
名词
一句话定义
生活类比
Transformer
现代大模型的核心架构
AI 世界的「发动机」——GPT、Claude、Gemini 全靠它
扩散模型 (Diffusion)
通过逐步去噪生成图片的模型
从一团毛玻璃慢慢擦出清晰画面——这就是 AI 画画的原理
多模态 (Multimodal)
能同时处理文字、图片、音频的模型
以前的 AI 只会读写文字,现在能看图、听音、看视频了
MoE
混合专家模型,不同任务用不同「专家」
一家医院里有内科外科各科医生,根据病情自动分配
Agent
能自主规划、使用工具完成任务的 AI
不是你问一句它答一句,而是你说「帮我订机票」,它自己查航班、比价、下单
MCP
模型上下文协议,让 AI 连接外部工具的标准
AI 的 USB 接口——统一的插拔标准,让 AI 能连数据库、搜索引擎等工具
A2A
Agent 之间的通信协议
AI 之间的「微信群」——不同 Agent 可以互相发消息协作

五、部署与生态(AI 怎么落地)

名词
一句话定义
生活类比
API
应用程序接口,通过代码调用 AI 的方式
AI 的「外卖窗口」——你下单(发请求),它出餐(返回结果)
开源模型 (Open Source)
公开代码和权重,可自由使用的模型
免费的公共图书馆——Llama、Qwen、DeepSeek 谁都能用
闭源模型 (Closed Source)
不公开内部细节的商业模型
GPT-4、Claude——像可口可乐配方,只给你喝,不告诉你怎么做
GGUF
一种本地运行的模型文件格式
把大模型打包成一个文件——下载后直接用 Ollama 跑
Ollama
本地运行大模型的最简工具
一行命令就能在自己的电脑上跑 AI——不需要联网
GPU
图形处理器,AI 训练和推理的核心硬件
CPU 是大学教授(擅长复杂逻辑),GPU 是 1000 个小学生(并行算简单的活)
TPU
谷歌专为 AI 设计的芯片
GPU 是通用的,TPU 是专门为 AI 定制的——更贵但更快
推理时计算 (Inference-time Compute)
在回答时花更多计算来提高质量
「想 5 秒再回答」vs「脱口而出」——给 AI 更多思考时间,答案更好
护栏 (Guardrails)
限制 AI 输出的安全机制
AI 的「围栏」——防止它说出危险、违法、偏见的内容

六、2026 热门模型速查表

模型
厂商
类型
特点
GPT-4o / o3
OpenAI
闭源
综合最强,多模态,推理能力强
Claude 4
Anthropic
闭源
长文本最强,安全对齐好,编程能力强
Gemini 2.5 Pro
Google
闭源
100万 Token 上下文,多模态集成
DeepSeek R1/V3
深度求索
开源
国产之光,推理能力接近 GPT-4,完全开源
Qwen 3
阿里
开源
中文最强开源模型,多尺寸可选
Llama 4
Meta
开源
全球最大开源模型社区,英文为主
Kimi k2
月之暗面
闭源
中文长文本优秀,200 万 Token 上下文
Grok 3
xAI
闭源
实时信息,不设限风格

总结

  • 🧠 基础三件套:AI → 机器学习 → 深度学习,一个比一个具体
  • 🏋️ 训练四步走:预训练 → 微调 → RLHF → 量化,从通才到专家
  • 💬 使用三关键:Prompt 写清楚、Context 够大、警惕幻觉
  • 🔧 部署两路径:云端 API 省心,本地 Ollama 省钱
  • 📖 选模型看需求:中文用 Qwen/DeepSeek,编程用 Claude,全能用 GPT
50 个词,从「什么是 AI」到「怎么选模型」,一篇文章帮你建立完整的 AI 知识框架。建议收藏,遇到不懂的词随时回来查。
黑粉科技 · 让普通人也能驾驭 AI · hyphentech.top
分享到:

相关文章

返回首页