AI名词大全:从入门到精通的100+核心术语速查手册

AI时代已来,无论是科技从业者还是普通爱好者,掌握AI术语都是理解这项技术的第一步。面对层出不穷的新概念,你是否常常感到困惑?今天,我们整理了AI领域的100+核心名词,按类别清晰梳理,配合图文讲解,协助你从入门到精通。赶紧收藏这份速查手册吧!

图1:AI领域核心概念总览
01.
基础概念篇
在深入了解具体技术之前,让我们先掌握AI领域最基础的概念。这些术语构成了理解整个AI生态的基石。
AI(Artificial Intelligence)人工智能
使机器具备人类智能行为的研究领域,包括感知、推理、学习和决策等能力。
AGI(Artificial General Intelligence)通用人工智能
具备与人类同等智能水平的AI,能完成任何智力任务,被视为AI发展的终极目标。
ANI(Artificial Narrow Intelligence)弱人工智能
专注于单一任务的AI,如下棋、语音识别、图像分类等,当前大多数AI系统都属于此类。
⚡ Superintelligence 超级智能
在几乎所有领域超越人类智能的AI,包括创造力、智慧和社交能力,引发广泛的安全讨论。
Singularity 奇点
AI发展到一个临界点,技术增长不可控的假设时刻,由Ray Kurzweil等学者推广。
Turing Test 图灵测试
由Alan Turing提出的测试,评估机器是否能表现出与人类无法区分的智能行为。
02.
机器学习篇
机器学习是AI的核心分支,让计算机通过数据自动学习和改善。下面这些概念是理解ML的基础。
图2:机器学习主要分类
ML(Machine Learning)机器学习
让计算机通过数据学习并改善性能的算法科学,无需明确编程即可从经验中学习。
DL(Deep Learning)深度学习
使用多层神经网络进行学习的ML方法,能自动提取数据特征,在图像、语音等领域突破性进展。
️ Neural Network 神经网络
受生物大脑启发的计算模型,由相互连接的节点(神经元)层组成,用于学习复杂模式。
️ CNN(Convolutional Neural Network)卷积神经网络
专门处理网格数据的神经网络结构,广泛应用于图像识别和计算机视觉任务。
RNN(Recurrent Neural Network)循环神经网络
适合处理序列数据的神经网络,能记忆前文信息,常用于自然语言处理和时间序列分析。
LSTM(Long Short-Term Memory)长短期记忆网络
改善的RNN架构,通过门控机制解决长期依赖问题,能有效记忆长期信息。
GAN(Generative Adversarial Network)生成对抗网络
由生成器和判别器组成的框架,两者相互对抗学习,用于生成逼真的图像、数据等。
Supervised Learning 监督学习
使用标注数据训练的机器学习范式,模型学习输入与正确输出的对应关系。
Unsupervised Learning 无监督学习
从无标注数据中发现模式的机器学习方法,如聚类、降维等,无需人工标签。
Reinforcement Learning 强化学习
通过与环境交互、获取奖励信号来学习最优策略的范式,AlphaGo就是典型应用。
Transfer Learning 迁移学习
将一个任务学到的知识应用到另一个相关任务的技术,能大幅减少训练数据需求。
03.
大模型篇
大语言模型(LLM)的崛起彻底改变了AI格局。这些概念是理解现代AI系统的关键。
️ LLM(Large Language Model)大语言模型
基于海量文本训练、参数规模庞大的语言模型,具备强劲的语言理解和生成能力。
⚙️ Transformer 变换器架构
2017年提出的革命性架构,使用自注意力机制处理序列数据,成为现代LLM的基石。
GPT(Generative Pre-trained Transformer)生成式预训练变换器
OpenAI开发的生成式语言模型系列,通过预训练和微调实现强劲的语言能力。
BERT(Bidirectional Encoder Representations from Transformers)
Google提出的双向编码器模型,擅长理解任务,在NLP多项基准测试中领先。
️ Parameters 参数量
模型中可学习的权重数量,直接影响模型能力和计算需求,GPT-4据估计有万亿级参数。
Token 词元
文本处理的基本单位,可以是单词、字符或子词,GPT使用BPE分词,约1 token≈0.75词。
Embedding 嵌入
将文字转化为密集向量表明的技术,捕捉语义类似性,使语义相近的词向量也相近。
Attention Mechanism 注意力机制
让模型关注输入中不同部分重大性的技术,是Transformer性能超越RNN的关键。
Self-Attention 自注意力
序列内部各位置相互计算关联性的注意力机制,能捕捉长距离依赖关系。
Multi-head Attention 多头注意力
并行运行多个注意力机制的技术,让模型同时关注不同方面的语义信息。
MoE(Mixture of Experts)混合专家模型
由多个专家网络组成的架构,根据输入动态选择激活的专家,兼顾性能和效率。
Context Window 上下文窗口
模型一次能处理的Token上限,决定了单次对话的最大容量,如GPT-4 Turbo达128K。
️ Temperature 温度参数
控制生成随机性的参数,高温度=创意多但可能不稳定,低温度=确定但可能机械。
Top-p / Top-k 采样参数
控制Token选择策略的参数,Top-k限制候选数,Top-p限制概率总和,平衡多样性与质量。
04.
训练技术篇
模型的强劲能力离不开精心设计的训练技术。这些方法让大模型更加高效、安全、实用。
Pre-training 预训练
在大规模通用数据上训练模型使其习得语言和世界知识的阶段,是LLM能力的基础。
Fine-tuning 微调
在预训练模型基础上,用特定数据调整模型参数,使其适应特定任务或领域。
✅ SFT(Supervised Fine-Tuning)监督微调
使用人工标注的高质量对话数据进行微调,直接教会模型”怎样回答更好”。
RLHF(Reinforcement Learning from Human Feedback)人类反馈强化学习
用人类偏好数据训练奖励模型,再用强化学习优化生成内容,是ChatGPT成功的关键。
RLAIF(RL from AI Feedback)AI反馈强化学习
使用AI(如另一个LLM)生成偏好信号的技术,降低对人类标注的依赖。
LoRA(Low-Rank Adaptation)低秩适应
通过添加低秩矩阵来微调大模型的技术,大幅降低计算和存储成本。
⚖️ Quantization 量化
将高精度权重压缩为低位数表明的技术,如FP16→INT8,大幅减少内存占用。
Distillation 蒸馏
让小模型学习大模型输出分布的技术,将大模型知识转移到小模型中。
✂️ Pruning 剪枝
移除模型中不重大权重或神经元的压缩技术,能在保持性能的同时减小模型体积。
05.
提示工程篇
提示工程是释放LLM潜力的关键技术。掌握这些技巧,让你与大模型的对话更加高效。
Prompt 提示词
输入给LLM的指令或问题,良好的Prompt设计能显著提升输出质量。
️ Prompt Engineering 提示工程
设计、优化提示词以更好利用LLM能力的学科,已成为AI时代的必备技能。
Zero-shot Learning 零样本学习
不提供任何示例,直接通过指令让模型完成新任务的能力。
Few-shot Learning 少样本学习
提供1-3个示例协助模型理解任务和格式,适合复杂或专业化任务。
Chain of Thought(CoT)思维链
让模型展示推理步骤的技术,通过”Let's think step by step”显著提升复杂问题准确率。
Tree of Thoughts 思维树
扩展CoT的方法,通过探索多条推理路径找到最优解,适合复杂决策问题。
⚡ ReAct 推理+行动
结合推理与外部工具调用的方法,让模型能主动搜索信息和执行操作。
In-context Learning 上下文学习
模型从当前对话上下文(而非参数)中学习任务要求的能力。
⚙️ System Prompt 系统提示词
定义AI角色、行为规范的顶层指令,控制模型整体输出风格和边界。
06.
应用场景篇
AI正在渗透各行各业。了解这些应用场景,协助你找到AI落地的最佳切入点。
Chatbot 聊天机器人
能与人进行对话交互的AI程序,从客服到助手,应用场景广泛。
AI Agent 智能体
能自主规划、工具调用、长期执行复杂任务的AI系统,是LLM落地的新范式。
Copilot 副驾驶
在特定工作中辅助人类的AI工具,如GitHub Copilot、Microsoft 365 Copilot等。
✨ AIGC(AI Generated Content)AI生成内容
利用AI技术自动生成文本、图像、音频、视频等内容的新兴领域。
Text-to-Image 文生图
根据文本描述生成对应图像的技术,Midjourney、Stable Diffusion是典型代表。
Text-to-Video 文生视频
根据文本生成视频内容的技术,Sora、Runway等正在引领这个领域。
TTS(Text-to-Speech)语音合成
将文字转换为自然语音的技术,让机器能”说话”,应用广泛于助手、导航等场景。
ASR(Automatic Speech Recognition)语音识别
将语音转换为文字的技术,是语音助手、电话客服自动化的基础。
RAG(Retrieval-Augmented Generation)检索增强生成
结合检索与生成的AI架构,让模型能基于外部知识库回答问题,降低幻觉。
Multimodal 多模态
能同时处理文本、图像、音频等多种数据类型的能力,GPT-4V是典型代表。
Embodied AI 具身智能
具有物理身体、能与环境交互的AI,如机器人、自动驾驶,是AI发展的新方向。
07.
效果评估篇
评估AI模型的能力和局限性是开发好AI产品的前提。这些指标协助你科学判断模型表现。

图9:RAG检索增强生成工作流程
Hallucination 幻觉
AI生成看似合理但实际错误或虚假信息的问题,是LLM面临的核心挑战之一。
Alignment 对齐
确保AI行为与人类意图和价值观一致的研究,确保AI做”对的事”。
️ Safety 安全性
确保AI不会产生有害内容、被恶意利用或做出危险行为的防护措施。
⚖️ Bias 偏见
训练数据或模型设计导致的系统性偏差,可能使AI对特定群体产生不公平对待。
FLOPS 浮点运算次数
衡量计算性能的单位,1 PetaFLOPS=每秒10¹⁵次浮点运算,常用于评估算力。
Inference 推理
使用训练好的模型进行预测或生成的过程,是AI部署的核心环节。
⏱️ Latency 延迟
模型从接收到返回结果的时间,高延迟会影响用户体验,对实时应用至关重大。
Throughput 吞吐量
单位时间内处理的请求数量,高吞吐量意味着更高的服务效率和并发能力。
08.
工具框架篇
好的工具能事半功倍。了解这些主流框架和工具,让你的AI开发更加高效。
PyTorch
Facebook开源的深度学习框架,以动态计算图著称,是学术研究首选。
TensorFlow
Google主导的深度学习框架,生态完善,适合生产环境部署。
⛓️ LangChain
开发LLM应用的框架,提供Prompt模板、Chain、Agent等组件,简化AI应用构建。
LlamaIndex
专注于数据连接和RAG的框架,协助LLM高效访问私有数据。
Hugging Face
AI模型界的GitHub,托管海量预训练模型和数据集,是开源AI的核心枢纽。
OpenAI API
访问GPT系列模型的编程接口,让开发者能轻松集成强劲语言能力。
️ Vector Database 向量数据库
专门存储和检索向量嵌入的数据库,是RAG系统的关键组件。
RAG Pipeline RAG管道
完整的检索-增强-生成流程,包括文档处理、向量化、检索和生成环节。
09.
行业热点篇
追踪行业最新动态是保持竞争力的关键。以下这些产品正在定义AI的未来。
GPT-4 / GPT-6
OpenAI的旗舰大语言模型,GPT-4支持多模态,GPT-6(传闻中)将更加强劲。
Claude
Anthropic开发的AI助手,以长上下文和安全性著称,在编程、写作领域表现出色。
Gemini
Google的原生多模态大模型,原名PaLM 2,能同时理解文本、代码、图像、音频。
DeepSeek
中国新兴AI公司,以开源大模型DeepSeek-V2等在业界获得广泛关注。
Llama
Meta开源的大语言模型系列,Llama 2/3引领开源LLM生态,影响深远。
Midjourney
领先的AI图像生成平台,以高质量艺术风格著称,在设计圈广受欢迎。
Stable Diffusion
Stability AI开源的文生图模型,开放权重让任何人可本地部署和微调。
️ DALL-E
OpenAI的AI图像生成模型,支持根据文字描述创建和编辑图像。
Sora
OpenAI发布的文生视频模型,能生成长达60秒的连贯视频,引发行业震动。
Cursor
AI代码编辑器,深度集成GPT-4,让编程更高效,被誉为”程序员的未来”。
Claude Code
Anthropic推出的命令行AI工具,让开发者能用自然语言完成复杂编程任务。
⚡ GitHub Copilot
Microsoft与OpenAI合作的AI编程助手,已为数百万开发者提升编码效率。
10.
未来趋势篇
AI的下一站是什么?关注这些前沿方向,把握AI发展的脉搏。
AGI Timeline 通用人工智能时间线
预测人类何时能实现AGI的时间表,乐观估计10-20年,保守派认为更久。
️ AI Safety AI安全
研究如何确保AI系统安全可控的领域,包括能力评估、风险分析等。
Interpretability 可解释性
理解AI决策过程和内部机制的研究,对建立信任、发现偏见至关重大。
️ AI Governance AI治理
制定AI开发与应用规则、政策法规的领域,涉及隐私、版权、责任划分等问题。
⚖️ Ethical AI 伦理AI
关注AI公平性、透明度和人类价值观的研究,确保AI技术造福全人类。
以上就是AI领域100+核心术语的完整整理!
从基础概念到大模型技术,从训练方法到应用场景,从评估指标到未来趋势——这篇速查手册涵盖了AI学习的方方面面。
提议收藏本文,工作中遇到不懂的术语随时查阅。掌握这些名词,你就已经迈出了理解AI的第一步!
学习提议
提议先通读一遍建立整体认知,再根据需要深入研究特定领域。实践是最好的学习方式,不妨试试用所学术语解释AI产品!
如果觉得有用,欢迎分享给需要的朋友!
更多AI干货,关注不迷路~





