AI 专业名词百科

可搜索 · 分类 · 创建 · 编辑 · 评论

已收录 AI 名词 当前显示:0 / 86

点击卡片进入详情页(含 giscus 评论)。

人工智能 Artificial Intelligence · AI
core
大概念包含 ML / DL / LLM 等

让机器具备“感知、理解、推理、决策”的一整套技术集合。

分类:foundation 别名:AI
机器学习 Machine Learning · ML
core
从数据中学习规律不再写死规则

用数据与算法让模型自己“归纳经验”,而不是人工枚举规则。

分类:foundation 别名:ML
大语言模型 Large Language Model · LLM
model
理解与生成自然语言GPT / Qwen / Yi 等

在海量文本上预训练的超大模型,是现代生成式 AI 的核心基础。

分类:foundation 别名:大模型 / LLM
Transformer 架构 Transformer
model
自注意力机制LLM 基础架构

现代 NLP/LLM 的基础架构,核心是自注意力机制(Self-Attention)。

分类:foundation 别名:自注意力
向量表示 / 嵌入 Embedding
core
语义表示相似度检索

将文本/图像/音频等对象映射到连续向量空间,以便计算相似度与检索。

分类:foundation 别名:表征 / 向量化
检索增强生成(RAG) Retrieval-Augmented Generation · RAG
concept
知识库问答语义检索降低幻觉

结合“搜索 + 大模型”,让回答基于真实文档而非仅靠模型记忆,降低幻觉。

分类:rag 别名:检索增强
智能体 / 代理(Agent) Agent
concept
任务分解工具调用记忆

以 LLM 为大脑,具备目标分解、工具调用与状态记忆的自治式系统形态。

分类:model 别名:智能体
提示词工程 Prompt Engineering
concept
指令设计Few-shot模板化

通过合适的指令/示例构造,提升模型在目标任务上的表现与稳定性。

分类:model 别名:提示词
思维链(CoT) Chain-of-Thought
concept
逐步推理提示模式

通过显式中间推理步骤让模型“边想边答”,提升复杂推理任务表现。

分类:model 别名:思维链
LoRA 低秩适配 Low-Rank Adaptation · LoRA
concept
参数高效微调低资源

通过在特定层注入低秩矩阵完成参数高效微调,显著降低训练与部署成本。

分类:training 别名:低秩适配
自注意力机制 Self-Attention
concept
注意力机制序列建模

一种让序列中每个位置“关注”其他位置表示的机制,是 Transformer 与现代大模型的核心组件。

分类:foundation 别名:自注意力 / 点积注意力
RoPE 旋转位置编码 Rotary Position Embedding · RoPE
concept
位置编码相对位置长上下文

一种通过在隐空间中施加旋转变换来编码相对位置信息的位置编码方式,广泛用于现代 LLM。

分类:foundation 别名:RoPE / 旋转位置编码
FlashAttention FlashAttention
method
注意力优化长序列GPU 利用率

一种重排注意力计算顺序、减少显存读写的实现方式,在不改变结果的前提下降低显存占用并加速训练/推理。

分类:inference 别名:Flash Attention
专家混合模型(MoE) Mixture of Experts · MoE
model
稀疏激活规模扩展

通过将参数拆分为多个“专家”,并在每个样本上只激活其中一小部分,实现参数规模巨大但计算量相对可控的模型结构。

分类:model 别名:MoE / 专家混合 / 稀疏专家
Mamba 状态空间模型 Mamba · State Space Model
model
长序列建模线性复杂度

一类基于状态空间方程、强调线性时间复杂度的序列模型,代表工作 Mamba 被视作 Transformer 的潜在替代或补充。

分类:model 别名:Mamba / 状态空间模型 / SSM
字节对编码(BPE) Byte Pair Encoding · BPE
concept
子词分词Tokenization

一种基于统计合并频繁符号对的子词分词方法,广泛用于 GPT 等大语言模型的 Token 化。

分类:foundation 别名:BPE / 字节对编码
分词与 Token 化 Tokenization
concept
子词词表上下文长度

将原始文本切分为模型可处理的离散 Token 序列的过程,是大语言模型输入输出的基础步骤。

分类:foundation 别名:分词 / Token 化 / 切词
上下文长度 / 窗口 Context Length · Context Window
concept
长上下文序列长度推理限制

模型在一次推理中能同时「看到」的 Token 数上限,直接决定可处理文档/对话的规模。

分类:inference 别名:上下文长度 / 上下文窗口 / Context Window
推测解码 Speculative Decoding
method
推理优化采样加速

利用快而小的草稿模型批量生成候选 Token,再由大模型并行验证,以在不明显牺牲质量的前提下加速推理。

分类:inference 别名:Speculative Decoding / 推测采样
Encoder / Decoder 架构 Encoder-Decoder Architecture
concept
Seq2SeqTransformer 架构

一种将「读入输入」和「逐步生成输出」拆分为编码器与解码器两部分的序列到序列架构,广泛用于翻译和多模态建模。

分类:model 别名:Encoder-Decoder / 编码器-解码器 / Encoder / Decoder
KV Cache 键值缓存 KV Cache
concept
推理优化长上下文

在自回归推理中缓存历史 Token 的键值向量,避免重复计算,从而显著降低长序列生成的延迟与算力消耗。

分类:inference 别名:KV Cache / 注意力缓存 / 键值缓存
大模型推理(LLM Inference) LLM Inference
concept
服务部署性能优化成本控制

将已经训练好的大语言模型在生产环境中提供生成服务的全过程,涵盖部署、加速与成本优化等工程实践。

分类:inference 别名:LLM 推理 / 模型推理 / 在线推理
GPT-4o / GPT-4 系列 GPT-4o · GPT-4 Series
model
代表性闭源 LLM多模态

OpenAI 推出的 GPT-4 及其家族模型,是对话、代码、工具调用与多模态理解的代表性闭源大模型系列。

分类:modelsuite 别名:GPT-4o / GPT-4 / GPT-4 Turbo / GPT-3.5
LLaMA 3 / Llama 2 LLaMA 3 · Llama 2
model
开源 LLM企业自建

Meta 发布的 LLaMA 系列开源大语言模型家族,是当前企业与个人自建 LLM 的重要基础。

分类:modelsuite 别名:LLaMA / LLaMA 3 / Llama 2
通义千问(Qwen) Qwen · Qwen2
model
中文生态开源家族

阿里云开源的通义千问(Qwen)系列大模型,在中文、多语言与工具调用能力上表现突出,并提供丰富的规模与多模态分支。

分类:modelsuite 别名:Qwen / 通义千问 / Qwen2
Mistral / Mixtral Mistral · Mixtral
model
开源 LLMMoE 架构

欧洲公司 Mistral AI 推出的高性能开源大模型家族,以紧凑结构和 Mixtral 等 MoE 变体著称。

分类:modelsuite 别名:Mistral / Mixtral / Mixtral 8x7B
Gemma 系列 Gemma
model
开源 LLM轻量模型

Google 发布的 Gemma 开源模型家族,主打轻量级、可商用和良好的多语言表现。

分类:modelsuite 别名:Gemma / Gemma 2
Phi-3 系列 Phi-3
model
小模型训练数据质量

微软推出的 Phi-3 系列小型语言模型,强调通过精心构造和过滤训练数据,在较小规模下取得优异性能。

分类:modelsuite 别名:Phi / Phi-3
ChatGLM 系列 ChatGLM
model
中文对话企业应用

智谱 AI 发布的 ChatGLM 系列对话大模型,在中文问答、工具调用和企业场景中被广泛使用。

分类:modelsuite 别名:ChatGLM / 智谱 ChatGLM
vLLM 推理引擎 vLLM
tool
推理优化GPU连续批处理

面向大语言模型的高吞吐推理引擎,以连续批处理与 PagedAttention 技术显著提升 GPU 利用率。

分类:inference 别名:vLLM / Continuous Batching
人类反馈强化学习(RLHF) Reinforcement Learning from Human Feedback
method
奖励模型PPO偏好数据

通过人类偏好数据训练奖励模型,再结合强化学习让大模型输出更符合人类期望。

分类:training 别名:RLHF / 人类反馈强化学习
监督式微调(SFT) Supervised Fine-tuning
method
指令数据集监督学习对齐

在大模型预训练基础上,以标注示例的监督学习方式对齐模型行为的常见手段。

分类:training 别名:SFT / 指令微调
LangChain 编排框架 LangChain
tool
链式调用Agent工具集成

开源的 LLM 应用开发框架,提供提示、工具调用、记忆与工作流组合的抽象层。

分类:framework 别名:LangChain
Milvus 向量数据库 Milvus
tool
ANNRAG混合检索

面向海量向量检索场景的开源数据库,提供高性能 ANN 查询与混合搜索能力。

分类:rag 别名:Milvus
大模型红队测试 LLM Red Teaming
practice
安全评估对抗样本内容过滤

通过模拟恶意行为与极端场景,系统评估大模型的安全风险与防护效果。

分类:safety 别名:红队测试 / Red Teaming
TensorRT-LLM TensorRT-LLM
tool
NVIDIA推理优化GPU

NVIDIA 推出的高性能大模型推理框架,基于 TensorRT 提供量化、图优化和多 GPU 并行等能力。

分类:inference 别名:TensorRT LLM / TRT-LLM
llama.cpp llama.cpp
tool
本地部署轻量推理

一个用 C/C++ 实现的轻量级 LLM 推理引擎,支持在 CPU、消费级 GPU 和移动设备上运行量化模型。

分类:inference 别名:llama.cpp / 本地 LLM
GGUF 模型格式 GGUF
concept
模型格式本地推理

一种为本地推理场景设计的二进制模型格式,常与 llama.cpp 等推理引擎配合,支持多种量化精度。

分类:inference 别名:GGUF
GGML 张量库 GGML
tool
量化算子本地部署

一个面向本地推理与嵌入式场景的 C 库,提供量化算子和跨平台后端,是许多轻量级 LLM 推理项目的基础。

分类:inference 别名:GGML
Hugging Face Transformers Transformers
tool
模型库生态枢纽

Hugging Face 提供的主流模型库与训练/推理框架,支持数千种预训练模型与多种任务。

分类:framework 别名:Transformers / HF Transformers
LangGraph LangGraph
tool
Agent 编排状态管理

在 LangChain 之上构建的有状态 Agent 图框架,用图结构描述多步对话与工具调用流程。

分类:framework 别名:LangGraph
AutoGen AutoGen
tool
多 Agent 协作应用框架

微软开源的多 Agent 协作框架,用于编排多个大模型代理协同完成任务。

分类:framework 别名:AutoGen / 多 Agent
CrewAI CrewAI
tool
多 AgentWorkflow

一个聚焦「一组 Agent 协同工作」的 Python 框架,用于编排具备不同角色与技能的智能体完成复杂项目。

分类:framework 别名:CrewAI
FAISS 向量检索库 FAISS
tool
ANN 索引向量搜索

Meta 开源的高性能向量相似度搜索库,是构建向量数据库与 RAG 系统的基础组件之一。

分类:rag 别名:FAISS
Pinecone 向量数据库 Pinecone
tool
托管服务向量检索

一款托管向量数据库服务,提供高可用、高扩展性的相似度搜索能力,常用于生产级 RAG 系统。

分类:rag 别名:Pinecone
Weaviate 向量数据库 Weaviate
tool
混合检索知识图谱

一个支持向量、关键词与图结构混合搜索的开源向量数据库,适合构建复杂知识图谱与 RAG 系统。

分类:rag 别名:Weaviate
Chroma 向量数据库 Chroma DB
tool
轻量数据库本地知识库

一个主打开发者体验和本地部署的向量数据库,常用于原型验证与中小规模 RAG 应用。

分类:rag 别名:Chroma / Chroma DB
HyDE 假想文档检索 HyDE
method
检索增强查询改写

先让大模型生成假想答案或文档,再对其进行向量化并用于检索,从而提升 RAG 场景下的召回质量。

分类:rag 别名:HyDE / Hypothetical Document Embeddings
Graph RAG Graph RAG
concept
知识图谱图检索

在传统向量检索基础上引入图结构或知识图谱,用节点和边显式建模实体关系的 RAG 变体。

分类:rag 别名:Graph RAG / 图增强检索
重排模型 / Reranker Reranker · Cross-Encoder
method
精排相关性建模

在初步检索结果上进一步精排相关性的模型,常基于 Cross-Encoder 结构,用于提升 RAG 检索质量。

分类:rag 别名:Reranker / 重排模型 / Cross-Encoder / bge-reranker
HNSW / IVF 索引 HNSW · IVF Index
concept
ANN向量搜索索引结构

构建在图结构或倒排列表上的近似最近邻(ANN)索引结构,是向量数据库与检索库的核心组件。

分类:rag 别名:HNSW / IVF / ANN 索引
DPO 直接偏好优化 Direct Preference Optimization · DPO
method
对齐方法偏好学习

一种直接在「好/坏」回答对上优化策略模型的对齐方法,相比 RLHF 不需要单独训练奖励模型。

分类:training 别名:DPO / 直接偏好优化
PPO 强化学习算法 Proximal Policy Optimization · PPO
method
强化学习策略优化

一种稳定的策略梯度强化学习算法,常用于 RLHF 中在奖励信号指导下优化语言模型策略。

分类:training 别名:PPO
RLAIF 模型反馈强化学习 Reinforcement Learning from AI Feedback · RLAIF
method
对齐成本优化

使用「模型生成反馈」替代或补充人类标注,训练奖励模型并进行对齐的强化学习方法。

分类:training 别名:RLAIF / AI Feedback
奖励模型(Reward Model) Reward Model
concept
偏好建模对齐

将人类或 AI 对回答好坏的偏好映射为标量评分的模型,是 RLHF/DPO 等对齐方法的核心组件。

分类:training 别名:奖励模型 / RM
知识蒸馏 Knowledge Distillation
method
模型压缩Teacher-Student

通过让小模型模仿大模型输出来提升性能的模型压缩与迁移方法。

分类:training 别名:知识蒸馏 / Distillation
对比学习 Contrastive Learning
method
表示学习多模态检索

通过拉近「正样本」距离、推远「负样本」距离来学习表示的训练范式,是多模态与向量检索模型的核心技术之一。

分类:training 别名:对比学习 / Contrastive Learning
Stable Diffusion / SDXL Stable Diffusion · SDXL
model
扩散模型文生图开源

一系列基于扩散模型的开源文生图模型,支持高质量图像生成和本地部署。

分类:multimodal 别名:Stable Diffusion / SD / SDXL
CLIP 文本-图像对比学习模型 CLIP
model
多模态文本图像检索

OpenAI 提出的通过对比学习对齐文本与图像表示的多模态模型,是许多文生图与检索系统的基础。

分类:multimodal 别名:CLIP
DiT 视觉 Transformer 扩散模型 DiT · Diffusion Transformer
model
扩散模型Transformer文生图

将 Transformer 架构直接用于图像扩散过程的一类模型,被视作 Stable Diffusion 等 CNN 结构的替代方案。

分类:multimodal 别名:DiT / Diffusion Transformer
Whisper 语音识别模型 Whisper
model
ASR语音转文本多语言

OpenAI 开源的多语言语音识别与翻译模型,在噪声鲁棒性和跨语言表现上表现优异。

分类:multimodal 别名:Whisper
LLaVA 多模态大模型 LLaVA
model
图文对话开源多模态

将图像编码器与 LLaMA 类语言模型结合的开源多模态对话模型,支持看图问答和视觉推理。

分类:multimodal 别名:LLaVA
Qwen-VL 多模态模型 Qwen-VL
model
多模态中文场景

通义千问家族中的多模态模型,支持图像理解、图文问答和部分视觉推理任务。

分类:multimodal 别名:Qwen-VL
AI Safety(人工智能安全) AI Safety
concept
风险治理责任 AI

研究和实践如何让 AI 系统在行为、影响和长期演化上保持对人类有益且可控的跨学科领域。

分类:safety 别名:AI Safety / 人工智能安全
对齐(Alignment) Alignment
concept
人类偏好价值对齐

让模型的行为、价值观和偏好尽可能与人类目标和社会规范保持一致的技术与方法集合。

分类:safety 别名:对齐 / Alignment
偏见(Bias) Bias
concept
公平性数据治理

指由于数据、模型或系统设计导致的系统性不公平或失真现象,在 AI 应用中是重要的风险来源。

分类:safety 别名:偏见 / Algorithmic Bias
幻觉(Hallucination) Hallucination
concept
错误信息事实性

指模型生成看似合理但事实错误或无依据内容的现象,是大模型应用中的核心风险之一。

分类:safety 别名:幻觉 / 编造内容
MMLU 评测基准 MMLU
concept
基准测试能力评估

一个覆盖多学科、多难度层级的多项选择题评测集,用于衡量大模型的通识与专业知识掌握程度。

分类:safety 别名:MMLU
MT-Bench 对话评测 MT-Bench
concept
对话评估多轮问答

由 LMSYS 提出的多轮对话评测基准,关注模型在开放式问答和对话任务中的综合表现。

分类:safety 别名:MT-Bench
模型上下文协议 Model Context Protocol · MCP
tool
工具生态标准化接口Agent

一种面向 LLM/Agent 的“工具与上下文接入协议”,用统一方式把本地/远程资源与工具能力暴露给模型调用。

分类:framework 别名:MCP / Model Context Protocol
工具调用 Tool Calling · Function Calling
concept
Agent 基础结构化交互

让模型以“结构化参数”触发外部工具/函数的能力,用来把 LLM 从纯文本生成扩展为可执行的动作与工作流。

分类:model 别名:Function Calling / Tool Calling / 函数调用
结构化输出 Structured Output
method
可靠解析工具调用

通过 schema/约束解码等方式,让模型稳定地产出可解析的结构(如 JSON),从而提升工具调用、抽取与流水线处理的可靠性。

分类:model 别名:JSON Mode / Schema-constrained Output / 约束输出
AI 搜索 AI Search
practice
产品形态RAG 落地

把检索与生成结合的搜索产品形态:先找“证据”,再生成“答案”,通常附带引用与可追溯来源。

分类:product 别名:Answer Engine / 生成式搜索
Copilot(副驾驶) Copilot
practice
产品形态人机协作

嵌入到具体软件/场景中的 AI 助手形态:以“协助完成任务”为目标,强调上下文接入、交互闭环与可控执行。

分类:product 别名:AI Copilot / 副驾驶
大模型评测 LLM Evaluation
concept
基准测试安全评估线上监控

评估大语言模型在能力、可靠性与安全性上的表现的方法体系,涵盖基准测试、人工评审、在线指标与红队测试等。

分类:safety 别名:LLM Evaluation / 评测 / llm-evaluation-placeholder
提示注入 Prompt Injection
concept
安全攻击注入

一类针对 LLM/Agent 的攻击方式:通过在输入或外部内容中夹带指令,诱导模型偏离原本目标、泄露信息或越权调用工具。

分类:safety 别名:Prompt Injection / 提示词注入
越狱(Jailbreak) Jailbreak
concept
对抗提示安全风险

通过特定提示或对话策略绕过模型安全规则/拒答策略,让模型输出原本应被禁止的内容或行为的攻击/对抗方式。

分类:safety 别名:Jailbreak / 越狱提示 / 破防
Guardrails(防护栏) Guardrails
practice
工程实践分层防护

面向 LLM 应用的“分层防护体系”:用策略、校验、权限、监控与人工流程把模型能力限制在可控范围内。

分类:safety 别名:Guardrails / 安全护栏 / 安全防护
模型路由 Model Routing
practice
成本控制质量分层多模型

在推理阶段根据任务类型/难度/成本等信号,将请求分配给不同模型或不同配置(上下文、工具、温度等)的工程策略。

分类:inference 别名:Model Router / 路由 / 多模型编排
测试时计算 Test-Time Compute · TTC
concept
推理权衡质量提升

在推理阶段投入额外计算(多采样、多候选、搜索/验证)来换取更高质量或更可靠结果的策略。

分类:inference 别名:TTC / Test-Time Compute / 推理时计算
RAG 评测 RAG Evaluation
practice
检索质量证据对齐端到端

专门评估 RAG 系统“检索是否找对、生成是否忠于证据、端到端是否解决任务”的方法与指标集合。

分类:rag 别名:RAG Evaluation / 检索增强评测
Grounding(基于证据的生成) Grounding
concept
降低幻觉证据对齐

让模型的回答“有证据可追溯”:结论应来自给定上下文/检索材料/工具结果,而不是凭空编造。

分类:model 别名:Grounded Generation / Groundedness / 基于证据 / 证据对齐
文档分块 Chunking
method
索引构建检索质量

把长文档切成可检索的“chunk”,并设计合适的粒度与重叠,以提升召回质量与引用可核验性。

分类:rag 别名:Chunking / 切分 / 分块
BM25 BM25
method
稀疏检索强基线

经典的稀疏检索排序函数,基于词项匹配与词频/逆文档频率,在很多 RAG 系统中作为“强基线”或混合检索组件。

分类:rag 别名:BM25 / Okapi BM25 / 稀疏检索
混合检索 Hybrid Search
method
召回覆盖鲁棒性

将稀疏检索(如 BM25)与向量检索(dense retrieval)组合,提升召回覆盖与鲁棒性,是很多 RAG/AI 搜索系统的常用默认配置。

分类:rag 别名:Hybrid Search / 混合搜索
检索器 Retriever
concept
召回模块化

RAG 系统中负责“把问题变成检索请求并召回候选证据”的模块,可基于 BM25、向量检索或混合检索实现。

分类:rag 别名:Retriever / 检索模块
没有找到符合条件的结果