已收录 AI 名词 当前显示:0 / 86
点击卡片进入详情页(含 giscus 评论)。
让机器具备“感知、理解、推理、决策”的一整套技术集合。
用数据与算法让模型自己“归纳经验”,而不是人工枚举规则。
在海量文本上预训练的超大模型,是现代生成式 AI 的核心基础。
现代 NLP/LLM 的基础架构,核心是自注意力机制(Self-Attention)。
将文本/图像/音频等对象映射到连续向量空间,以便计算相似度与检索。
结合“搜索 + 大模型”,让回答基于真实文档而非仅靠模型记忆,降低幻觉。
以 LLM 为大脑,具备目标分解、工具调用与状态记忆的自治式系统形态。
通过合适的指令/示例构造,提升模型在目标任务上的表现与稳定性。
通过显式中间推理步骤让模型“边想边答”,提升复杂推理任务表现。
通过在特定层注入低秩矩阵完成参数高效微调,显著降低训练与部署成本。
一种让序列中每个位置“关注”其他位置表示的机制,是 Transformer 与现代大模型的核心组件。
一种通过在隐空间中施加旋转变换来编码相对位置信息的位置编码方式,广泛用于现代 LLM。
一种重排注意力计算顺序、减少显存读写的实现方式,在不改变结果的前提下降低显存占用并加速训练/推理。
通过将参数拆分为多个“专家”,并在每个样本上只激活其中一小部分,实现参数规模巨大但计算量相对可控的模型结构。
一类基于状态空间方程、强调线性时间复杂度的序列模型,代表工作 Mamba 被视作 Transformer 的潜在替代或补充。
一种基于统计合并频繁符号对的子词分词方法,广泛用于 GPT 等大语言模型的 Token 化。
将原始文本切分为模型可处理的离散 Token 序列的过程,是大语言模型输入输出的基础步骤。
模型在一次推理中能同时「看到」的 Token 数上限,直接决定可处理文档/对话的规模。
利用快而小的草稿模型批量生成候选 Token,再由大模型并行验证,以在不明显牺牲质量的前提下加速推理。
一种将「读入输入」和「逐步生成输出」拆分为编码器与解码器两部分的序列到序列架构,广泛用于翻译和多模态建模。
在自回归推理中缓存历史 Token 的键值向量,避免重复计算,从而显著降低长序列生成的延迟与算力消耗。
将已经训练好的大语言模型在生产环境中提供生成服务的全过程,涵盖部署、加速与成本优化等工程实践。
OpenAI 推出的 GPT-4 及其家族模型,是对话、代码、工具调用与多模态理解的代表性闭源大模型系列。
Meta 发布的 LLaMA 系列开源大语言模型家族,是当前企业与个人自建 LLM 的重要基础。
阿里云开源的通义千问(Qwen)系列大模型,在中文、多语言与工具调用能力上表现突出,并提供丰富的规模与多模态分支。
欧洲公司 Mistral AI 推出的高性能开源大模型家族,以紧凑结构和 Mixtral 等 MoE 变体著称。
Google 发布的 Gemma 开源模型家族,主打轻量级、可商用和良好的多语言表现。
微软推出的 Phi-3 系列小型语言模型,强调通过精心构造和过滤训练数据,在较小规模下取得优异性能。
智谱 AI 发布的 ChatGLM 系列对话大模型,在中文问答、工具调用和企业场景中被广泛使用。
面向大语言模型的高吞吐推理引擎,以连续批处理与 PagedAttention 技术显著提升 GPU 利用率。
通过人类偏好数据训练奖励模型,再结合强化学习让大模型输出更符合人类期望。
在大模型预训练基础上,以标注示例的监督学习方式对齐模型行为的常见手段。
开源的 LLM 应用开发框架,提供提示、工具调用、记忆与工作流组合的抽象层。
面向海量向量检索场景的开源数据库,提供高性能 ANN 查询与混合搜索能力。
通过模拟恶意行为与极端场景,系统评估大模型的安全风险与防护效果。
NVIDIA 推出的高性能大模型推理框架,基于 TensorRT 提供量化、图优化和多 GPU 并行等能力。
一个用 C/C++ 实现的轻量级 LLM 推理引擎,支持在 CPU、消费级 GPU 和移动设备上运行量化模型。
一种为本地推理场景设计的二进制模型格式,常与 llama.cpp 等推理引擎配合,支持多种量化精度。
一个面向本地推理与嵌入式场景的 C 库,提供量化算子和跨平台后端,是许多轻量级 LLM 推理项目的基础。
Hugging Face 提供的主流模型库与训练/推理框架,支持数千种预训练模型与多种任务。
在 LangChain 之上构建的有状态 Agent 图框架,用图结构描述多步对话与工具调用流程。
微软开源的多 Agent 协作框架,用于编排多个大模型代理协同完成任务。
一个聚焦「一组 Agent 协同工作」的 Python 框架,用于编排具备不同角色与技能的智能体完成复杂项目。
Meta 开源的高性能向量相似度搜索库,是构建向量数据库与 RAG 系统的基础组件之一。
一款托管向量数据库服务,提供高可用、高扩展性的相似度搜索能力,常用于生产级 RAG 系统。
一个支持向量、关键词与图结构混合搜索的开源向量数据库,适合构建复杂知识图谱与 RAG 系统。
一个主打开发者体验和本地部署的向量数据库,常用于原型验证与中小规模 RAG 应用。
先让大模型生成假想答案或文档,再对其进行向量化并用于检索,从而提升 RAG 场景下的召回质量。
在传统向量检索基础上引入图结构或知识图谱,用节点和边显式建模实体关系的 RAG 变体。
在初步检索结果上进一步精排相关性的模型,常基于 Cross-Encoder 结构,用于提升 RAG 检索质量。
构建在图结构或倒排列表上的近似最近邻(ANN)索引结构,是向量数据库与检索库的核心组件。
一种直接在「好/坏」回答对上优化策略模型的对齐方法,相比 RLHF 不需要单独训练奖励模型。
一种稳定的策略梯度强化学习算法,常用于 RLHF 中在奖励信号指导下优化语言模型策略。
使用「模型生成反馈」替代或补充人类标注,训练奖励模型并进行对齐的强化学习方法。
将人类或 AI 对回答好坏的偏好映射为标量评分的模型,是 RLHF/DPO 等对齐方法的核心组件。
通过让小模型模仿大模型输出来提升性能的模型压缩与迁移方法。
通过拉近「正样本」距离、推远「负样本」距离来学习表示的训练范式,是多模态与向量检索模型的核心技术之一。
一系列基于扩散模型的开源文生图模型,支持高质量图像生成和本地部署。
OpenAI 提出的通过对比学习对齐文本与图像表示的多模态模型,是许多文生图与检索系统的基础。
将 Transformer 架构直接用于图像扩散过程的一类模型,被视作 Stable Diffusion 等 CNN 结构的替代方案。
OpenAI 开源的多语言语音识别与翻译模型,在噪声鲁棒性和跨语言表现上表现优异。
将图像编码器与 LLaMA 类语言模型结合的开源多模态对话模型,支持看图问答和视觉推理。
通义千问家族中的多模态模型,支持图像理解、图文问答和部分视觉推理任务。
研究和实践如何让 AI 系统在行为、影响和长期演化上保持对人类有益且可控的跨学科领域。
让模型的行为、价值观和偏好尽可能与人类目标和社会规范保持一致的技术与方法集合。
指由于数据、模型或系统设计导致的系统性不公平或失真现象,在 AI 应用中是重要的风险来源。
指模型生成看似合理但事实错误或无依据内容的现象,是大模型应用中的核心风险之一。
一个覆盖多学科、多难度层级的多项选择题评测集,用于衡量大模型的通识与专业知识掌握程度。
由 LMSYS 提出的多轮对话评测基准,关注模型在开放式问答和对话任务中的综合表现。
一种面向 LLM/Agent 的“工具与上下文接入协议”,用统一方式把本地/远程资源与工具能力暴露给模型调用。
让模型以“结构化参数”触发外部工具/函数的能力,用来把 LLM 从纯文本生成扩展为可执行的动作与工作流。
通过 schema/约束解码等方式,让模型稳定地产出可解析的结构(如 JSON),从而提升工具调用、抽取与流水线处理的可靠性。
把检索与生成结合的搜索产品形态:先找“证据”,再生成“答案”,通常附带引用与可追溯来源。
嵌入到具体软件/场景中的 AI 助手形态:以“协助完成任务”为目标,强调上下文接入、交互闭环与可控执行。
评估大语言模型在能力、可靠性与安全性上的表现的方法体系,涵盖基准测试、人工评审、在线指标与红队测试等。
一类针对 LLM/Agent 的攻击方式:通过在输入或外部内容中夹带指令,诱导模型偏离原本目标、泄露信息或越权调用工具。
通过特定提示或对话策略绕过模型安全规则/拒答策略,让模型输出原本应被禁止的内容或行为的攻击/对抗方式。
面向 LLM 应用的“分层防护体系”:用策略、校验、权限、监控与人工流程把模型能力限制在可控范围内。
在推理阶段根据任务类型/难度/成本等信号,将请求分配给不同模型或不同配置(上下文、工具、温度等)的工程策略。
在推理阶段投入额外计算(多采样、多候选、搜索/验证)来换取更高质量或更可靠结果的策略。
专门评估 RAG 系统“检索是否找对、生成是否忠于证据、端到端是否解决任务”的方法与指标集合。
让模型的回答“有证据可追溯”:结论应来自给定上下文/检索材料/工具结果,而不是凭空编造。
把长文档切成可检索的“chunk”,并设计合适的粒度与重叠,以提升召回质量与引用可核验性。
经典的稀疏检索排序函数,基于词项匹配与词频/逆文档频率,在很多 RAG 系统中作为“强基线”或混合检索组件。
将稀疏检索(如 BM25)与向量检索(dense retrieval)组合,提升召回覆盖与鲁棒性,是很多 RAG/AI 搜索系统的常用默认配置。
RAG 系统中负责“把问题变成检索请求并召回候选证据”的模块,可基于 BM25、向量检索或混合检索实现。