AI 专业名词百科

可搜索 · 分类 · 创建 · 编辑 · 评论

上下文长度 / 窗口 Context Length · Context Window

模型在一次推理中能同时「看到」的 Token 数上限,直接决定可处理文档/对话的规模。

分类:inference 类型:concept 别名:上下文长度, 上下文窗口, Context Window

上下文长度(Context Length)通常以 Token 数表示,例如 4K、32K、200K 等,表示模型在一次调用中可处理的输入与输出总 Token 数上限。如果超过该上限,模型要么截断输入,要么无法继续生成,从而影响 RAG、长文档总结、代码库理解等场景的效果。

上下文长度受位置编码(如 RoPE)、模型结构与训练策略影响。近年来,LongRoPE、线性注意力、压缩记忆等技术推动了长上下文 LLM 的发展,但在实践中仍需要在「窗口长度」「延迟」「显存」之间权衡。

打开 GitHub 界面,修改后直接生成 PR

💬 用户评论与个人笔记