LLM 技术体系
从LLM到Agent的完整AI技术栈解析,涵盖Token、Context、Prompt、Tools、MCP、Agent Skills等核心概念及其关系。
# 一、整体架构总览
AI 应用可以看成一套 从底层模型到上层智能体的技术栈:
Application(AI应用)
↑
Agent(智能体)
↑
Agent Skills(能力模块)
↑
Tools(工具)
↑
Prompt(提示词)
↑
Context(上下文)
↑
Token(文本单位)
↑
LLM(大语言模型)
2
3
4
5
6
7
8
9
10
11
12
13
14
15
LLM负责理解语言,Prompt负责控制行为,Tool负责扩展能力,Agent负责完成任务。
# 二、LLM(Large Language Model)
LLM 是 AI 系统的 核心计算模型,代表模型例如 OpenAI 的 GPT 系列、Anthropic 的 Claude 系列。
# 本质
LLM 的本质是:预测下一个 Token 的概率。
数学形式:
P(next_token | previous_tokens)
例如:
- 输入:
The capital of France is - 模型预测:
Paris
# 关键特点
- 无长期记忆
- 基于概率生成
- 依赖上下文输入
# 三、Token(模型处理单位)
Token 是 LLM 处理文本的 最小单位。
英文示例:
"Hello world" → ["Hello", " world"]
中文示例:
"你好世界" → ["你", "好", "世界"]
# Token 与成本
Token 直接决定:
- 推理成本 — 越多 Token 计算量越大
- 上下文容量 — Token 数限制了可输入的信息量
- API 费用 — 按 Token 计费
经验值:1 Token ≈ 3~4 个英文字符
# 四、Context(上下文)
Context 是 模型在当前推理中看到的全部信息。
例如:
User: 我叫小明
User: 我是谁?
→ 模型回答:小明(因为 Context = [我叫小明, 我是谁?])
2
3
如果删除第一句,只输入 我是谁?,模型就无法回答。
# 五、Context Window(上下文窗口)
Context Window 指 模型一次最多能处理多少 Token。
| 模型 | Context Window |
|---|---|
| GPT-3 | 4K |
| GPT-4 | 8K |
| GPT-4o | 128K |
| Claude 3 | 200K |
超过限制的旧内容会被丢弃,因此在 AI 系统中经常需要:
- RAG(检索增强生成)
- 对话裁剪
- Memory 管理
# 六、Prompt(提示词)
Prompt 是 给 LLM 的输入指令文本,本质就是输入给模型的文本。
示例:
把下面中文翻译成英文:
你好
2
Prompt 决定了 AI 的任务方向、输出风格和推理方向。
# System Prompt
System Prompt 用于定义 AI 的角色和规则,可以理解为 AI 的系统配置。
You are a professional software architect.
Always answer in Chinese.
2
作用:定义 AI 角色、规定行为、限制输出范围。
# User Prompt
User Prompt 是 用户的实际输入。
完整输入结构:
System Prompt + User Prompt + Conversation History
# 七、Tools(工具)
LLM 本身无法直接执行现实操作(查询数据库、调用 API、访问互联网、写代码执行),因此需要 Tools 扩展能力。
常见工具:
- Search Tool
- Weather API
- Database Query
- Code Interpreter
调用流程:
User → LLM → Tool → Result → LLM 总结
示例:
用户:东京天气
→ LLM:调用 Weather API
→ API 返回数据
→ LLM:生成回答
2
3
4
# 八、MCP(Model Context Protocol)
MCP 是 AI 调用工具的 标准协议,由 Anthropic 提出,作用是统一 LLM 与工具之间的通信方式。
| 技术 | 作用 |
|---|---|
| HTTP | Web 通信 |
| SQL | 数据查询 |
| MCP | AI 调用工具 |
架构:
LLM → MCP Client → MCP Server → Tools
示例:
AI → MCP → GitHub
AI → MCP → Slack
AI → MCP → Database
2
3
# 九、Agent(智能体)
Agent 是 具备任务执行能力的 AI 系统。
普通 LLM 只是 输入 → 输出,而 Agent 具备完整的任务闭环:
理解任务 → 规划步骤 → 调用工具 → 执行任务 → 总结结果
常见循环模式:
Plan → Act → Observe → Reflect
示例 — 任务:帮我分析某股票
- 查询价格
- 查询财报
- 分析趋势
- 输出报告
# 十、Agent Skill(能力模块)
Agent Skill 是 Agent 的能力插件。
Agent
├─ Search Skill
├─ Coding Skill
├─ Database Skill
└─ Browser Skill
2
3
4
5
Skill 本质:
Skill = Prompt + Tool + Workflow
# 十一、完整 AI 系统架构
AI Application
↓
Agent System
↓
Skill Layer
↓
Tool Layer
↓
MCP Protocol
↓
Prompt Layer
↓
Context Layer
↓
Token Layer
↓
LLM Model
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
# 十二、AI 系统类比(工程理解)
可以类比传统计算机架构:
| AI 概念 | 类比 | 真实案例 |
|---|---|---|
| LLM | CPU | Qwen、DeepSeek、GPT-4 |
| Token | 指令 | Tokenizer、BPE、SentencePiece |
| Context | 内存 | Chat 历史、RAG 检索内容 |
| Context Window | 内存大小 | 8K / 32K / 128K / 200K tokens |
| Prompt | 程序 | Prompt Template、Prompt Engineering |
| Tool | 外部设备 | Search API、Weather API、Database |
| MCP | 驱动 | Model Context Protocol |
| Agent | 操作系统 | LangChain、AutoGPT |
| Skill | 软件 | Code Skill、Search Skill、Data Analysis Skill |
LLM ≠ AI 应用,LLM 只是 AI 的计算核心。
# 十三、AI 系统核心公式
AI Application = LLM + Prompt + Context + Tool + Agent
# 十四、未来 AI 架构趋势
# 1. Agent 化
从单模型推理走向 Agent 系统,自主规划和执行任务。
# 2. 工具生态
Tool Ecosystem 标准化,MCP 等协议推动工具互通。
# 3. 多 Agent 协作
多个专业 Agent 组成 AI Team 协同工作:
- Research Agent — 信息收集与分析
- Coding Agent — 代码生成与调试
- Data Agent — 数据处理与分析
- Ops Agent — 运维与部署