[
{"role": "system", "content": "你是一位友善的家庭顾问。"},
{"role": "user", "content": "谁该洗碗?"}
]| 模型/API | System字段位置 | 消息结构 | 历史记录处理方式 | 工具调用支持 | 特殊点 | 最大上下文长度 | 是否多模态 | 是否支持JSON模式 |
|---|---|---|---|---|---|---|---|---|
| OpenAI | messages数组中 | system/user/assistant | 支持,由开发者拼接完整对话 | 支持(functions/tools) | 最通用的接口格式,兼容性强 | GPT-4-turbo:128k | 是 | 支持(response_format: json) |
| Claude | 单独的system字段 | messages中仅user/assistant | 支持,由开发者提供完整对话 | 不支持 | system单独传 | Claude Sonnet 4:200k | 是 | 支持 |
| Gemini | prompt中或系统设置 | contents/queries数组 | 不自动保存,需开发者重构对话 | 部分支持(如function calling) | Google 风格API,结构差异大 | Gemini 2.5 Pro:1M+ | 是 | 部分支持 |
| DeepSeek | 兼容OpenAI格式 | messages数组,含system等角色 | 支持 | 不支持 | 支持JSON模式输出优化 | DeepSeek-V3:66k | 是 | 支持 |
| Grok 4 | 兼容OpenAI格式 | system /user/assistant | 支持 | 支持(如网页搜索等功能) | 输出更简洁偏实用风格 | 256K | 是 | 部分支持 |
- vLLM:可部署LLaMA等模型,支持OpenAI风格调用
- LM Studio:本地运行模型,兼容OpenAI格式
- llama.cpp + openai server:轻量本地方案{
"model": "grok-4",
"messages": [
{"role": "system", "content": "你是一位家庭顾问,请用JSON返回。"},
{"role": "user", "content": "分析家庭的洗碗安排(时间表、喜好)。"}
]
}{
"分析": {
"时间表": "A晚归,B早回家",
"喜好": "A不喜欢洗碗,B无所谓"
}
}{
"model": "grok-4",
"messages": [
{"role": "system", "content": "你是一位家庭顾问,请用JSON返回。"},
{"role": "assistant", "content": "{\"分析\": {\"时间表\": \"A晚归,B早回家\", \"喜好\": \"A不喜欢洗碗,B无所谓\"}}"},
{"role": "user", "content": "基于分析提出公平的洗碗方案"}
]
}{
"方案": "工作日B洗碗,周末轮流"
}