文本模型
Armox 的文本模型是强大的大语言模型(LLM),可以生成、分析并改写文本。许多模型也支持图像与视频等多模态输入。
概览
文本模型是智能工作流的基础。你可以用它们来:
- 生成内容 — 撰写文章、脚本、营销文案等
- 分析与推理 — 处理复杂信息并给出洞察
- 转换文本 — 改写、摘要、翻译或扩写内容
- 理解媒体 — 使用具备视觉能力的模型分析图像与视频
可用的文本模型
| 模型 | 提供商 | 成本 | 视觉 | 最适合 |
|---|---|---|---|---|
| GPT-5 | OpenAI | 20 credits | ✅ | 复杂推理、深度分析 |
| Gemini 2.5 Flash | 10 credits | ✅ Images & Video | 快速多模态任务 | |
| Claude 4.5 Sonnet | Anthropic | 30 credits | ✅ | 长文写作、细腻表达 |
| DeepSeek V3.1 | DeepSeek | 10 credits | ❌ | 高性价比推理 |
| Grok 4 | xAI | 20 credits | ❌ | 问题解决、技术任务 |
| Llama 3 70B | Meta | 14 credits | ❌ | 开源、通用 |
| Llama 3 8B | Meta | 2 credits | ❌ | 快速、低成本 |
连接颜色
在 Armox Canvas 中,文本连接使用 蓝色 的句柄与连线:
- 输入句柄:节点左侧的蓝色圆点
- 输出句柄:节点右侧的蓝色圆点
- 连接边:连接节点的蓝色连线
常见设置
大多数文本模型共享这些配置项:
System Prompt
设置模型的行为与角色。这就像在开始工作前,先给 AI 一份“岗位说明书”。
Max Tokens
控制响应的最大长度。数值越大输出越长,但成本也更高。
Temperature
调节创造性与一致性:
- 低(0.0-0.3):更一致、更聚焦
- 中(0.4-0.7):创造性与稳定性平衡
- 高(0.8-2.0):更有创意、输出更多样
Top P(Nucleus Sampling)
微调响应多样性。更低的值会让输出更确定、更“可预测”。
如何选择合适的模型
速度与成本优先
- Llama 3 8B(2 credits)— 最快、最便宜
- DeepSeek V3.1(10 credits)— 速度与能力的良好平衡
- Gemini 2.5 Flash(10 credits)— 速度快且支持视觉
质量优先
- GPT-5(20 credits)— 适合复杂推理
- Claude 4.5 Sonnet(30 credits)— 擅长写作与细腻表达
- Grok 4(20 credits)— 强大的问题解决能力
视觉任务
- Gemini 2.5 Flash — 图像与视频,处理速度快
- GPT-5 — 多张图片,分析细致
- Claude 4.5 Sonnet — 单张图片也能深度理解
最佳实践
- 尽量具体 — 清晰的提示词会带来更好的结果
- 使用系统提示 — 设定上下文与期望
- 迭代优化 — 根据输出不断改进提示词
- 让模型匹配任务 — 简单任务别“过度付费”
下一步
查看各个模型的单独文档,了解详细设置与用例: