LLM API 成本计算器
指导
LLM API 成本计算器
在部署前估算LLM API调用的实际成本。输入输入标记数、输出标记数以及每日调用量,选择一个模型,本工具将展示您在OpenAI、Anthropic、Google和Meta模型上的每次调用、每日、每月和每年的支出——使用当前公布的每100万标记价格。非常适合用于检查报价、比较提供商或规划发布预算。
如何使用
- 输入平均值 输入标记数 每次请求(您的提示加上您传递的任何上下文)。
- 输入平均值 输出标记数 您期望模型返回的内容。
- 输入数字的 请输入: 请输入: 每日调用次数 您在生产环境中期望的调用量。
- 选择一个 型号 从下拉菜单中选择(OpenAI、Anthropic、Google或Meta / Llama)。
- 在 实时定价 且 批量定价 之间切换,以查看提供商支持时的50%批量折扣。
- 阅读每次调用、每日、每月和每年的成本摘要,然后滚动到对比表格,查看相同工作负载在每个模型上的成本。
特征
- 多提供商定价 —— OpenAI、Anthropic、Google和Meta / Llama模型在一个表格中。
- 实时与批量切换 —— 查看OpenAI、Anthropic和Google的50%批量折扣,以及提供商没有批量层级时的“不适用”。
- 每次调用、每日、每月和每年的预测 —— 预测使用30.44天的月平均值,以获得更现实的运行速率。
- 并排模型对比表格 —— 查看相同工作负载在每个支持模型上的成本,您选择的模型会突出显示。
- 输入和输出定价分开 —— 因为输出标记通常比输入标记贵2到5倍。
- 零服务器,零追踪 —— 所有定价计算在客户端进行。您的标记数量和用量永远不会离开您的浏览器。
常问问题
-
什么是标记,以及为什么LLM按标记收费?
一个标记是模型读取和生成的一段文本——大致相当于一个单词、一个子词或一个标点符号。英文文本平均每标记约四个字符。LLM按标记收费,因为计算成本随处理的标记数量而增加:每个输入标记都需要被关注,每个输出标记都是逐步生成的。按标记定价提供了一个线性、可预测的成本模型,直接对应GPU实际执行的工作量。
-
为什么输出标记通常比输入标记更贵?
输入标记是通过一次并行前向传递处理的:模型一次性读取整个提示。输出标记则以自回归方式生成——每个新标记都需要对不断增长的上下文进行一次前向传递。这种逐步生成方式每标记成本更高,因此提供商通常将输出标记价格定为输入标记的2到5倍。
-
什么是批量定价,何时适用?
批量定价允许您将多个请求一起提交,并在提供商指定的时间窗口内接收结果——通常在OpenAI、Anthropic和Google为24小时内。由于这些任务可以在非高峰时段调度,提供商会对输入和输出标记提供50%折扣。批量定价适用于离线工作负载,如文档增强、评估运行、嵌入补全和每日报告。它不适用于用户等待的任务,如聊天或交互式搜索。
-
为什么相同的标记数量在更大的模型上成本更高?
大型模型拥有更多的参数,这意味着每次前向传递需要更多的计算和内存带宽。一个4050亿参数的模型每标记执行的算术运算远多于一个80亿参数的模型。提供商将这种成本转嫁给用户,表现为更高的每标记价格。这也是为什么较小、更快的模型在简单分类或提取任务中往往是正确选择的原因——您支付更少,且响应更快。
-
列表价格是否反映了我实际支付的金额?
并非总是如此。公布的列表价格是起点,但大多数提供商提供承诺使用折扣、企业合同、预付信用和用量层级,从而降低实际每标记费率。此外,缓存提示、提示压缩功能和提供商特定的上下文缓存可以显著降低重复工作负载的输入成本。将列表价格计算器视为规划的上限,然后在此基础上叠加合同折扣。
