Calculator
Calculator chi phí Fine-tuning LLM
Tính chi phí fine-tuning — token training × giá/triệu, cộng uplift mỗi token cho inference trên model custom.
Pricing refreshed: 2026-05-01
Tổng năm 1 · cheapest
Fireworks · Llama 4 8B
$248
| Provider | Base model | Chi phí training | Inference/tháng | Tổng năm 1 |
|---|---|---|---|---|
| Fireworks | Llama 4 8B | $8 | $20 | $248 |
| Together | Llama 4 8B LoRA adapter; full fine-tune more | $15 | $22 | $279 |
| Cohere | Command R | $30 | $48 | $606 |
| OpenAI | GPT-4o mini Inference is 2× base mini rate | $45 | $48 | $621 |
| Mistral | Mistral Small 3 $2/mo hosting per deployed adapter | $45 | $58 | $741 |
| Fireworks | Llama 4 70B | $45 | $90 | $1,125 |
| Together | Llama 3.3 70B | $75 | $88 | $1,131 |
| OpenAI | GPT-5 mini | $60 | $96 | $1,212 |
| Together | Llama 4 70B | $90 | $120 | $1,530 |
| OpenAI | o3-mini | $75 | $136 | $1,707 |
| AWS Bedrock | Claude Haiku 4.5 (custom) Provisioned throughput required | $120 | $303 | $3,756 |
| Mistral | Mistral Large 2 | $135 | $564 | $6,903 |
| OpenAI | GPT-4o Inference is 1.5× base GPT-4o rate | $375 | $600 | $7,575 |
Training cost = tokens × epochs × per-million rate. Inference uses the fine-tuned model's uplifted per-token rate, which is always higher than the base model. Year-1 total = one-time training + 12 months of inference.
Câu hỏi thường gặp
Calculator chính xác đến đâu?+
Pricing lấy từ tài liệu chính thức của provider và refresh hàng tháng. Hóa đơn thực tế có thể chênh 5–15% do cache, batch và region.
Giá tính bằng USD?+
Đúng, tất cả giá đều theo USD theo billing chuẩn của provider.
Bao lâu cập nhật một lần?+
Bảng pricing được review và update vào ngày 1 mỗi tháng.
Có dùng để lập budget được không?+
Hãy coi như estimate. Với production, luôn validate bằng pilot 1 tuần với workload thật.