AITOT

Calculator

Calculator chi phí Fine-tuning LLM

Tính chi phí fine-tuning — token training × giá/triệu, cộng uplift mỗi token cho inference trên model custom.

Pricing refreshed: 2026-05-01

Tổng năm 1 · cheapest

Fireworks · Llama 4 8B

$248

ProviderBase modelChi phí trainingInference/thángTổng năm 1
FireworksLlama 4 8B$8$20$248
TogetherLlama 4 8B

LoRA adapter; full fine-tune more

$15$22$279
CohereCommand R$30$48$606
OpenAIGPT-4o mini

Inference is 2× base mini rate

$45$48$621
MistralMistral Small 3

$2/mo hosting per deployed adapter

$45$58$741
FireworksLlama 4 70B$45$90$1,125
TogetherLlama 3.3 70B$75$88$1,131
OpenAIGPT-5 mini$60$96$1,212
TogetherLlama 4 70B$90$120$1,530
OpenAIo3-mini$75$136$1,707
AWS BedrockClaude Haiku 4.5 (custom)

Provisioned throughput required

$120$303$3,756
MistralMistral Large 2$135$564$6,903
OpenAIGPT-4o

Inference is 1.5× base GPT-4o rate

$375$600$7,575

Training cost = tokens × epochs × per-million rate. Inference uses the fine-tuned model's uplifted per-token rate, which is always higher than the base model. Year-1 total = one-time training + 12 months of inference.

Câu hỏi thường gặp

Calculator chính xác đến đâu?+
Pricing lấy từ tài liệu chính thức của provider và refresh hàng tháng. Hóa đơn thực tế có thể chênh 5–15% do cache, batch và region.
Giá tính bằng USD?+
Đúng, tất cả giá đều theo USD theo billing chuẩn của provider.
Bao lâu cập nhật một lần?+
Bảng pricing được review và update vào ngày 1 mỗi tháng.
Có dùng để lập budget được không?+
Hãy coi như estimate. Với production, luôn validate bằng pilot 1 tuần với workload thật.