คำถามที่พบบ่อยในสาย Local AI
"โมเดลนี้ต้องใช้ VRAM เท่าไหร่?"
เว็บนี้ช่วยตอบคำถามนั้นได้: https://apxml.com/tools/vram-calculator
ปัจจัยที่กระทบ VRAM
- Model Size: 7B, 13B, 34B, 70B
- Quantization: FP16, INT8, 4-bit
- Context Length: ยิ่งยาว ยิ่งใช้ VRAM มาก
- Batch Size: เพิ่ม batch ก็เพิ่ม VRAM
ตัวอย่างให้เห็นภาพ
7B Model
- 4-bit quantization: ~4-6 GB VRAM
- FP16: ~12-16 GB VRAM
70B Model
- 4-bit quantization: ~35-45 GB VRAM
- FP16: ~140 GB+ VRAM
ทำไมเว็บนี้มีประโยชน์
- ช่วยลดการเดาผิด: ซื้อการ์ดมาแล้ว VRAM ไม่พอ
- เหมาะสำหรับผู้ใช้ Ollama, vLLM, LM Studio, text-generation-webui
ข้อควรรู้
ตัวเลขเป็นเพียง estimate อาจต่างกันตาม framework, KV cache และ flash attention
สรุป
ถ้ากำลังจะซื้อ GPU, เช่า cloud GPU หรือเลือกโมเดล ลอง VRAM Calculator ก่อนเสมอ
พร้อมนำ AI ไปใช้ในธุรกิจคุณหรือยัง?
เวิร์กช็อป 1:1 ที่ออกแบบตามบริบทธุรกิจของคุณ เพื่อให้เริ่มใช้ AI ได้อย่างเป็นระบบและวัดผลได้จริง
จองรอบเรียน