JOY.VN

JOY.VN

AI - Machine Learning

Cách build Docker image cho vLLM hỗ trợ CUDA 12.8 và GPU RTX 5090 (SM120)

Phiên bản nightly v0.8.3rc2.dev172+g3cdc57669

JOY's avatar
JOY
May 16, 2025
∙ Paid
Feature]: Support for RTX 5090 (CUDA 12.8) · Issue #13306 · vllm-project/ vllm · GitHub

Ban đầu thì mình xài Ollama cho AI Inference kết hợp với Open WebUI. Em này cài là chạy, không phải suy nghĩ nhiều. Nhưng giờ do cần chạy dual RTX 5090 nên phải kiếm giải pháp thay thế. Hỏi em ChatGPT Lê Ky (tên mình đặt cho ẻm) thì em ấy gợi ý xài hàng top vLLM. Mình sẽ có bài so sánh 2 em này sau.

Ngặt nỗi vLLM chưa support chính thức cho dòng Blackwel…

User's avatar

Continue reading this post for free, courtesy of JOY.

Or purchase a paid subscription.
© 2026 JOY · Privacy ∙ Terms ∙ Collection notice
Start your SubstackGet the app
Substack is the home for great culture