Qwen 3.5 로컬 설치 완전 가이드 — Ollama부터 vLLM까지
Qwen 3.5를 로컬에서 실행하는 4가지 방법을 단계별로 설명합니다. Ollama 5분 설치부터 llama.cpp, vLLM 프로덕션 서버, HuggingFace Transformers까지.

Qwen 3.5 로컬 설치 & 실행 완전 가이드 — Ollama부터 vLLM까지
이전 글에서 Qwen 3.5와 DeepSeek V3.2를 비교했습니다. 이번에는 Qwen 3.5를 직접 로컬에 설치하고 실행하는 과정을 단계별로 다룹니다.
Ollama로 5분 만에 돌리는 방법부터, vLLM으로 프로덕션급 API 서버를 띄우는 방법, 그리고 GPU별 최적 모델 사이즈 선택까지 빠짐없이 정리했습니다.
1. 어떤 사이즈를 골라야 할까?
Qwen 3.5는 8가지 사이즈가 있습니다. GPU에 맞는 모델을 고르는 게 첫 번째입니다.
관련 포스트

AI & Agents
DeerFlow 2.0 프로덕션 배포 — Docker Compose, Kubernetes, 메시지 게이트웨이
DeerFlow를 Docker Compose와 Kubernetes로 프로덕션 배포하고, Slack/Telegram 메시지 게이트웨이를 연동하는 전 과정.

AI & Agents
DeerFlow 2.0 커스텀 스킬 + MCP + 샌드박스 — 나만의 도구와 워크플로우 만들기
DeerFlow의 마크다운 기반 스킬 시스템, MCP 서버 연동, Docker/K8s 샌드박스, 영구 메모리 시스템을 실전 코드와 함께 다룹니다.

AI & Agents
DeerFlow 2.0 Multi-Agent 워크플로우 심화 — StateGraph, Plan-Execute, Human-in-the-Loop
DeerFlow의 LangGraph StateGraph 기반 Multi-Agent 워크플로우를 코드 수준에서 분석합니다. Supervisor 라우팅, Plan-Execute 패턴, 서브 에이전트 동적 생성.