Qwen 3.5 파인튜닝 실전 가이드 — LoRA로 나만의 모델 만들기
Qwen 3.5를 LoRA/QLoRA로 파인튜닝하는 전 과정을 다룹니다. 8GB GPU에서도 가능한 QLoRA 설정부터 Unsloth 최적화, GGUF 변환, Ollama 배포까지.

Qwen 3.5 파인튜닝 실전 가이드 — LoRA로 나만의 모델 만들기
이전 글에서 Qwen 3.5를 로컬에 설치하고 실행하는 방법을 다뤘습니다. 이번에는 한 단계 더 나아가서, 자신만의 데이터로 모델을 파인튜닝하는 방법을 다룹니다.
LoRA/QLoRA를 사용하면 소비자 GPU에서도 Qwen 3.5를 파인튜닝할 수 있습니다. 데이터 준비부터 학습, 평가, 배포까지 전 과정을 단계별로 정리했습니다.
1. 파인튜닝이 필요한 이유
Qwen 3.5는 범용 모델입니다. 대부분의 작업에서 잘 동작하지만, 다음과 같은 경우에는 파인튜닝이 필요합니다:
관련 포스트

AI & Agents
DeerFlow 2.0 프로덕션 배포 — Docker Compose, Kubernetes, 메시지 게이트웨이
DeerFlow를 Docker Compose와 Kubernetes로 프로덕션 배포하고, Slack/Telegram 메시지 게이트웨이를 연동하는 전 과정.

AI & Agents
DeerFlow 2.0 커스텀 스킬 + MCP + 샌드박스 — 나만의 도구와 워크플로우 만들기
DeerFlow의 마크다운 기반 스킬 시스템, MCP 서버 연동, Docker/K8s 샌드박스, 영구 메모리 시스템을 실전 코드와 함께 다룹니다.

AI & Agents
DeerFlow 2.0 Multi-Agent 워크플로우 심화 — StateGraph, Plan-Execute, Human-in-the-Loop
DeerFlow의 LangGraph StateGraph 기반 Multi-Agent 워크플로우를 코드 수준에서 분석합니다. Supervisor 라우팅, Plan-Execute 패턴, 서브 에이전트 동적 생성.