Gemma 4 MoE 파인튜닝 — 3.8B 활성 파라미터로 Arena #6 성능 커스터마이징
Gemma 4 26B MoE 모델에 QLoRA 적용. Expert 레이어 LoRA 전략, Dense 대비 비교, MoE 전용 학습 팁, Ollama 배포까지. LoRA 시리즈 Part 4.
Gemma 4 MoE 파인튜닝 — 3.8B 활성 파라미터로 Arena #6 성능을 커스터마이징하기
시리즈: Part 1: LoRA 이론 | Part 2: QLoRA + 한국어 | Part 3: 평가 + 배포 | Part 4 (이 글)
Part 1~3에서 Qwen 2.5 7B로 LoRA의 기초부터 배포까지 다뤘습니다. Part 4에서는 한 단계 올라갑니다 — Gemma 4 MoE 모델에 LoRA를 적용합니다.
왜 Gemma 4인가? 세 가지 이유:
- MoE 아키텍처: 26B 파라미터 중 3.8B만 활성화. 추론 비용은 4B급이지만 성능은 Arena #6
관련 포스트

AI Tools & Agents
스스로 진화하는 AI 에이전트 — 2026년의 새로운 패러다임
GenericAgent, Evolver, Open Agents — 스스로 스킬을 만들고, 실행 경로를 기억하고, 실패에서 배우는 자가 진화 에이전트 3종 비교.

AI Tools & Agents
나만의 LLM Knowledge Base 구축하기 — Karpathy 스타일 지식 시스템
Obsidian + Claude Code로 영구적인 개인 지식 체계를 만드는 완전 가이드. 위키 + 메모리 두 축의 지식 시스템.

AI Tools & Agents
Karpathy의 CLAUDE.md가 48K 스타를 받은 이유 — 그리고 나만의 CLAUDE.md 작성법
마크다운 파일 하나로 AI 코딩 정확도를 65%에서 94%로. Karpathy의 4가지 규칙과 실전 작성법을 분석합니다.