Ollama 메모리 관리 — 모델 크기별 리소스 점유와 최적화 (1)

Ollama로 로컬 LLM을 운영할 때 실제 메모리가 얼마나 필요한지, 모델 크기별·양자화별·컨텍스트별 실측 데이터로 분석하고 프로덕션 메모리 산정 가이드를 정리합니다.

2026년 3월 5일 · geonho

LLM은 왜 GPU가 필요한가 — 토큰 생성부터 메모리 대역폭까지

LLM이 토큰을 하나씩 생성하는 원리, GPU 메모리에 모델을 올리는 이유, 메모리 대역폭이 성능을 결정하는 구조, 그리고 클라우드 LLM 서빙 인프라까지 — 로컬부터 GPT/Claude급 서비스까지 관통하는 핵심 개념을 정리합니다.

2026년 3월 2일 · geonho