✅ 1) 로컬 AI 모델 계보 (역사)
🟢 1세대: GPT 독점 시대 (2018~2022)
대표 모델:
- GPT-2 / GPT-3 (OpenAI)
- BERT (Google)
특징:
- 클라우드 전용
- 오픈소스 거의 없음
- 로컬 실행 불가
👉 “AI = 클라우드” 시대
🟢 2세대: LLaMA 혁명 (2023)
Meta의 LLaMA 등장
- LLaMA 1 (2023)
- 오픈 가중치 모델 등장
- 로컬 실행 가능
🔥 역사적 의미:
- ChatGPT 독점 붕괴
- 로컬 AI 생태계 시작
🟢 3세대: 오픈 LLM 폭발 (2023~2024)
대표 모델:
Meta
- LLaMA 2
- Code Llama
Mistral
- Mistral 7B
- Mixtral 8x7B (MoE)
- Gemma
Microsoft
- Phi-2 / Phi-3
Alibaba
- Qwen
DeepSeek
- DeepSeek LLM / Coder
👉 특징:
- 오픈소스 경쟁 시작
- 모델 성능 급격히 향상
- 로컬 실행 현실화
🟢 4세대: 로컬 AI 표준화 (2024~2026)
핵심 기술:
- GGUF 포맷
- llama.cpp
- Quantization (Q4~Q8)
- Ollama / LM Studio 등장
👉 결과:
- “PC에서 GPT 수준 AI 실행” 가능
✅ 2) Ollama 지원 모델과 특성
✅ 대표 모델 (Ollama 기본 지원)
| 모델 | 특징 | 강점 |
|---|---|---|
| Llama 3 / 3.1 | Meta 최신 | 범용 성능 |
| Mistral | 프랑스 Mistral AI | 속도 |
| Mixtral | MoE 모델 | 고성능 |
| Gemma | 안정성 | |
| Qwen 2 | Alibaba | 다국어 |
| Phi-3 | Microsoft | 경량 |
| DeepSeek | 중국 | 코딩 |
| Code Llama | Meta | 개발 |
| TinyLlama | 경량 | IoT / Edge |
✅ Ollama 모델 특성 (기술적)
1) 포맷
- GGUF 기반
- llama.cpp runtime
2) 양자화 (Quantization)
| 타입 | 의미 |
|---|---|
| Q2 | 초경량 |
| Q4 | 표준 |
| Q8 | 고품질 |
| FP16 | 고정밀 |
👉 Ollama의 핵심 가치:
- 모델 최적화 자동화
3) 모델 관리 방식
ollama pull llama3
ollama run llama3Modelfile
Dockerfile 유사
모델 커스터마이징 가능
👉 DevOps 친화적
✅ Ollama 역사
2023
- Ollama 프로젝트 등장
- macOS 중심
2024
- Windows/Linux 지원
- LLaMA2, Mistral 지원
- 개발자 폭발적 사용
2025~
- 기업 환경 확산
- 로컬 AI 표준 도구로 자리잡음
👉 포지션:
- “AI Docker”
✅ 3) LM Studio 지원 모델과 특성
✅ 대표 모델 (LM Studio에서 많이 쓰는 모델)
| 모델 | 특징 | 강점 |
|---|---|---|
| Llama 3 | 범용 | 성능 |
| Mistral | 경량 | 속도 |
| Gemma | 안정성 | |
| Qwen 2 | 다국어 | 중국어 |
| Phi-3 | 초경량 | Edge |
| DeepSeek-Coder | 코딩 | 개발 |
| StarCoder | 코드 | 개발 |
| Falcon | 중동 | 대형 |
| Yi | 01.AI | 성능 |
👉 사실상 Hugging Face 모델 대부분 지원
✅ LM Studio 모델 특성
1) 모델 탐색 방식
- Hugging Face 직접 검색
- GUI 다운로드
👉 Ollama보다 모델 선택 자유도 높음
2) 실행 엔진
- llama.cpp
- MLX (Apple Silicon)
- CUDA
👉 멀티 엔진 지원
3) API 특성
- OpenAI-compatible API
👉 개발 테스트에 최적화
✅ LM Studio 역사
2023
- llama.cpp 기반 GUI 도구 등장
- “로컬 ChatGPT” 콘셉트
2024
- Windows/Linux 확장
- OpenAI API 호환
- RAG 기능 추가
2025~
- 개발자 도구화
- AI IDE 포지션 확립
👉 포지션:
- “로컬 AI IDE”
✅ 4) Ollama vs LM Studio 모델 지원 구조 비교
✅ 모델 지원 방식
| 항목 | Ollama | LM Studio |
|---|---|---|
| 모델 출처 | Ollama Registry | Hugging Face |
| 모델 선택 | 제한적 | 매우 자유 |
| 설치 방식 | CLI | GUI |
| 커스터마이징 | 강함 | 보통 |
| 엔진 통합 | 서버형 | 앱형 |
✅ 모델 생태계 관점
LLM 모델 → GGUF → llama.cpp → Ollama / LM Studio👉 Ollama/LM Studio는
“모델이 아니라 런타임 플랫폼”
✅ 5) 모델 발전 방향 (미래)
🔮 트렌드
1) 모델 경량화
- Phi / Gemma / Qwen-lite
- 모바일 / IoT 실행
2) MoE 모델 확산
- Mixtral
- DeepSeek-MoE
3) 멀티모달
- LLaVA
- Qwen-VL
- Gemini open models
4) 기업형 LLM
- Private LLM
- On-premise AI
✅ 6) 핵심 요약 (진짜 중요한 것)
💡 로컬 AI 모델 생태계는 이렇게 정리됨:
모델 = LLaMA 계열 중심
엔진 = llama.cpp
플랫폼 = Ollama / LM Studio👉 즉,
- Ollama = 운영/서비스용
- LM Studio = 실험/개발용
- LLaMA 계열 = 사실상 표준
728x90
'Software > 기타' 카테고리의 다른 글
| 인공지능 시작하기 - Grok (0) | 2026.02.08 |
|---|---|
| 인공지능 시작하기 - Ollama 명령어모드(1) (0) | 2026.01.28 |
| 인공지능 시작하기 - Ollama 설치하기 (0) | 2026.01.28 |
| Open Neural Network Exchange (0) | 2026.01.28 |
| MS Windows 부팅설정 변경 (0) | 2025.11.24 |
