✅ 1) 로컬 AI 모델 계보 (역사)

🟢 1세대: GPT 독점 시대 (2018~2022)

대표 모델:

  • GPT-2 / GPT-3 (OpenAI)
  • BERT (Google)

특징:

  • 클라우드 전용
  • 오픈소스 거의 없음
  • 로컬 실행 불가

👉 “AI = 클라우드” 시대


🟢 2세대: LLaMA 혁명 (2023)

Meta의 LLaMA 등장

  • LLaMA 1 (2023)
  • 오픈 가중치 모델 등장
  • 로컬 실행 가능

🔥 역사적 의미:

  • ChatGPT 독점 붕괴
  • 로컬 AI 생태계 시작

🟢 3세대: 오픈 LLM 폭발 (2023~2024)

대표 모델:

Meta

  • LLaMA 2
  • Code Llama

Mistral

  • Mistral 7B
  • Mixtral 8x7B (MoE)

Google

  • Gemma

Microsoft

  • Phi-2 / Phi-3

Alibaba

  • Qwen

DeepSeek

  • DeepSeek LLM / Coder

👉 특징:

  • 오픈소스 경쟁 시작
  • 모델 성능 급격히 향상
  • 로컬 실행 현실화

🟢 4세대: 로컬 AI 표준화 (2024~2026)

핵심 기술:

  • GGUF 포맷
  • llama.cpp
  • Quantization (Q4~Q8)
  • Ollama / LM Studio 등장

👉 결과:

  • “PC에서 GPT 수준 AI 실행” 가능

✅ 2) Ollama 지원 모델과 특성

✅ 대표 모델 (Ollama 기본 지원)

모델 특징 강점
Llama 3 / 3.1 Meta 최신 범용 성능
Mistral 프랑스 Mistral AI 속도
Mixtral MoE 모델 고성능
Gemma Google 안정성
Qwen 2 Alibaba 다국어
Phi-3 Microsoft 경량
DeepSeek 중국 코딩
Code Llama Meta 개발
TinyLlama 경량 IoT / Edge

✅ Ollama 모델 특성 (기술적)

1) 포맷

  • GGUF 기반
  • llama.cpp runtime

2) 양자화 (Quantization)

타입 의미
Q2 초경량
Q4 표준
Q8 고품질
FP16 고정밀

👉 Ollama의 핵심 가치:

  • 모델 최적화 자동화

3) 모델 관리 방식

ollama pull llama3
ollama run llama3
  • Modelfile

  • Dockerfile 유사

  • 모델 커스터마이징 가능

👉 DevOps 친화적


✅ Ollama 역사

2023

  • Ollama 프로젝트 등장
  • macOS 중심

2024

  • Windows/Linux 지원
  • LLaMA2, Mistral 지원
  • 개발자 폭발적 사용

2025~

  • 기업 환경 확산
  • 로컬 AI 표준 도구로 자리잡음

👉 포지션:

  • “AI Docker”

✅ 3) LM Studio 지원 모델과 특성

✅ 대표 모델 (LM Studio에서 많이 쓰는 모델)

모델 특징 강점
Llama 3 범용 성능
Mistral 경량 속도
Gemma 안정성 Google
Qwen 2 다국어 중국어
Phi-3 초경량 Edge
DeepSeek-Coder 코딩 개발
StarCoder 코드 개발
Falcon 중동 대형
Yi 01.AI 성능

👉 사실상 Hugging Face 모델 대부분 지원


✅ LM Studio 모델 특성

1) 모델 탐색 방식

  • Hugging Face 직접 검색
  • GUI 다운로드

👉 Ollama보다 모델 선택 자유도 높음


2) 실행 엔진

  • llama.cpp
  • MLX (Apple Silicon)
  • CUDA

👉 멀티 엔진 지원


3) API 특성

  • OpenAI-compatible API

👉 개발 테스트에 최적화


✅ LM Studio 역사

2023

  • llama.cpp 기반 GUI 도구 등장
  • “로컬 ChatGPT” 콘셉트

2024

  • Windows/Linux 확장
  • OpenAI API 호환
  • RAG 기능 추가

2025~

  • 개발자 도구화
  • AI IDE 포지션 확립

👉 포지션:

  • “로컬 AI IDE”

✅ 4) Ollama vs LM Studio 모델 지원 구조 비교

✅ 모델 지원 방식

항목 Ollama LM Studio
모델 출처 Ollama Registry Hugging Face
모델 선택 제한적 매우 자유
설치 방식 CLI GUI
커스터마이징 강함 보통
엔진 통합 서버형 앱형

✅ 모델 생태계 관점

LLM 모델 → GGUF → llama.cpp → Ollama / LM Studio

👉 Ollama/LM Studio는
“모델이 아니라 런타임 플랫폼”


✅ 5) 모델 발전 방향 (미래)

🔮 트렌드

1) 모델 경량화

  • Phi / Gemma / Qwen-lite
  • 모바일 / IoT 실행

2) MoE 모델 확산

  • Mixtral
  • DeepSeek-MoE

3) 멀티모달

  • LLaVA
  • Qwen-VL
  • Gemini open models

4) 기업형 LLM

  • Private LLM
  • On-premise AI

✅ 6) 핵심 요약 (진짜 중요한 것)

💡 로컬 AI 모델 생태계는 이렇게 정리됨:

모델 = LLaMA 계열 중심
엔진 = llama.cpp
플랫폼 = Ollama / LM Studio

👉 즉,

  • Ollama = 운영/서비스용
  • LM Studio = 실험/개발용
  • LLaMA 계열 = 사실상 표준
728x90

+ Recent posts