🔧도구
llmfit - 내 PC에서 돌아갈 LLM 모델을 자동으로 찾아주는 도구
내 컴퓨터의 RAM, CPU, GPU 사양을 분석해서 실행 가능한 LLM 모델을 자동으로 찾고 최적화해주는 터미널 도구
↗ 원본 링크#LLM#최적화#하드웨어#터미널#로컬AI
llmfit이란?
내 컴퓨터에서 어떤 LLM 모델을 실행할 수 있을지 고민해본 적 있나요? llmfit은 시스템 사양을 자동으로 분석해서 실행 가능한 모델을 찾아주는 똑똑한 터미널 도구입니다.
주요 기능
🖥️ 자동 하드웨어 분석
▸RAM, CPU, GPU 사양을 자동으로 감지
▸수백 개의 LLM 모델 중 내 PC에서 돌아갈 모델만 필터링
▸품질, 속도, 적합도, 컨텍스트 기준으로 점수 계산
🎯 스마트한 최적화
▸
동적 양자화: 메모리에 맞춰 최적의 양자화 수준 자동 선택 (Q8_0~Q2_K)
▸
실행 모드 분석: GPU 전용, CPU+GPU 혼합, CPU 전용 모드별 평가
▸
적합도 등급: Perfect, Good, Marginal, Too Tight로 구분
🚀 다양한 런타임 지원
▸Ollama, llama.cpp, MLX 통합
▸설치된 모델 자동 감지
▸한 번의 명령으로 모델 다운로드 가능
설치 방법
macOS/Linux
bash
brew install llmfit
# 또는
curl -fsSL https://llmfit.axjns.dev/install.sh | shWindows
bash
cargo install llmfit사용 방법
TUI 모드 (인터랙티브)
bash
llmfit주요 단축키
▸`f`: 적합도 필터
▸`a`: 가용성 필터
▸`s`: 정렬 기준 변경
▸`d`: 모델 다운로드
▸`p`: Plan 모드 (필요한 하드웨어 역산)
CLI 모드
bash
# Perfect 등급 모델 5개만 표시
llmfit fit --perfect -n 5
# JSON 형식으로 추천 모델 출력
llmfit recommend --jsonPlan 모드
특정 모델을 실행하려면 어떤 하드웨어가 필요한지 역으로 계산해줍니다.
▸컨텍스트 길이 조정
▸양자화 수준 변경
▸목표 토큰 속도 설정
▸필요한 VRAM/RAM/CPU 자동 계산
지원 모델
▸Meta Llama
▸Mistral
▸Qwen
▸Google Gemma
▸Microsoft Phi
▸DeepSeek
▸IBM Granite
▸그 외 HuggingFace의 수백 개 모델
왜 유용한가?
로컬에서 LLM을 실행하려면 메모리와 GPU 사양을 고려해야 합니다. llmfit은 이런 복잡한 계산을 자동화해서:
✅ 시행착오 시간 절약
✅ 최적의 모델 선택
✅ 하드웨어 효율 극대화
✅ 초보자도 쉽게 로컬 LLM 시작 가능
로컬 AI 개발을 시작하는 모든 분들에게 추천하는 필수 도구입니다!