본문 바로가기
바이브 코딩/바이브 코딩 일반

Claude + local LLM vs gemini-cli 비교

by 좋아좋아브라이언 2026. 2. 1.

개발분야에서 claude가 인기 있다 보니 문서들이 claude 기반의 자료가 많다.

 

그래서 한번 calude-cli가 local LLM을 사용하여 claude의 I/F를 사용해 보고자 한번 설정을 해봤다.

 

결론은 돈 주고 상용 서비스를 이용하자!!!!

 

1. 소요 시간

코드 생성은 5단계로 구분하여 단계별 개발 프롬프트는 동일한 것을 사용하였다. 개발 프롬프트는 혼공바이브코딩 도서에서 제공된 PRD를 사용하였다.

소요 시간 : claude + local LLM : 2시간이 넘는것 같죠 소요 시간 : gemini-cli1분이내

 

2. 생성물

둘다 비슷하게 잘 만들었다.

Claude + Local LLM gemini-cli

 

3. 리소스 사용

claude + local LLM으로 코딩을 하니.. gpu 다잡아 먹고, 전원 만땅으로 쓰고, 팬 만땅으로 돌아가니 팬소리 시끄럽니다.

CPU, MEM, HDD등의 리소스 사용율이 70% 이상 못하게 하는 것이 지금까지의 철칙인데... 그 철칙이 깨졌다..

 

4. Claude + Local LLM 환경을 구축하고 싶다면..

아래 2개의 자료를 참고 했다.

https://youtu.be/NA5U06WuO34

https://www.youtube.com/watch?v=aV3jbFdYfLs

 

간단 요약

  1. claude 설치 curl -fsSL https://claude.ai/install.sh | bash
  2. ollama 환경설치
    1. LLM model download (glm-4.7-flash 또는 qwen-code)
    2. claude가 ollama 사용하도록 환경 변수 설정
      1. export ANTHROPIC_AUTH_TOKEN=ollama
      2. export ANTHROPIC_BASE_URL=http://localhost:11434
      3. Ollama context length 4k —> 64K 변경
  3. claude 실행 (나는 1번으로 실행)
    1. $ claude --model glm-4.7-flash
    2. $ claude --model glm-4.7-flash
  4. model이 ollama에서 설치한 LLM확인

'바이브 코딩 > 바이브 코딩 일반' 카테고리의 다른 글

바이브 코딩 개발론  (0) 2026.02.14
바이브 코딩 자료들  (0) 2026.01.25
Agent Skill  (0) 2026.01.23
구글 바이브코딩 툴  (0) 2026.01.16
바이브 코딩 자료  (1) 2026.01.15