Implementing RAG using Langchain Ollama and Chainlit on Windows using WSL
RUN LLMs locally
PrivateGPT,llama.cpp, Ollama, GTP4All, llamafile 과 같은 다양한 프로젝트에 대한 Overview
https://python.langchain.com/docs/guides/development/local_llms/
LangServe + Ollama
- ollama를 통해 OpenModel를 서버에 설치하고, Remote에서 Chain을 호출한다. 한글 모델(야놀자 제공,heegye님이 변환, Teddy님의 공개 강좌)
- '24 4/12부터 이 구조를 사용하고 개발 진행함..
- Teddy님의 소개 자료 https://github.com/teddylee777/langserve_ollama?tab=readme-ov-file
Ollama model 받기
1. Hugging Face에서 받기
# 1. https://huggingface.co/asiansoul/KoDolph-2x8b-GGUF 에서
# 2. kodolph-2x8b-Q8_0.gguf 모델을 받는 다고 가정한다.
#1. Model 다운로드 사용법
huggingface-cli download \
asiansoul/KoDolph-2x8b-GGUF \ #hugging face의 URL이다.
kodolph-2x8b-Q8_0.gguf \ # files and version dir에서 받고 싶은 모델이다.
--local-dir 본인의_컴퓨터_다운로드폴더_경로 \
--local-dir-use-symlinks False
#예시
huggingface-cli download \
> asiansoul/KoDolph-2x8b-GGUF \
> kodolph-2x8b-Q8_0.gguf \
> --local-dir /workspace/home/hankh/langserve_ollama/ollama-modelfile/LLAMA3-Ko-Instruct --local-dir-use-symlinks False
#2. Modelfile 설정
#Model파일을 만들거나 Get한다. kodolph-2x8b-Q8_0.gguf는 친절하게 Modelfile_Q5_K_M 파일을 제공한다.
#내용은 확인하세요
#3. Ollama 모델 등록
ollama create Llama3-KoDolph -f ./Modelfile_Q8_K_M
#4 Ollama List 확인
ollama list
NAME ID SIZE MODIFIED
EEVE-Korean-10.8B:latest c3ebb32b93a5 7.7 GB 2 days ago
Llama3-KoDolph:latest 915768bf8359 8.5 GB 11 seconds ago
gemma:7b-instruct a72c7f4d0a15 5.0 GB 12 hours ago
#5 Ollama 실행
ollama run Llama3-KoDolph
'머신러닝 > RAG' 카테고리의 다른 글
LLM 개발을 더 간편하게 랭체인의 이해 (0) | 2024.04.14 |
---|---|
0 환경 설정 - ollama 설치 (0) | 2024.04.10 |