다음을 통해 공유


개발자 프록시와 함께 로컬 언어 모델 사용

개발 프록시를 로컬 언어 모델에 연결하면 개발자 프록시의 기능을 향상시킬 수 있습니다. 개발자 프록시 플러그 인을 선택하여 언어 모델을 사용하여 자연어를 포함하는 출력을 개선합니다. 로컬 언어 모델을 사용하면 추가 비용 없이 향상된 기능을 활용할 수 있습니다.

필수 조건

개발자 프록시는 Ollama를 로컬 언어 모델의 호스트로 지원합니다. 컴퓨터에서 설정하려면 Ollama 설명서지침을 따릅니다.

로컬 언어 모델을 사용하도록 개발 프록시 구성

로컬 언어 모델을 사용하도록 개발 프록시를 구성하려면 파일의 languageModel 설정을 devproxyrc.json 사용합니다.

{
  "languageModel": {
    "enabled": true
  }
}

설정의 일부로 languageModel 다음 옵션을 사용할 수 있습니다.

옵션 설명 기본값
cacheResponses 언어 모델에서 응답을 캐시할지 여부를 지정합니다. true
enabled 로컬 언어 모델을 사용할지 여부를 지정합니다. false
model 사용할 언어 모델의 이름입니다. phi3
url Ollama 인스턴스의 URL입니다. http://localhost:11434

기본적으로 개발자 프록시는 Phi-3 모델에서 기본 Ollama 구성을 사용합니다. 또한 언어 모델의 응답을 캐시합니다. 즉, 동일한 프롬프트의 경우 언어 모델이 이를 처리할 때까지 기다리지 않고 즉각적인 응답을 받습니다.

Important

로컬 언어 모델을 사용하는 경우 개발자 프록시를 시작하기 전에 Ollama를 시작해야 합니다.

로컬 언어 모델을 사용할 수 있는 개발자 프록시 플러그 인

다음 개발자 프록시 플러그 인은 사용 가능한 경우 로컬 언어 모델을 사용합니다.