OpenAI Python API 라이브러리 1.x로 마이그레이션
OpenAI에서 OpenAI Python API 라이브러리의 새 버전을 릴리스했습니다. 이 가이드는 OpenAI 마이그레이션 가이드를 보완하며 Azure OpenAI와 관련된 변경 내용을 빠르게 파악하는 데 도움이 됩니다.
업데이트
- OpenAI Python API 라이브러리의 새로운 버전입니다.
- 2023년 11월 6일부터
pip install openai
및pip install openai --upgrade
는 OpenAI Python 라이브러리의version 1.x
를 설치합니다. version 0.28.1
에서version 1.x
로 업그레이드하는 것은 호환성이 손상되는 변경이므로 코드를 테스트하고 업데이트해야 합니다.- 오류가 있는 경우 백오프로 자동 다시 시도
- 적절한 형식(mypy/pyright/editors용)
- 이제 전역 기본값을 사용하는 대신 클라이언트를 인스턴스화할 수 있습니다.
- 명시적 클라이언트 인스턴스화로 전환
- 이름 변경
알려진 문제
DALL-E3
은 최신 1.x 릴리스에서 완벽하게 지원됩니다.DALL-E2
는 코드를 다음과 같이 수정하여 1.x와 함께 사용할 수 있습니다.- 의미 체계 텍스트 검색을 위한 코사인 유사성과 같은 기능을 제공하는 데 사용된
embeddings_utils.py
는 더 이상 OpenAI Python API 라이브러리의 일부가 아닙니다. - OpenAI Python 라이브러리에 대해 활성화된 GitHub 문제도 확인해야 합니다.
마이그레이션하기 전에 테스트
Important
Azure OpenAI에서는 openai migrate
를 사용한 코드 자동 마이그레이션이 지원되지 않습니다.
이는 호환성이 손상되는 변경이 포함된 새 버전의 라이브러리이므로 버전 1.x를 사용하도록 프로덕션 애플리케이션을 마이그레이션하기 전에 새 릴리스에 대해 코드를 광범위하게 테스트해야 합니다. 또한 코드와 내부 프로세스를 검토하여 모범 사례를 따르고 완전히 테스트한 버전에만 프로덕션 코드를 고정하고 있는지 확인해야 합니다.
마이그레이션 프로세스를 더 쉽게 만들기 위해 Python용 문서의 기존 코드 예를 탭 환경으로 업데이트하고 있습니다.
pip install openai --upgrade
이를 통해 변경된 사항에 대한 컨텍스트를 제공하고 버전 0.28.1
에 대한 지원을 계속 제공하면서 새 라이브러리를 병렬로 테스트할 수 있습니다. 1.x
로 업그레이드하고 일시적으로 이전 버전으로 되돌려야 한다는 것을 깨닫는 경우 언제든지 pip uninstall openai
한 다음 pip install openai==0.28.1
을 사용하여 0.28.1
대상으로 다시 설치할 수 있습니다.
채팅 완료
GPT-35-Turbo 또는 GPT-4 모델을 배포할 때 선택한 배포 이름으로 model
변수를 설정해야 합니다. 기본 모델 이름과 동일한 배포 이름을 선택하지 않으면 모델 이름을 입력하면 오류가 발생합니다.
import os
from openai import AzureOpenAI
client = AzureOpenAI(
azure_endpoint = os.getenv("AZURE_OPENAI_ENDPOINT"),
api_key=os.getenv("AZURE_OPENAI_API_KEY"),
api_version="2024-02-01"
)
response = client.chat.completions.create(
model="gpt-35-turbo", # model = "deployment_name"
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Does Azure OpenAI support customer managed keys?"},
{"role": "assistant", "content": "Yes, customer managed keys are supported by Azure OpenAI."},
{"role": "user", "content": "Do other Azure AI services support this too?"}
]
)
print(response.choices[0].message.content)
추가 예는 심층 채팅 완료 문서에서 확인할 수 있습니다.
완성
import os
from openai import AzureOpenAI
client = AzureOpenAI(
api_key=os.getenv("AZURE_OPENAI_API_KEY"),
api_version="2024-02-01",
azure_endpoint = os.getenv("AZURE_OPENAI_ENDPOINT")
)
deployment_name='REPLACE_WITH_YOUR_DEPLOYMENT_NAME' #This will correspond to the custom name you chose for your deployment when you deployed a model.
# Send a completion call to generate an answer
print('Sending a test completion job')
start_phrase = 'Write a tagline for an ice cream shop. '
response = client.completions.create(model=deployment_name, prompt=start_phrase, max_tokens=10) # model = "deployment_name"
print(response.choices[0].text)
포함
import os
from openai import AzureOpenAI
client = AzureOpenAI(
api_key = os.getenv("AZURE_OPENAI_API_KEY"),
api_version = "2024-02-01",
azure_endpoint =os.getenv("AZURE_OPENAI_ENDPOINT")
)
response = client.embeddings.create(
input = "Your text string goes here",
model= "text-embedding-ada-002" # model = "deployment_name".
)
print(response.model_dump_json(indent=2))
embeddings_utils.py
없이 의미 체계 텍스트 검색을 처리하는 방법을 포함한 추가 예는 포함 자습서에서 찾을 수 있습니다.
Async
OpenAI는 모듈 수준 클라이언트에서 비동기 메서드 호출을 지원하지 않습니다. 대신 비동기 클라이언트를 인스턴스화해야 합니다.
import os
import asyncio
from openai import AsyncAzureOpenAI
async def main():
client = AsyncAzureOpenAI(
api_key = os.getenv("AZURE_OPENAI_API_KEY"),
api_version = "2024-02-01",
azure_endpoint = os.getenv("AZURE_OPENAI_ENDPOINT")
)
response = await client.chat.completions.create(model="gpt-35-turbo", messages=[{"role": "user", "content": "Hello world"}]) # model = model deployment name
print(response.model_dump_json(indent=2))
asyncio.run(main())
인증
from azure.identity import DefaultAzureCredential, get_bearer_token_provider
from openai import AzureOpenAI
token_provider = get_bearer_token_provider(DefaultAzureCredential(), "https://cognitiveservices.azure.com/.default")
api_version = "2024-02-01"
endpoint = "https://my-resource.openai.azure.com"
client = AzureOpenAI(
api_version=api_version,
azure_endpoint=endpoint,
azure_ad_token_provider=token_provider,
)
completion = client.chat.completions.create(
model="deployment-name", # model = "deployment_name"
messages=[
{
"role": "user",
"content": "How do I output all files in a directory using Python?",
},
],
)
print(completion.model_dump_json(indent=2))
데이터 사용
이러한 코드 예를 작동시키는 데 필요한 전체 구성 단계는 데이터 사용 빠른 시작을 참조하세요.
import os
import openai
import dotenv
dotenv.load_dotenv()
endpoint = os.environ.get("AZURE_OPENAI_ENDPOINT")
api_key = os.environ.get("AZURE_OPENAI_API_KEY")
deployment = os.environ.get("AZURE_OPEN_AI_DEPLOYMENT_ID")
client = openai.AzureOpenAI(
base_url=f"{endpoint}/openai/deployments/{deployment}/extensions",
api_key=api_key,
api_version="2023-08-01-preview",
)
completion = client.chat.completions.create(
model=deployment, # model = "deployment_name"
messages=[
{
"role": "user",
"content": "How is Azure machine learning different than Azure OpenAI?",
},
],
extra_body={
"dataSources": [
{
"type": "AzureCognitiveSearch",
"parameters": {
"endpoint": os.environ["AZURE_AI_SEARCH_ENDPOINT"],
"key": os.environ["AZURE_AI_SEARCH_API_KEY"],
"indexName": os.environ["AZURE_AI_SEARCH_INDEX"]
}
}
]
}
)
print(completion.model_dump_json(indent=2))
DALL-E 픽스
import time
import json
import httpx
import openai
class CustomHTTPTransport(httpx.HTTPTransport):
def handle_request(
self,
request: httpx.Request,
) -> httpx.Response:
if "images/generations" in request.url.path and request.url.params[
"api-version"
] in [
"2023-06-01-preview",
"2023-07-01-preview",
"2023-08-01-preview",
"2023-09-01-preview",
"2023-10-01-preview",
]:
request.url = request.url.copy_with(path="/openai/images/generations:submit")
response = super().handle_request(request)
operation_location_url = response.headers["operation-location"]
request.url = httpx.URL(operation_location_url)
request.method = "GET"
response = super().handle_request(request)
response.read()
timeout_secs: int = 120
start_time = time.time()
while response.json()["status"] not in ["succeeded", "failed"]:
if time.time() - start_time > timeout_secs:
timeout = {"error": {"code": "Timeout", "message": "Operation polling timed out."}}
return httpx.Response(
status_code=400,
headers=response.headers,
content=json.dumps(timeout).encode("utf-8"),
request=request,
)
time.sleep(int(response.headers.get("retry-after")) or 10)
response = super().handle_request(request)
response.read()
if response.json()["status"] == "failed":
error_data = response.json()
return httpx.Response(
status_code=400,
headers=response.headers,
content=json.dumps(error_data).encode("utf-8"),
request=request,
)
result = response.json()["result"]
return httpx.Response(
status_code=200,
headers=response.headers,
content=json.dumps(result).encode("utf-8"),
request=request,
)
return super().handle_request(request)
client = openai.AzureOpenAI(
azure_endpoint="<azure_endpoint>",
api_key="<api_key>",
api_version="<api_version>",
http_client=httpx.Client(
transport=CustomHTTPTransport(),
),
)
image = client.images.generate(prompt="a cute baby seal")
print(image.data[0].url)
이름 변경
참고 항목
모든 a* 메서드가 제거되었습니다. 대신 비동기 클라이언트를 사용해야 합니다.
OpenAI Python 0.28.1 | OpenAI Python 1.x |
---|---|
openai.api_base |
openai.base_url |
openai.proxy |
openai.proxies |
openai.InvalidRequestError |
openai.BadRequestError |
openai.Audio.transcribe() |
client.audio.transcriptions.create() |
openai.Audio.translate() |
client.audio.translations.create() |
openai.ChatCompletion.create() |
client.chat.completions.create() |
openai.Completion.create() |
client.completions.create() |
openai.Edit.create() |
client.edits.create() |
openai.Embedding.create() |
client.embeddings.create() |
openai.File.create() |
client.files.create() |
openai.File.list() |
client.files.list() |
openai.File.retrieve() |
client.files.retrieve() |
openai.File.download() |
client.files.retrieve_content() |
openai.FineTune.cancel() |
client.fine_tunes.cancel() |
openai.FineTune.list() |
client.fine_tunes.list() |
openai.FineTune.list_events() |
client.fine_tunes.list_events() |
openai.FineTune.stream_events() |
client.fine_tunes.list_events(stream=True) |
openai.FineTune.retrieve() |
client.fine_tunes.retrieve() |
openai.FineTune.delete() |
client.fine_tunes.delete() |
openai.FineTune.create() |
client.fine_tunes.create() |
openai.FineTuningJob.create() |
client.fine_tuning.jobs.create() |
openai.FineTuningJob.cancel() |
client.fine_tuning.jobs.cancel() |
openai.FineTuningJob.delete() |
client.fine_tuning.jobs.create() |
openai.FineTuningJob.retrieve() |
client.fine_tuning.jobs.retrieve() |
openai.FineTuningJob.list() |
client.fine_tuning.jobs.list() |
openai.FineTuningJob.list_events() |
client.fine_tuning.jobs.list_events() |
openai.Image.create() |
client.images.generate() |
openai.Image.create_variation() |
client.images.create_variation() |
openai.Image.create_edit() |
client.images.edit() |
openai.Model.list() |
client.models.list() |
openai.Model.delete() |
client.models.delete() |
openai.Model.retrieve() |
client.models.retrieve() |
openai.Moderation.create() |
client.moderations.create() |
openai.api_resources |
openai.resources |
제거됨
openai.api_key_path
openai.app_info
openai.debug
openai.log
openai.OpenAIError
openai.Audio.transcribe_raw()
openai.Audio.translate_raw()
openai.ErrorObject
openai.Customer
openai.api_version
openai.verify_ssl_certs
openai.api_type
openai.enable_telemetry
openai.ca_bundle_path
openai.requestssession
(OpenAI는 이제httpx
를 사용함)openai.aiosession
(OpenAI는 이제httpx
를 사용함)openai.Deployment
(이전에는 Azure OpenAI에 사용됨)openai.Engine
openai.File.find_matching_files()