次の方法で共有


Python SDK と Synapse ML で Fabric の Azure OpenAI を使用する (プレビュー)

重要

この機能はプレビュー段階にあります。

この記事では、OpenAI Python SDK と SynapseML を使用して、Fabric の Azure OpenAI を使用する方法の例を示します。

前提条件

OpenAI Python SDK が既定のランタイムにインストールされておらず、それを最初にインストールする必要があります。

%pip install openai==0.28.1

チャット

ChatGPT と GPT-4 は、会話インターフェイス用に最適化されている言語モデルです。 ここで示す例は、単純なチャット完了操作を示すもので、チュートリアルとして役立つことは意図していません。

import openai

response = openai.ChatCompletion.create(
    deployment_id='gpt-35-turbo-0125', # deployment_id could be one of {gpt-35-turbo-0125 or gpt-4-32k}
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Knock knock."},
        {"role": "assistant", "content": "Who's there?"},
        {"role": "user", "content": "Orange."},
    ],
    temperature=0,
)

print(f"{response.choices[0].message.role}: {response.choices[0].message.content}")

出力

    assistant: Orange who?

また、応答をストリーミングすることもできます

response = openai.ChatCompletion.create(
    deployment_id='gpt-35-turbo-0125', # deployment_id could be one of {gpt-35-turbo-0125 or gpt-4-32k}
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Knock knock."},
        {"role": "assistant", "content": "Who's there?"},
        {"role": "user", "content": "Orange."},
    ],
    temperature=0,
    stream=True
)

for chunk in response:
    delta = chunk.choices[0].delta

    if "role" in delta.keys():
        print(delta.role + ": ", end="", flush=True)
    if "content" in delta.keys():
        print(delta.content, end="", flush=True)

出力

    assistant: Orange who?

埋め込み

埋め込みは、機械学習モデルとアルゴリズムで簡単に利用できる特別なデータ表現形式です。 これには、浮動小数点数のベクトルで表される、情報が豊富な、テキストのセマンティックな意味が含まれています。 ベクトル空間内の 2 つの埋め込み間の距離は、2 つの元の入力間のセマンティック類似性に関連しています。 たとえば、2 つのテキストが似ている場合、それらのベクトル表現も似ているはずです。

ここで示す例は、埋め込みを取得する方法を示すもので、チュートリアルとして意図されていません。

deployment_id = "text-embedding-ada-002" # set deployment_name as text-embedding-ada-002
embeddings = openai.Embedding.create(deployment_id=deployment_id,
                                     input="The food was delicious and the waiter...")
                                
print(embeddings)

出力

    {
      "object": "list",
      "data": [
        {
          "object": "embedding",
          "index": 0,
          "embedding": [
            0.002306425478309393,
            -0.009327292442321777,
            0.015797346830368042,
            ...
            0.014552861452102661,
            0.010463837534189224,
            -0.015327490866184235,
            -0.01937841810286045,
            -0.0028842221945524216
          ]
        }
      ],
      "model": "ada",
      "usage": {
        "prompt_tokens": 8,
        "total_tokens": 8
      }
    }