แชร์ผ่าน


ใช้ Azure OpenAI ใน Fabric กับ Python SDK และ Synapse ML (ตัวอย่าง)

สำคัญ

คุณลักษณะนี้อยู่ในตัวอย่าง

บทความนี้แสดงวิธีใช้ Azure OpenAI ใน Fabric ด้วย OpenAI Python SDK และด้วย SynapseML

ข้อกำหนดเบื้องต้น

OpenAI Python SDK ไม่ได้ติดตั้งในรันไทม์เริ่มต้น คุณจําเป็นต้องติดตั้งก่อน เปลี่ยนสภาพแวดล้อมเป็นเวอร์ชันรันไทม์ 1.3 หรือสูงกว่า

%pip install -U openai

แชท

สร้างเซลล์ใหม่ในสมุดบันทึก Fabric ของคุณเพื่อใช้โค้ดนี้ โดยแยกจากเซลล์ที่อธิบายไว้ในขั้นตอนก่อนหน้าเพื่อติดตั้งไลบรารี OpenAI GPT-4.1 และ GPT-4.1-mini เป็นโมเดลภาษาที่ปรับให้เหมาะกับอินเทอร์เฟซการสนทนา ตัวอย่างที่แสดงที่นี่แสดงการดําเนินการแชทที่สมบูรณ์อย่างง่ายและไม่ได้ตั้งใจที่จะทําหน้าที่เป็นบทช่วยสอน

Note

OpenAI Python SDK เวอร์ชันต่างๆ อาจมีชื่อวิธีการและพารามิเตอร์ที่แตกต่างกัน โปรดดู เอกสารอย่างเป็นทางการ สําหรับเวอร์ชันที่คุณใช้

import openai

response = openai.ChatCompletion.create(
    deployment_id="gpt-4.1",
    messages=[
        
{
  "role": "user",
  "content": """Analyze the following text and return a JSON array of issue insights.

Each item must include:
- issue_brief (1 sentence)
- scenario
- severity (high | medium | low)
- verbatim_quotes (list)
- recommended_fix

Text:
We booked the hotel room in advance for our family trip. The check-in the great however the room service was slow and pool was closed

Return JSON only.
"""
}

    ],

)
print(f"{response.choices[0].message.role}: {response.choices[0].message.content}")

เอาท์พุท


assistant: [
  {
    "issue_brief": "Room service was slow during the stay.",
    "scenario": "Guests experienced delays in receiving room service after check-in.",
    "severity": "medium",
    "verbatim_quotes": [
      "the room service was slow"
    ],
    "recommended_fix": "Improve staffing or training for room service to ensure timely delivery of services."
  },
  {
    "issue_brief": "The hotel pool was unavailable during the stay.",
    "scenario": "Guests were unable to use the pool because it was closed.",
    "severity": "medium",
    "verbatim_quotes": [
      "pool was closed"
    ],
    "recommended_fix": "Notify guests in advance about facility closures and provide alternative amenities or compensation if possible."
  }
]

การฝัง

สร้างเซลล์ใหม่ในสมุดบันทึก Fabric ของคุณเพื่อใช้โค้ดนี้ โดยแยกจากเซลล์ที่อธิบายไว้ในขั้นตอนก่อนหน้าเพื่อติดตั้งไลบรารี openai การฝังเป็นรูปแบบการแสดงข้อมูลพิเศษที่แบบจําลองการเรียนรู้ของเครื่องและอัลกอริทึมสามารถใช้งานได้อย่างง่ายดาย ซึ่งประกอบด้วยความหมายเชิงความหมายที่สมบูรณ์ของข้อความ ซึ่งแสดงโดยเวกเตอร์ของตัวเลขจุดทศนิยมลอยตัว ระยะห่างระหว่างสองการฝังในพื้นที่เวกเตอร์นั้นเกี่ยวข้องกับความคล้ายคลึงกันเชิงความหมายระหว่างอินพุตเดิมสองตัว ตัวอย่างเช่น หากข้อความสองข้อความมีความคล้ายคลึงกัน ตัวแทนเวกเตอร์ของข้อความควรคล้ายกัน

ตัวอย่างที่แสดงที่นี่แสดงวิธีการขอรับการฝัง และไม่ได้ตั้งใจให้เป็นบทช่วยสอน

response = openai.embeddings.create(
         input="The food was delicious and the waiter...",
         model="text-embedding-ada-002"  # Or another embedding model
     )

print(response)

เอาท์พุท

    CreateEmbeddingResponse(
        data=[
            Embedding(
                embedding=[
                    0.0022756962571293116,
                    -0.009305915795266628,
                    0.01574261300265789,
                    ...
                    -0.015387134626507759,
                    -0.019424352794885635,
                    -0.0028009789530187845
                ],
                index=0,
                object='embedding'
        )
        ],
        model='text-embedding-ada-002',
        object='list',
        usage=Usage(
            prompt_tokens=8,
            total_tokens=8
        )
    )