Baca dalam bahasa Inggris Edit

Bagikan melalui


Tanya jawab umum tentang Azure OpenAI Service

Jika Anda tidak dapat menemukan jawaban atas pertanyaan Anda dalam dokumen ini, dan masih memerlukan bantuan untuk memeriksa panduan opsi dukungan layanan Azure AI. Azure OpenAI adalah bagian dari layanan Azure AI.

Data dan Privasi

Apakah Anda menggunakan data perusahaan saya untuk melatih salah satu model?

Azure OpenAI tidak menggunakan data pelanggan untuk melatina ulang model. Untuk informasi selengkapnya, lihat panduan data, privasi, dan keamanan Azure OpenAI.

Umum

Apakah Azure OpenAI mendukung header API kustom? Kami menambahkan header kustom tambahan ke permintaan API kami dan melihat kesalahan kegagalan HTTP 431.

API kami saat ini memungkinkan hingga 10 header kustom, yang diteruskan melalui alur, dan dikembalikan. Kami telah melihat beberapa pelanggan sekarang melebihi jumlah header ini yang mengakibatkan kesalahan HTTP 431. Tidak ada solusi untuk kesalahan ini, selain mengurangi volume header. Dalam versi API yang akan datang, kita tidak akan lagi melewati header kustom. Sebaiknya pelanggan tidak bergantung pada header kustom dalam arsitektur sistem di masa mendatang.

Apakah Azure OpenAI berfungsi dengan pustaka Python terbaru yang dirilis oleh OpenAI (versi>=1.0)?

Azure OpenAI didukung oleh rilis terbaru pustaka OpenAI Python (versi>=1.0). Namun, penting untuk mencatat migrasi basis kode Anda menggunakan openai migrate tidak didukung dan tidak akan berfungsi dengan kode yang menargetkan Azure OpenAI.

Saya tidak dapat menemukan Pratinjau Turbo GPT-4, di mana itu?

Pratinjau GPT-4 Turbo adalah gpt-4 model (pratinjau 1106). Untuk menyebarkan model ini, di bawah Penyebaran pilih model gpt-4. Untuk Versi model pilih 1106-preview. Untuk memeriksa wilayah mana model ini tersedia, lihat halaman model.

Apakah Azure OpenAI mendukung GPT-4?

Azure OpenAI mendukung model GPT-4 terbaru. Ini mendukung GPT-4 dan GPT-4-32K.

Bagaimana kemampuan Azure OpenAI dibandingkan dengan OpenAI?

Azure OpenAI Service memberi pelanggan AI bahasa lanjutan dengan model OpenAI GPT-3, Codex, dan DALL-E dengan janji keamanan dan perusahaan Azure. Azure OpenAI codevelops API dengan OpenAI, memastikan kompatibilitas dan transisi yang lancar dari satu ke yang lain.

Dengan Azure OpenAI, pelanggan mendapatkan kemampuan keamanan Microsoft Azure sambil menjalankan model yang sama dengan OpenAI.

Apakah Azure OpenAI mendukung VNET dan Titik Akhir Privat?

Ya, sebagai bagian dari layanan Azure AI, Azure OpenAI mendukung VNET dan Titik Akhir Privat. Untuk mempelajari lebih lanjut , lihat panduan jaringan virtual layanan Azure AI.

Apakah model GPT-4 saat ini mendukung input gambar?

Tidak, GPT-4 dirancang oleh OpenAI untuk menjadi multimodal, tetapi saat ini hanya input dan output teks yang didukung.

Bagaimana cara mengajukan permohonan untuk kasus penggunaan baru?

Sebelumnya, proses untuk menambahkan kasus penggunaan baru mengharuskan pelanggan untuk menerapkan kembali ke layanan. Sekarang, kami merilis proses baru yang memungkinkan Anda menambahkan kasus penggunaan baru dengan cepat ke penggunaan layanan. Proses ini mengikuti proses Akses Terbatas yang ditetapkan dalam layanan Azure AI. Pelanggan yang ada dapat membuktikan setiap dan semua kasus penggunaan baru di sini. Perhatikan bahwa ini diperlukan kapan saja Anda ingin menggunakan layanan untuk kasus penggunaan baru yang awalnya tidak Anda ajukan.

Saya mencoba menggunakan penyematan dan menerima kesalahan "InvalidRequestError: Terlalu banyak input. Jumlah maksimum input adalah 16." Bagaimana cara memperbaikinya?

Kesalahan ini biasanya terjadi ketika Anda mencoba mengirim batch teks untuk disematkan dalam satu permintaan API sebagai array. Saat ini Azure OpenAI hanya mendukung array penyematan dengan beberapa input untuk text-embedding-ada-002 model Versi 2. Versi model ini mendukung array yang terdiri dari hingga 16 input per permintaan API. Panjang array dapat mencapai 8.191 token saat menggunakan model text-embedding-ada-002 (Versi 2).

Di mana saya dapat membaca tentang cara yang lebih baik untuk menggunakan Azure OpenAI untuk mendapatkan respons yang saya inginkan dari layanan?

Lihat pengantar kami untuk meminta rekayasa. Meskipun model ini kuat, perilakunya juga sangat sensitif terhadap perintah yang mereka terima dari pengguna. Hal ini membuat konstruksi yang cepat menjadi keterampilan yang penting untuk dikembangkan. Setelah Anda menyelesaikan pengenalan, lihat artikel kami tentang pesan sistem.

Akun tamu saya telah diberi akses ke sumber daya Azure OpenAI, tetapi saya tidak dapat mengakses sumber daya tersebut di Azure AI Studio. Bagaimana cara mengaktifkan akses?

Ini adalah perilaku yang diharapkan saat menggunakan pengalaman masuk default untuk Azure AI Studio.

Untuk mengakses Azure AI Studio dari akun tamu yang telah diberikan akses ke sumber daya Azure OpenAI:

  1. Buka sesi browser privat lalu navigasikan ke https://ai.azure.com.
  2. Alih-alih segera memasukkan kredensial akun tamu Anda, pilih Sign-in options
  3. Sekarang pilih Masuk ke organisasi
  4. Masukkan nama domain organisasi yang memberikan akses akun tamu Anda ke sumber daya Azure OpenAI.
  5. Sekarang masuk dengan kredensial akun tamu Anda.

Anda sekarang dapat mengakses sumber daya melalui Azure AI Studio.

Atau jika Anda masuk ke portal Azure dari panel Gambaran Umum sumber daya Azure OpenAI, Anda dapat memilih Buka Azure AI Studio untuk masuk secara otomatis dengan konteks organisasi yang sesuai.

Ketika saya bertanya kepada GPT-4 model mana yang dijalankannya, itu memberi tahu saya bahwa model tersebut menjalankan GPT-3. Mengapa hal ini terjadi?

Model Azure OpenAI (termasuk GPT-4) tidak dapat mengidentifikasi model apa yang berjalan dengan benar adalah perilaku yang diharapkan.

Mengapa hal ini terjadi?

Pada akhirnya, model melakukan prediksi token berikutnya sebagai respons atas pertanyaan Anda. Model tidak memiliki kemampuan asli untuk mengkueri versi model apa yang saat ini sedang dijalankan untuk menjawab pertanyaan Anda. Untuk menjawab pertanyaan ini, Anda selalu dapat membuka Penyebaran> Manajemen>Azure AI Studio>dan berkonsultasi dengan kolom nama model untuk mengonfirmasi model apa yang saat ini terkait dengan nama penyebaran tertentu.

Pertanyaan, "Model apa yang Anda jalankan?" atau "Apa model terbaru dari OpenAI?" menghasilkan hasil kualitas yang sama untuk menanyakan model apa cuacanya hari ini. Ini mungkin mengembalikan hasil yang benar, tetapi murni secara kebetulan. Dengan sendirinya, model tidak memiliki informasi dunia nyata selain apa yang merupakan bagian dari data pelatihan/pelatihannya. Dalam kasus GPT-4, per Agustus 2023 data pelatihan yang mendasar hanya naik hingga September 2021. GPT-4 tidak dirilis hingga Maret 2023, jadi mengharuskan OpenAI merilis versi baru dengan data pelatihan yang diperbarui, atau versi baru yang disempurnakan untuk menjawab pertanyaan spesifik tersebut, perilaku yang diharapkan bagi GPT-4 untuk menanggapi bahwa GPT-3 adalah rilis model terbaru dari OpenAI.

Jika Anda ingin membantu model berbasis GPT untuk secara akurat menanggapi pertanyaan "model apa yang Anda jalankan?", Anda perlu memberikan informasi tersebut kepada model melalui teknik seperti rekayasa cepat pesan sistem model, Pengambilan Augmented Generation (RAG) yang merupakan teknik yang digunakan oleh Azure OpenAI pada data Anda di mana informasi terbaru disuntikkan ke pesan sistem pada waktu kueri, atau melalui penyempurnaan di mana Anda dapat menyempurnakan versi model tertentu untuk menjawab pertanyaan tersebut dengan cara tertentu berdasarkan versi model.

Untuk mempelajari lebih lanjut tentang bagaimana model GPT dilatih dan bekerja, sebaiknya tonton pembicaraan Andrej Karpathy dari Build 2023 tentang status GPT.

Saya bertanya kepada model ketika cutoff pengetahuannya adalah dan itu memberi saya jawaban yang berbeda dari apa yang ada di halaman model Azure OpenAI. Mengapa hal ini terjadi?

Ini adalah perilaku yang diharapkan. Model tidak dapat menjawab pertanyaan tentang diri mereka sendiri. Jika Anda ingin tahu kapan potongan pengetahuan untuk data pelatihan model adalah, lihat halaman model.

Saya mengajukan pertanyaan kepada model tentang sesuatu yang terjadi baru-baru ini sebelum pemotongan pengetahuan dan itu mendapat jawaban yang salah. Mengapa hal ini terjadi?

Ini adalah perilaku yang diharapkan. Pertama, tidak ada jaminan bahwa setiap peristiwa baru-baru ini adalah bagian dari data pelatihan model. Dan bahkan ketika informasi adalah bagian dari data pelatihan, tanpa menggunakan teknik tambahan seperti Retrieval Augmented Generation (RAG) untuk membantu membumikan respons model selalu ada kemungkinan respons yang tidak teralihkan terjadi. Baik Azure OpenAI menggunakan fitur data Anda dan Bing Chat menggunakan model Azure OpenAI yang dikombinasikan dengan Pengambilan Augmented Generation untuk membantu respons model dasar lebih lanjut.

Frekuensi bahwa bagian informasi tertentu yang muncul dalam data pelatihan juga dapat memengaruhi kemungkinan model akan merespons dengan cara tertentu.

Menanyakan model Pratinjau GPT-4 Turbo terbaru tentang sesuatu yang lebih baru-baru ini berubah seperti "Siapa perdana menteri Selandia Baru?", kemungkinan akan menghasilkan respons Jacinda Ardernfabrikasi . Namun, bertanya kepada model "Kapan mundur Jacinda Ardern sebagai perdana menteri?" Cenderung menghasilkan respons yang akurat yang menunjukkan pengetahuan data pelatihan setidaknya januari 2023.

Jadi meskipun dimungkinkan untuk memeriksa model dengan pertanyaan untuk menebak pemotongan pengetahuan data pelatihannya, halaman model adalah tempat terbaik untuk memeriksa potongan pengetahuan model.

Di mana saya dapat mengakses informasi harga untuk model warisan, yang tidak lagi tersedia untuk penyebaran baru?

Informasi harga warisan tersedia melalui file PDF yang dapat diunduh. Untuk semua model lainnya, lihat halaman harga resmi.

Bagaimana cara memperbaiki InternalServerError - 500 - Gagal membuat penyelesaian saat model menghasilkan output Unicode yang tidak valid?

Anda dapat meminimalkan terjadinya kesalahan ini dengan mengurangi suhu permintaan Anda menjadi kurang dari 1 dan memastikan Anda menggunakan klien dengan logika coba lagi. Memasang ulang permintaan sering kali menghasilkan respons yang berhasil.

Kami melihat biaya yang terkait dengan panggilan API yang gagal diselesaikan dengan kode status 400. Mengapa panggilan API yang gagal menghasilkan biaya?

Jika layanan melakukan pemrosesan, Anda akan dikenakan biaya bahkan jika kode status tidak berhasil (bukan 200). Contoh umum dari ini adalah, kesalahan 400 karena filter konten atau batas input, atau kesalahan 408 karena batas waktu. Biaya juga akan terjadi ketika status 200 diterima dengan finish_reason .content_filter Dalam hal ini perintah tidak memiliki masalah, tetapi penyelesaian yang dihasilkan oleh model terdeteksi melanggar aturan pemfilteran konten, yang mengakibatkan penyelesaian difilter. Jika layanan tidak melakukan pemrosesan, Anda tidak akan dikenakan biaya. Misalnya, kesalahan 401 karena autentikasi atau kesalahan 429 karena melebihi Batas Tarif.

Mendapatkan akses ke Layanan Azure OpenAI

Bagaimana cara mendapatkan akses ke Azure OpenAI?

Formulir pendaftaran Akses Terbatas tidak diperlukan untuk mengakses sebagian besar model Azure OpenAI. Pelajari selengkapnya di halaman Akses Terbatas Azure OpenAI.

Mempelajari lebih lanjut dan di mana mengajukan pertanyaan

Di mana saya dapat membaca tentang pembaruan terbaru untuk Azure OpenAI?

Untuk pembaruan bulanan, lihat halaman baru kami.

Di mana saya bisa mendapatkan pelatihan untuk mulai belajar dan membangun keterampilan saya di sekitar Azure OpenAI?

Lihat pengenalan kursus pelatihan Azure OpenAI kami.

Di mana saya dapat memposting pertanyaan dan melihat jawaban atas pertanyaan umum lainnya?

Ke mana saya harus pergi untuk dukungan pelanggan Azure OpenAI?

Azure OpenAI adalah bagian dari layanan Azure AI. Anda dapat mempelajari tentang semua opsi dukungan untuk layanan Azure AI dalam panduan opsi dukungan dan bantuan.

Model dan penyempurnaan

Model apa yang tersedia?

Di mana saya dapat mengetahui wilayah mana model tersedia?

Lihat panduan ketersediaan model Azure OpenAI untuk ketersediaan wilayah.

Apa itu SLA (Perjanjian Tingkat Layanan) di Azure OpenAI?

Kami menawarkan SLA Ketersediaan untuk semua sumber daya dan SLA Latensi untuk Penyebaran terkelola yang Disediakan. Untuk informasi selengkapnya tentang SLA untuk Layanan Azure OpenAI, lihat halaman Perjanjian Tingkat Layanan (SLA) untuk Layanan Online.

Bagaimana cara mengaktifkan penyempurnaan? Buat model kustom berwarna abu-abu di Azure AI Studio.

Agar berhasil mengakses penyempurnaan, Anda memerlukan Kontributor OpenAI Cognitive Services yang ditetapkan. Bahkan seseorang dengan izin Administrator Layanan tingkat tinggi masih memerlukan akun ini secara eksplisit diatur untuk mengakses penyempurnaan. Untuk informasi selengkapnya, silakan tinjau panduan kontrol akses berbasis peran.

Apa perbedaan antara model dasar dan model yang disempurnakan?

Model dasar adalah model yang belum disesuaikan atau disempurnakan untuk kasus penggunaan tertentu. Model yang disempurnakan adalah versi model dasar yang disesuaikan di mana bobot model dilatih pada serangkaian perintah unik. Model yang disempurnakan memungkinkan Anda mencapai hasil yang lebih baik pada sejumlah tugas yang lebih luas tanpa perlu memberikan contoh terperinci untuk pembelajaran dalam konteks sebagai bagian dari perintah penyelesaian Anda. Untuk mempelajari lebih lanjut, tinjau panduan penyempurnaan kami.

Berapa jumlah maksimum model yang disempurnakan yang dapat saya buat?

100

Mengapa penyebaran model saya yang disempurnakan dihapus?

Jika model yang disesuaikan (disempurnakan) disebarkan selama lebih dari 15 hari di mana tidak ada penyelesaian atau panggilan penyelesaian obrolan yang dilakukan padanya, penyebaran akan dihapus secara otomatis (dan tidak ada biaya hosting lebih lanjut yang dikeluarkan untuk penyebaran tersebut). Model yang dikustomisasi yang mendasar tetap tersedia dan dapat disebarkan ulang kapan saja. Untuk mempelajari lebih lanjut , lihat artikel cara penggunaan.

Bagaimana cara menyebarkan model dengan REST API?

Saat ini ada dua REST API berbeda yang memungkinkan penyebaran model. Untuk fitur penyebaran model terbaru seperti kemampuan untuk menentukan versi model selama penyebaran untuk model seperti text-embedding-ada-002 Versi 2, gunakan panggilan Deployments - Create Or Update REST API.

Dapatkah saya menggunakan kuota untuk meningkatkan batas token maksimum model?

Tidak, alokasi Token Per Menit (TPM) kuota tidak terkait dengan batas token input maksimum model. Batas token input model ditentukan dalam tabel model dan tidak terpengaruh oleh perubahan yang dilakukan pada TPM.

GPT-4 Turbo dengan Visi

Dapatkah saya menyempurnakan kemampuan gambar di GPT-4?

Tidak, kami tidak mendukung penyempurnaan kemampuan gambar GPT-4 saat ini.

Dapatkah saya menggunakan GPT-4 untuk menghasilkan gambar?

Tidak, Anda dapat menggunakan dall-e-3 untuk menghasilkan gambar dan gpt-4-vision-preview untuk memahami gambar.

Jenis file apa yang dapat saya unggah?

Saat ini kami mendukung PNG (.png), JPEG (.jpeg dan .jpg), WEBP (.webp), dan GIF non-animasi (.gif).

Apakah ada batasan ukuran gambar yang dapat saya unggah?

Ya, kami membatasi unggahan gambar hingga 20 MB per gambar.

Dapatkah saya menghapus gambar yang saya unggah?

Tidak, kami akan menghapus gambar untuk Anda secara otomatis setelah diproses oleh model.

Bagaimana cara kerja batas tarif untuk GPT-4 Turbo dengan Visi?

Kami memproses gambar pada tingkat token, sehingga setiap gambar yang kami proses menghitung batas token per menit (TPM) Anda. Lihat bagian Token gambar dari Gambaran Umum untuk detail tentang rumus yang digunakan untuk menentukan jumlah token per gambar.

Dapatkah GPT-4 Turbo dengan Visi memahami metadata gambar?

Tidak, model tidak menerima metadata gambar.

Apa yang terjadi jika gambar saya tidak jelas?

Jika gambar ambigu atau tidak jelas, model akan melakukan yang terbaik untuk menafsirkannya. Namun, hasilnya mungkin kurang akurat. Aturan praktis yang baik adalah bahwa jika manusia rata-rata tidak dapat melihat info dalam gambar pada resolusi yang digunakan dalam mode res rendah/tinggi, model juga tidak dapat.

Apa batasan GPT-4 Turbo yang diketahui dengan Visi?

Lihat bagian batasan GPT-4 Turbo dengan panduan konsep Visi.

Saya terus mendapatkan respons terpotong ketika saya menggunakan model visi GPT-4 Turbo. Mengapa hal ini terjadi?

Secara default GPT-4 vision-preview dan GPT-4 turbo-2024-04-09 memiliki max_tokens nilai 16. Tergantung pada permintaan Anda, nilai ini sering terlalu rendah dan dapat menyebabkan respons terpotong. Untuk mengatasi masalah ini, berikan nilai yang lebih besar max_tokens sebagai bagian dari permintaan API penyelesaian obrolan Anda. GPT-4o default ke 4096 max_tokens.

Asisten

Apakah Anda menyimpan data apa pun yang digunakan di Assistants API?

Ya. Tidak seperti API Penyelesaian Obrolan, Asisten Azure OpenAI adalah API stateful, yang berarti menyimpan data. Ada dua jenis data yang disimpan di Assistants API:

  • Entitas stateful: Utas, pesan, dan eksekusi yang dibuat selama Asisten menggunakan.
  • File: Diunggah selama penyiapan Asisten atau sebagai bagian dari pesan.

Di mana data ini disimpan?

Data disimpan dalam akun penyimpanan aman yang dikelola Microsoft yang dipisahkan secara logis.

Berapa lama data ini disimpan?

Semua data yang digunakan bertahan dalam sistem ini kecuali Anda secara eksplisit menghapus data ini. Gunakan fungsi hapus dengan ID utas utas yang ingin Anda hapus. Menghapus Run di Assistants Playground tidak menghapus utas, namun menghapusnya menggunakan fungsi hapus tidak akan mencantumkannya di halaman utas.

Dapatkah saya membawa penyimpanan data saya sendiri untuk digunakan dengan Asisten?

Tidak. Saat ini Asisten hanya mendukung file lokal yang diunggah ke penyimpanan yang dikelola Asisten. Anda tidak dapat menggunakan akun penyimpanan privat Anda dengan Asisten.

Apakah Asisten mendukung enkripsi kunci yang dikelola pelanggan (CMK)?

Hari ini kami mendukung CMK untuk Utas dan File di Asisten. Lihat halaman Apa yang baru untuk wilayah yang tersedia untuk fitur ini.

Apakah data saya digunakan oleh Microsoft untuk model pelatihan?

Tidak. Data tidak digunakan untuk Microsoft yang tidak digunakan untuk model pelatihan. Lihat dokumentasi AI yang bertanggung jawab untuk informasi selengkapnya.

Di mana data disimpan secara geografis?

Titik akhir Asisten Azure OpenAI bersifat regional, dan data disimpan di wilayah yang sama dengan titik akhir. Untuk informasi selengkapnya, lihat dokumentasi residensi data Azure.

Bagaimana saya ditagih untuk Asisten?

  • Biaya inferensi (input dan output) model dasar yang Anda gunakan untuk setiap Asisten (misalnya gpt-4-0125). Jika Anda telah membuat beberapa Asisten, Anda akan dikenakan biaya untuk model dasar yang dilampirkan ke setiap Asisten.
  • Jika Anda telah mengaktifkan alat Penerjemah Kode. Misalnya jika asisten Anda memanggil Penerjemah Kode secara bersamaan dalam dua utas yang berbeda, ini akan membuat dua sesi Penerjemah Kode, yang masing-masing akan dikenakan biaya. Setiap sesi aktif secara default selama satu jam, yang berarti Anda hanya akan membayar biaya ini sekali jika pengguna Anda terus memberikan instruksi kepada Penerjemah Kode dalam utas yang sama hingga satu jam.
  • Pencarian file ditagih berdasarkan penyimpanan vektor yang digunakan.

Untuk informasi lebih lanjut, lihat halaman harga.

Apakah ada harga atau kuota tambahan untuk menggunakan Asisten?

Tidak. Semua kuota berlaku untuk menggunakan model dengan Asisten.

Apakah Assistants API mendukung model OpenAI non-Azure?

Assistants API hanya mendukung model Azure OpenAI.

Apakah ASSISTANTS API umumnya tersedia?

Assistants API saat ini dalam pratinjau publik. Dapatkan informasi terbaru tentang pembaruan produk terbaru kami dengan mengunjungi halaman Apa yang Baru kami secara berkala.

Apa saja contoh atau sumber daya lain yang dapat saya gunakan untuk mempelajari asisten?

Lihat artikel Konseptual, mulai cepat, panduan untuk informasi tentang memulai dan menggunakan Asisten. Anda juga dapat memeriksa sampel kode Asisten Azure OpenAI di GitHub.

Aplikasi web

Bagaimana cara mengkustomisasi aplikasi web yang diterbitkan?

Anda dapat menyesuaikan aplikasi web yang diterbitkan di portal Azure. Kode sumber untuk aplikasi web yang diterbitkan tersedia di GitHub, di mana Anda dapat menemukan informasi tentang mengubah frontend aplikasi, serta instruksi untuk membangun dan menyebarkan aplikasi.

Apakah aplikasi web saya akan ditimpa saat saya menyebarkan aplikasi lagi dari Azure AI Studio?

Kode aplikasi Anda tidak akan ditimpa saat Memperbarui aplikasi. Aplikasi ini akan diperbarui untuk menggunakan sumber daya Azure OpenAI, indeks Azure AI Search (jika Anda menggunakan Azure OpenAI pada data Anda), dan pengaturan model yang dipilih di Azure AI Studio tanpa perubahan pada tampilan atau fungsionalitas.

Menggunakan data Anda

Apa itu Azure OpenAI pada data Anda?

Azure OpenAI pada data Anda adalah fitur Azure OpenAI Services yang membantu organisasi menghasilkan wawasan, konten, dan pencarian yang disesuaikan menggunakan sumber data yang ditunjuk. Ini bekerja dengan kemampuan model OpenAI di Azure OpenAI untuk memberikan respons yang lebih akurat dan relevan terhadap kueri pengguna dalam bahasa alami. Azure OpenAI pada data Anda dapat diintegrasikan dengan aplikasi dan alur kerja pelanggan yang ada, menawarkan wawasan tentang indikator performa utama, dan dapat berinteraksi dengan pengguna dengan mulus.

Bagaimana cara mengakses Azure OpenAI pada data Anda?

Semua pelanggan Azure OpenAI dapat menggunakan Azure OpenAI pada data Anda melalui studio Azure AI dan Rest API.

Sumber data apa yang didukung Azure OpenAI pada data Anda?

Azure OpenAI pada data Anda mendukung penyerapan dari Azure AI Search, Azure Blob Storage, dan mengunggah file lokal. Anda dapat mempelajari selengkapnya tentang Azure OpenAI pada data Anda dari artikel konseptual dan mulai cepat.

Berapa biaya untuk menggunakan Azure OpenAI pada data Anda?

Saat menggunakan Azure OpenAI pada data Anda, Anda dikenakan biaya saat menggunakan Azure AI Search, Azure Blob Storage, Azure Web App Service, pencarian semantik, dan model OpenAI. Tidak ada biaya tambahan untuk menggunakan fitur "data Anda" di Azure AI Studio.

Bagaimana cara menyesuaikan atau mengotomatiskan proses pembuatan indeks?

Anda dapat menyiapkan indeks sendiri menggunakan skrip yang disediakan di GitHub. Menggunakan skrip ini akan membuat indeks Pencarian Azure AI dengan semua informasi yang diperlukan untuk menggunakan data Anda dengan lebih baik, dengan dokumen Anda dipecah menjadi gugus yang dapat dikelola. Lihat file README dengan kode persiapan data untuk detail tentang cara menjalankannya.

Bagaimana cara memperbarui indeks saya?

Anda dapat menjadwalkan refresh indeks otomatis, atau mengunggah data tambahan ke Kontainer Azure Blob Anda dan menggunakannya sebagai sumber data saat membuat indeks baru. Indeks baru akan menyertakan semua data dalam kontainer Anda.

Jenis file apa yang didukung Azure OpenAI pada data Anda?

Lihat Menggunakan data Anda untuk informasi selengkapnya tentang jenis file yang didukung.

Apakah AI bertanggung jawab didukung oleh Azure OpenAI pada data Anda?

Ya, Azure OpenAI pada data Anda adalah bagian dari Layanan Azure OpenAI dan berfungsi dengan model yang tersedia di Azure OpenAI. Fitur pemfilteran konten dan pemantauan penyalahgunaan Azure OpenAI masih berlaku. Untuk informasi selengkapnya, lihat gambaran umum praktik AI bertanggung jawab untuk model Azure OpenAI dan Catatan Transparansi untuk Azure OpenAI untuk panduan tambahan tentang penggunaan Azure OpenAI pada data Anda secara bertanggung jawab.

Apakah ada batas token pada pesan sistem?

Ya, batas token pada pesan sistem adalah 400. Jika pesan sistem lebih dari 400 token, sisa token di luar 400 pertama akan diabaikan. Batasan ini hanya berlaku untuk Azure OpenAI pada fitur data Anda.

Apakah Azure OpenAI pada panggilan fungsi dukungan data Anda?

Azure OpenAI pada data Anda saat ini tidak mendukung panggilan fungsi.

Apakah bahasa kueri dan bahasa sumber data harus sama?

Anda harus mengirim kueri dalam bahasa data yang sama. Data Anda dapat berada dalam salah satu bahasa yang didukung oleh Azure AI Search.

Jika Pencarian Semantik diaktifkan untuk sumber daya Azure AI Search saya, apakah akan diterapkan secara otomatis ke Azure OpenAI pada data Anda di Azure AI Studio?

Saat Anda memilih "Pencarian Azure AI" sebagai sumber data, Anda dapat memilih untuk menerapkan pencarian semantik. Jika Anda memilih "Kontainer Blob Azure" atau "Unggah file" sebagai sumber data, Anda dapat membuat indeks seperti biasa. Setelah itu Anda akan menyerap kembali data menggunakan opsi "Pencarian Azure AI" untuk memilih indeks yang sama dan menerapkan Pencarian Semantik. Anda kemudian akan siap untuk mengobrol pada data Anda dengan pencarian semantik diterapkan.

Bagaimana cara menambahkan penyematan vektor saat mengindeks data saya?

Saat Anda memilih "Kontainer Blob Azure", "Pencarian Azure AI", atau "Unggah file" sebagai sumber data, Anda juga dapat memilih penyebaran model penyematan Ada untuk digunakan saat menyerap data Anda. Ini akan membuat indeks Pencarian Azure AI dengan penyematan vektor.

Mengapa pembuatan indeks gagal setelah saya menambahkan model penyematan?

Pembuatan indeks dapat gagal saat menambahkan penyematan ke indeks Anda jika batas laju pada penyebaran model Penyematan Ada Anda terlalu rendah, atau jika Anda memiliki sekumpulan dokumen yang sangat besar. Anda dapat menggunakan skrip ini yang disediakan di GitHub untuk membuat indeks dengan penyematan secara manual.

Komitmen Hak Cipta Pelanggan

Bagaimana cara mendapatkan cakupan berdasarkan Komitmen Hak Cipta Pelanggan?

Komitmen Hak Cipta Pelanggan adalah ketentuan yang akan disertakan dalam 1 Desember 2023, Ketentuan Produk Microsoft yang menjelaskan kewajiban Microsoft untuk membela pelanggan terhadap klaim kekayaan intelektual pihak ketiga tertentu yang berkaitan dengan Konten Output. Jika subjek klaim adalah Konten Output yang dihasilkan dari Layanan Azure OpenAI (atau Produk Tercakup lainnya yang memungkinkan pelanggan untuk mengonfigurasi sistem keselamatan), maka untuk menerima cakupan, pelanggan harus telah menerapkan semua mitigasi yang diperlukan oleh dokumentasi Azure OpenAI Service dalam penawaran yang mengirimkan Konten Output. Mitigasi yang diperlukan didokumenkan di sini dan diperbarui secara berkelanjutan. Untuk layanan, fitur, model, atau kasus penggunaan baru, persyaratan CCC baru akan diposting dan berlaku pada atau setelah peluncuran layanan, fitur, model, atau kasus penggunaan tersebut. Jika tidak, pelanggan akan memiliki waktu enam bulan sejak publikasi untuk menerapkan mitigasi baru untuk mempertahankan cakupan di bawah CCC. Jika pelanggan melakukan tender klaim, pelanggan akan diminta untuk menunjukkan kepatuhan terhadap persyaratan yang relevan. Mitigasi ini diperlukan untuk Produk Tercakup yang memungkinkan pelanggan untuk mengonfigurasi sistem keselamatan, termasuk Layanan Azure OpenAI; mereka tidak memengaruhi cakupan bagi pelanggan yang menggunakan Produk Tercakup lainnya.