Bagikan melalui


Tanya jawab umum untuk Copilot in Fabric dalam beban kerja database SQL

Berlaku untuk:Database SQL di Microsoft Fabric

Artikel ini menjawab tanya jawab umum tentang Microsoft Copilot di Fabric dalam database SQL.

Copilot sekarang terintegrasi dengan editor kueri, meningkatkan manajemen dan pengoperasian aplikasi yang bergantung pada SQL. Ini meningkatkan produktivitas dengan menawarkan bahasa alami untuk konversi SQL dan bantuan mandiri untuk administrasi database.

Di mana dalam database SQL di Fabric dapat saya temukan Copilot?

Di editor Kueri SQL, Anda bisa menemukan Copilot di berbagai lokasi:

Bagaimana cara mengaktifkan Copilot untuk database SQL saya di Fabric?

Tinjau langkah-langkah dalam Mengaktifkan Copilot di Fabric.

Apakah hasil dari Copilot dapat diandalkan?

Salinan dirancang untuk menghasilkan respons terbaik dengan konteks database yang dapat diaksesnya. Namun, seperti sistem AI apa pun, respons tidak sempurna. Semua respons Copilot harus diuji, ditinjau, dan diperiksa dengan cermat sebelum membuat perubahan pada lingkungan database Fabric SQL Anda.

Apakah Copilot menulis kueri yang sempurna atau optimal?

Copilot bertujuan untuk memberikan respons yang akurat dan informatif berdasarkan data yang tersedia. Jawaban yang dihasilkan didasarkan pada pola dan probabilitas dalam data bahasa, yang berarti bahwa mereka mungkin tidak selalu akurat. Manusia harus hati-hati meninjau, menguji, dan memvalidasi semua konten yang dihasilkan oleh Copilot.

Bagaimana Copilot menggunakan data dari lingkungan database Fabric SQL saya?

Copilot menghasilkan respons yang di-grounded di lingkungan database Fabric SQL Anda. Copilot hanya memiliki akses ke sumber daya yang dapat Anda akses dan hanya dapat melakukan analisis dan tindakan yang dapat Anda lakukan. Copilot menghormati semua manajemen dan perlindungan akses yang ada.

Data apa yang dikumpulkan Copilot?

Perintah yang disediakan pengguna dan respons Copilot tidak digunakan untuk melatih, melatih kembali, atau meningkatkan model fondasi Azure OpenAI Service yang menghasilkan respons. Perintah yang disediakan pengguna dan respons Copilot dikumpulkan dan digunakan untuk meningkatkan produk dan layanan Microsoft hanya ketika pengguna memberikan persetujuan eksplisit untuk menyertakan informasi ini dalam umpan balik. Kami mengumpulkan data keterlibatan pengguna, seperti, jumlah sesi obrolan dan durasi sesi, keterampilan yang digunakan dalam sesi tertentu, jempol ke atas, jempol ke bawah, umpan balik, dll. Informasi ini disimpan dan digunakan seperti yang dijelaskan dalam Pernyataan Privasi Microsoft.

Apa yang harus saya lakukan jika saya melihat konten yang tidak terduga atau menyinggung?

Tim database SQL membangun Copilot yang dipandu oleh prinsip AI kami dan Responsible AI Standard. Kami telah memprioritaskan mitigasi yang mengekspos pelanggan terhadap konten yang menyinggung. Namun, Anda mungkin masih melihat hasil yang tidak terduga. Kami terus berupaya meningkatkan teknologi dalam mencegah konten berbahaya. Untuk informasi selengkapnya, lihat Privasi, keamanan, dan penggunaan Copilot yang bertanggung jawab di Fabric.

Jika Anda menemukan konten yang berbahaya atau tidak pantas dalam sistem, Anda dapat memberikan umpan balik atau melaporkan kekhawatiran dengan memilih tombol downvote pada respons. Kami terus berupaya meningkatkan teknologi kami untuk secara proaktif mengatasi masalah sejalan dengan prinsip AI kami yang bertanggung jawab.

Berapa biaya Copilot?

Untuk mempelajari selengkapnya tentang bagaimana penggunaan Fabric Copilot ditagih dan dilaporkan, lihat Copilot dalam konsumsi Fabric.

Bagaimana permintaan yang dikirimkan dan data kueri dilindungi?

Copilot mengambil beberapa langkah untuk melindungi data termasuk:

  • Data yang dikirimkan dienkripsi baik saat transit maupun saat tidak aktif; Data terkait salinan dienkripsi saat transit menggunakan TLS, dan saat tidak aktif menggunakan enkripsi data Microsoft Azure (standar PUBLIKASI FIPS 140-2).

  • Akses ke data log dan umpan balik dikontrol secara ketat. Data disimpan dalam langganan terpisah. Data hanya dapat diakses oleh 1) Persetujuan JIT Just-In-Time dari personel operasi Azure menggunakan stasiun kerja admin yang aman.

Di mana saya dapat mempelajari selengkapnya tentang privasi dan perlindungan data?

Untuk informasi selengkapnya tentang cara Copilot memproses dan menggunakan data pribadi, lihat Privasi, keamanan, dan penggunaan Copilot yang bertanggung jawab dalam Fabric.