Baca dalam bahasa Inggris Edit

Bagikan melalui


Tanya Jawab Umum tentang menggunakan AI di aplikasi Windows

Umum

Bagaimana cara mengintegrasikan AI ke aplikasi klien Windows saya?

Mengintegrasikan AI ke dalam aplikasi Windows Anda dapat dicapai melalui dua metode utama: model lokal atau model berbasis cloud. Untuk opsi model lokal, Anda memiliki kemampuan untuk menggunakan model yang sudah ada sebelumnya atau melatih anda sendiri menggunakan platform seperti TensorFlow atau PyTorch, lalu memasukkannya ke dalam aplikasi Anda melalui OnnxRuntime. Windows Copilot Runtime menawarkan API untuk berbagai fungsi, termasuk OCR atau menggunakan model Phi Silica. Di sisi lain, menghosting model Anda di cloud dan mengaksesnya melalui REST API memungkinkan aplikasi Anda untuk tetap disederhanakan dengan mendelegasikan tugas intensif sumber daya ke cloud. Lihat Menggunakan model Pembelajaran Mesin di aplikasi Windows Anda untuk informasi selengkapnya.

Bahasa pemrograman apa yang terbaik untuk mengembangkan AI di aplikasi klien Windows?

Anda dapat menggunakan bahasa pemrograman apa pun yang Anda sukai. Misalnya, C# banyak digunakan untuk membuat aplikasi klien Windows. Jika Anda memerlukan kontrol lebih atas detail tingkat rendah, C++ adalah opsi yang sangat baik. Atau, Anda mungkin mempertimbangkan untuk menggunakan Python. Anda juga dapat menggunakan Subsistem Windows untuk Linux (WSL) untuk menjalankan alat AI berbasis Linux di Windows.

Apa saja kerangka kerja AI terbaik untuk aplikasi klien Windows?

Sebaiknya gunakan OnnxRuntime.

Bagaimana cara menangani privasi dan keamanan data saat menggunakan AI di aplikasi klien Windows?

Menghormati privasi dan keamanan data pengguna sangat penting saat mengembangkan aplikasi yang didukung AI. Anda harus mengikuti praktik terbaik untuk penanganan data, seperti mengenkripsi data sensitif, menggunakan koneksi aman, dan mendapatkan persetujuan pengguna sebelum mengumpulkan data. Anda juga harus transparan tentang cara Anda menggunakan data dan memberi pengguna kontrol atas data mereka. Pastikan untuk membaca Mengembangkan Aplikasi dan Fitur AI Generatif yang Bertanggung Jawab di Windows juga.

Apa saja persyaratan sistem untuk menjalankan AI di aplikasi klien Windows?

Persyaratan sistem untuk aplikasi Windows yang menggunakan AI bergantung pada kompleksitas model AI dan akselerasi perangkat keras yang digunakan. Untuk model sederhana, CPU modern mungkin cukup, tetapi untuk model yang lebih kompleks, GPU atau NPU mungkin diperlukan. Anda juga harus mempertimbangkan persyaratan memori dan penyimpanan aplikasi Anda, serta bandwidth jaringan yang diperlukan untuk layanan AI berbasis cloud.

Bagaimana cara mengoptimalkan performa AI di aplikasi klien Windows?

Untuk mengoptimalkan performa AI di aplikasi Windows, Anda harus mempertimbangkan untuk menggunakan akselerasi perangkat keras, seperti GPU atau NPU, untuk mempercepat inferensi model. Laptop Windows Copilot+ dioptimalkan untuk beban kerja AI dan dapat memberikan peningkatan performa yang signifikan untuk tugas AI. Lihat juga AI Toolkit untuk gambaran umum Visual Studio Code.

Dapatkah saya menggunakan model AI yang telah dilatih sebelumnya di aplikasi klien Windows saya?

Ya, Anda dapat menggunakan model AI yang telah dilatih sebelumnya di aplikasi Windows Anda. Anda dapat mengunduh model yang telah dilatih sebelumnya dari internet atau menggunakan layanan AI berbasis cloud untuk mengakses model yang telah dilatih sebelumnya. Anda kemudian dapat mengintegrasikan model ini ke dalam aplikasi Anda menggunakan kerangka kerja seperti OnnxRuntime.

Apa itu DirectML?

DirectML adalah API tingkat rendah untuk pembelajaran mesin yang menyediakan akselerasi GPU untuk tugas pembelajaran mesin umum di berbagai perangkat keras dan driver yang didukung, termasuk semua GPU berkemampuan DirectX 12 dari vendor seperti AMD, Intel, NVIDIA, dan Qualcomm.

Apa itu ONNX?

Buka Network Neural Exchange, atau ONNX, adalah format standar terbuka untuk mewakili model ML. Kerangka kerja model ML populer, seperti PyTorch, TensorFlow, SciKit-Learn, Keras, Chainer, MATLAB, dll., dapat diekspor atau dikonversi ke format ONNX standar. Setelah dalam format ONNX, model dapat berjalan pada berbagai platform dan perangkat. ONNX baik untuk menggunakan model ML dalam format yang berbeda dari yang dilatih.

Apa itu ORT?

OnnxRuntime, atau ORT, adalah alat runtime terpadu untuk mengeksekusi model dalam kerangka kerja yang berbeda (PyTorch, TensorFlow, dll) yang mendukung akselerator perangkat keras (CPU perangkat, GPU, atau NPU).

Bagaimana ONNX berbeda dari kerangka kerja ML lainnya, seperti PyTorch atau TensorFlow?

PyTorch dan TensorFlow digunakan untuk mengembangkan, melatih, dan menjalankan model pembelajaran mendalam yang digunakan dalam aplikasi AI. PyTorch sering digunakan untuk penelitian, TensorFlow sering digunakan untuk penyebaran industri, dan ONNX adalah format pertukaran model standar yang menjembatani kesenjangan, memungkinkan Anda beralih antar kerangka kerja sesuai kebutuhan dan kompatibel di seluruh platform.

Apa itu NPU? Apa perbedaannya dengan CPU atau GPU?

Unit Pemrosesan Neural, atau NPU, adalah chip AI khusus yang dirancang khusus untuk melakukan tugas AI. Fokus NPU berbeda dari CPU atau GPU. Unit Pemrosesan Pusat, atau CPU, adalah prosesor utama di komputer, yang bertanggung jawab untuk menjalankan instruksi dan komputasi tujuan umum. Unit Pemrosesan Grafis, atau GPU, adalah prosesor khusus yang dirancang untuk merender grafik dan dioptimalkan untuk pemrosesan paralel. Ini mampu merender citra kompleks untuk pengeditan video dan tugas game.

NPU dirancang untuk mempercepat algoritma pembelajaran mendalam dan dapat menghapus beberapa pekerjaan dari CPU atau GPU komputer, sehingga perangkat dapat bekerja lebih efisien. NPU dibuat khusus untuk mempercepat tugas jaringan neural. Mereka unggul dalam memproses data dalam jumlah besar secara paralel, membuatnya ideal untuk tugas AI umum seperti pengenalan gambar atau pemrosesan bahasa alami. Sebagai contoh, selama tugas pengenalan gambar, NPU mungkin bertanggung jawab atas deteksi objek atau akselerasi gambar, sementara GPU bertanggung jawab atas penyajian gambar.

Bagaimana cara mengetahui jenis CPU, GPU, atau NPU yang dimiliki perangkat saya?

Untuk memeriksa jenis CPU, GPU, atau NPU di perangkat Windows Anda dan performanya, buka Task Manager (Ctrl + Alt + Delete), lalu pilih tab Performa dan Anda akan dapat melihat CPU, Memori, Wi-Fi, GPU, dan/atau NPU komputer Anda tercantum, bersama dengan informasi tentang kecepatannya, tingkat pemanfaatan, dan data lainnya.

Apa itu WinML?

WinML, atau Windows Pembelajaran Mesin, adalah API tingkat tinggi untuk menyebarkan model pembelajaran mesin yang dipercepat perangkat keras (ML) pada perangkat Windows yang memungkinkan pengembang untuk menggunakan kemampuan perangkat untuk melakukan inferensi model. Fokusnya adalah pada pemuatan, pengikatan, dan evaluasi model. WinML menggunakan format model ONNX.

Konsep AI yang bermanfaat

Apa itu Model Bahasa Besar (LLM)?

LLM adalah jenis model Pembelajaran Mesin (ML) yang dikenal karena kemampuan untuk mencapai pembuatan dan pemahaman bahasa tujuan umum. LLM adalah jaringan neural buatan yang memperoleh kemampuan dengan mempelajari hubungan statistik dari sejumlah besar dokumen teks selama proses pelatihan yang diawasi sendiri dan semi-diawasi secara komputasi intensif. LLM sering digunakan untuk Pembuatan Teks, bentuk AI generatif yang, diberi beberapa teks input, menghasilkan kata (atau "token") yang kemungkinan besar akan membuat kalimat yang relevan secara koheren dan kontekstual sebagai imbalannya. Ada juga Model Bahasa Kecil (SLM) yang memiliki lebih sedikit parameter dan kapasitas yang lebih terbatas, tetapi mungkin lebih efisien (membutuhkan lebih sedikit sumber daya komputasi), hemat biaya, dan ideal untuk domain tertentu.

Apa itu pelatihan model ML?

Dalam Pembelajaran Mesin, pelatihan model melibatkan pengumpanan himpunan data ke dalam model (LLM atau SLM), memungkinkannya untuk belajar dari data sehingga model dapat membuat prediksi atau keputusan berdasarkan data tersebut, mengenali pola. Ini mungkin juga melibatkan penyesuaian parameter model secara berulang untuk mengoptimalkan performanya.

Apa itu Inferensi?

Proses penggunaan model pembelajaran mesin terlatih untuk membuat prediksi atau klasifikasi pada data baru yang tidak jelas disebut "Inferensi". Setelah model bahasa dilatih pada himpunan data, mempelajari pola dan hubungan yang mendasarinya, siap untuk menerapkan pengetahuan ini ke skenario dunia nyata. Inferensi adalah momen kebenaran model AI, pengujian seberapa baik itu dapat menerapkan informasi yang dipelajari selama pelatihan untuk membuat prediksi atau menyelesaikan tugas. Proses penggunaan model yang ada untuk inferensi berbeda dari fase pelatihan, yang memerlukan penggunaan data pelatihan dan validasi untuk mengembangkan model dan menyempurnakan parameternya.

Apa itu penyempurnaan model ML?

Penyempurnaan adalah langkah penting dalam pembelajaran mesin di mana model yang telah dilatih disesuaikan untuk melakukan tugas tertentu. Alih-alih melatih model dari awal, penyempurnaan dimulai dengan model yang ada (biasanya dilatih pada himpunan data besar) dan menyesuaikan parameternya menggunakan himpunan data khusus tugas yang lebih kecil. Dengan menyempurnakan, model mempelajari fitur khusus tugas sambil mempertahankan pengetahuan umum yang diperoleh selama pra-pelatihan, menghasilkan peningkatan performa untuk aplikasi tertentu.

Apa itu rekayasa prompt?

Rekayasa prompt adalah pendekatan strategis yang digunakan dengan AI generatif untuk membentuk perilaku dan respons model bahasa. Ini melibatkan permintaan atau kueri input yang dibuat dengan cermat untuk mencapai hasil yang diinginkan dari model bahasa (seperti GPT-3 atau GPT-4). Dengan merancang perintah yang efektif, Anda dapat memandu model ML untuk menghasilkan jenis respons yang Anda inginkan. Teknik termasuk menyesuaikan kata, menentukan konteks, atau menggunakan kode kontrol untuk memengaruhi output model.

Apa itu akselerasi perangkat keras (sehubungan dengan pelatihan model ML)?

Akselerasi perangkat keras mengacu pada penggunaan perangkat keras komputer khusus yang dirancang untuk mempercepat aplikasi AI di luar apa yang dapat dicapai dengan CPU tujuan umum. Akselerasi perangkat keras meningkatkan kecepatan, efisiensi energi, dan performa keseluruhan tugas pembelajaran mesin, seperti model pelatihan, membuat prediksi, atau membongkar komputasi ke komponen perangkat keras khusus yang unggul dalam pemrosesan paralel untuk beban kerja pembelajaran mendalam. GPU dan NPU adalah contoh akselerator perangkat keras.

Apa perbedaan antara Ilmuwan Data, Insinyur ML, dan Pengembang Aplikasi yang ingin menerapkan fitur AI di aplikasi mereka?

Proses pembuatan dan penggunaan model ML melibatkan tiga peran utama: Ilmuwan Data: Bertanggung jawab untuk menentukan masalah, mengumpulkan dan menganalisis data, memilih dan melatih algoritma ML, serta mengevaluasi dan menafsirkan hasilnya. Mereka menggunakan alat seperti Python, R, Jupyter Notebook, TensorFlow, PyTorch, dan scikit-learn untuk melakukan tugas-tugas ini. Teknisi ML: Bertanggung jawab untuk menyebarkan, memantau, dan memelihara model ML di lingkungan produksi. Mereka menggunakan alat seperti Docker, Kubernetes, Azure ML, AWS SageMaker, dan Google Cloud AI Platform untuk memastikan skalabilitas, keandalan, dan keamanan model ML. Pengembang Aplikasi: Bertanggung jawab untuk mengintegrasikan model ML ke dalam logika aplikasi, UI, dan UX. Mereka menggunakan alat seperti Windows Copilot Runtime, OnnxRuntime, atau REST API dan memproses input pengguna dan output model. Setiap peran melibatkan tanggung jawab dan keterampilan yang berbeda, tetapi kolaborasi dan komunikasi antara peran ini diperlukan untuk mencapai hasil terbaik. Tergantung pada ukuran dan kompleksitas proyek, peran ini dapat dilakukan oleh orang yang sama atau oleh tim yang berbeda.