Bagikan melalui


Mulai menggunakan AI di Windows

Kemampuan untuk membangun pengalaman AI yang cerdas di Windows dan bersamanya berkembang dengan cepat. Windows Copilot Runtime menawarkan fitur yang didukung AI dan APIs di PC Copilot+. Fitur-fitur ini dalam pengembangan aktif dan berjalan secara lokal di latar belakang setiap saat. Pelajari selengkapnya tentang Windows Copilot Runtime.

Selain Windows Copilot Runtime, Microsoft menawarkan berbagai layanan, dukungan, dan panduan AI. Untuk memulai dan mempelajari cara mengintegrasikan AI dengan aman untuk kebutuhan bisnis Anda, jelajahi panduan dalam dokumentasi Windows AI kami, termasuk:

Bagaimana Anda dapat menggunakan AI di aplikasi Windows Anda?

Beberapa cara agar aplikasi Windows dapat memanfaatkan model Pembelajaran Mesin (ML) untuk meningkatkan fungsionalitas dan pengalaman pengguna mereka dengan AI, meliputi:

  • Aplikasi dapat menggunakan model AI Generatif untuk memahami topik kompleks untuk meringkas, menulis ulang, melaporkan, atau memperluas.
  • Aplikasi dapat menggunakan model yang mengubah konten bentuk bebas menjadi format terstruktur yang dapat dipahami aplikasi Anda.
  • Aplikasi dapat menggunakan model Pencarian Semantik yang memungkinkan pengguna mencari konten dengan makna dan menemukan konten terkait dengan cepat.
  • Aplikasi dapat menggunakan model pemrosesan bahasa alami untuk alasan persyaratan bahasa alami yang kompleks, dan merencanakan dan menjalankan tindakan untuk mencapai permintaan pengguna.
  • Aplikasi dapat menggunakan model manipulasi gambar untuk memodifikasi gambar, menghapus, atau menambahkan subjek, skala besar, atau menghasilkan konten baru secara cerdas.
  • Aplikasi dapat menggunakan model diagnostik prediktif untuk membantu mengidentifikasi dan memprediksi masalah serta membantu memandu pengguna atau melakukannya untuk mereka.

Pilih antara layanan AI berbasis cloud dan lokal

Mengintegrasikan AI ke dalam aplikasi Windows Anda dapat dicapai melalui dua metode utama: model lokal atau model berbasis cloud. Ada beberapa aspek yang perlu dipertimbangkan saat menentukan opsi yang tepat untuk kebutuhan Anda.

  • Ketersediaan Sumber Daya

    • Perangkat Lokal: Menjalankan model tergantung pada sumber daya yang tersedia pada perangkat yang digunakan, termasuk kapasitas CPU, GPU, NPU, memori, dan penyimpanan. Ini dapat membatasi jika perangkat tidak memiliki daya komputasi yang tinggi atau penyimpanan yang cukup. Model Bahasa Kecil (SLM), seperti Phi, lebih ideal untuk digunakan secara lokal pada perangkat. Copilot+ PC menawarkan model bawaan yang dijalankan oleh Windows Copilot Runtime dengan fitur AI siap pakai.
    • Cloud: platform Cloud, seperti Azure AI Services, menawarkan sumber daya yang dapat diskalakan. Anda dapat menggunakan daya komputasi atau penyimpanan sebanyak yang Anda butuhkan dan hanya membayar untuk apa yang Anda gunakan. Model Bahasa Besar (LLM), seperti model bahasa OpenAI, membutuhkan lebih banyak sumber daya, tetapi juga lebih kuat.
  • Privasi dan Keamanan Data

    • Perangkat Lokal: Karena data tetap ada di perangkat, menjalankan model secara lokal dapat menawarkan manfaat mengenai keamanan dan privasi, dengan tanggung jawab keamanan data yang berada di pengguna.
    • Cloud: penyedia cloud menawarkan langkah-langkah keamanan yang kuat, tetapi data perlu ditransfer ke cloud, yang mungkin meningkatkan masalah privasi data untuk bisnis atau manajemen layanan aplikasi dalam beberapa kasus.
  • Aksesibilitas dan Kolaborasi

    • Perangkat Lokal: Model dan data hanya dapat diakses di perangkat kecuali dibagikan secara manual. Ini berpotensi membuat kolaborasi pada data model lebih menantang.
    • Cloud: Model dan data dapat diakses dari mana saja dengan konektivitas internet. Ini mungkin lebih baik untuk skenario kolaborasi.
  • Biaya

    • Perangkat Lokal: Tidak ada biaya tambahan di luar investasi awal dalam perangkat keras perangkat.
    • Cloud: Meskipun platform cloud beroperasi pada model bayar sesuai penggunaan, biaya dapat terakumulasi berdasarkan sumber daya yang digunakan dan durasi penggunaan.
  • Pemeliharaan dan Pembaruan

    • Perangkat Lokal: Pengguna bertanggung jawab untuk mempertahankan sistem dan menginstal pembaruan.
    • Cloud: Pemeliharaan, pembaruan sistem, dan pembaruan fitur baru ditangani oleh penyedia layanan cloud, mengurangi overhead pemeliharaan untuk pengguna.

Gunakan Windows Copilot Runtime

Ketika model AI lokal adalah solusi yang tepat, Anda dapat menggunakan fitur Windows Copilot Runtime untuk mengintegrasikan layanan AI untuk pengguna di PC Copilot+. Beberapa fitur AI siap pakai ini yang dapat Anda ketuk dari aplikasi Windows Anda meliputi:

  • Phi Silica: model bahasa lokal yang siap digunakan.
  • Recall: API Aktivitas Pengguna yang menggunakan kecerdasan buatan untuk membantu Anda menelusuri aktivitas sebelumnya, didukung oleh Klik untuk Melakukan, fitur yang menggunakan Phi Silica untuk menyambungkan tindakan ke konten (teks atau gambar) yang ditemukan oleh Recall.
  • Pencitraan AI : untuk menskalakan dan mempertajam gambar menggunakan AI (Resolusi Super Gambar), serta mengidentifikasi objek dalam gambar (Segmentasi Gambar).
  • Windows Studio Effects: untuk menerapkan efek AI ke kamera perangkat atau mikrofon bawaan.

Pelajari selengkapnya tentang fitur yang tersedia di OveviewWindows Copilot Runtime .

Menggunakan APIs berbasis Cloud

Jika solusi berbasis cloud berfungsi lebih baik untuk skenario aplikasi Windows Anda, Anda mungkin tertarik pada beberapa tutorial di bawah ini.

Banyak APIs tersedia untuk mengakses model berbasis cloud untuk mendukung fitur AI di aplikasi Windows Anda, baik model tersebut disesuaikan atau siap digunakan. Menggunakan model berbasis cloud dapat memungkinkan aplikasi Anda untuk tetap disederhanakan dengan mendelegasikan tugas intensif sumber daya ke cloud. Beberapa sumber daya untuk membantu Anda menambahkan APIs yang didukung AI berbasis cloud yang ditawarkan oleh Microsoft atau OpenAI meliputi:

  • Tambahkan penyelesaian obrolan OpenAI ke aplikasi desktop WinUI 3 / SDK Aplikasi Windows Anda: Tutorial tentang cara mengintegrasikan kemampuan penyelesaian OpenAI ChatGPT berbasis cloud ke dalam aplikasi desktop WinUI 3 / SDK Aplikasi Windows.

  • Tambahkan DALL-E ke aplikasi desktop WinUI 3 / SDK Aplikasi Windows Anda: Tutorial tentang cara mengintegrasikan kemampuan pembuatan gambar OpenAI DALL-E berbasis cloud ke dalam aplikasi desktop WinUI 3 / SDK Aplikasi Windows.

  • Buat aplikasi rekomendasi dengan .NET MAUI dan ChatGPT: Tutorial tentang cara membuat contoh aplikasi Rekomendasi yang mengintegrasikan kemampuan penyelesaian OpenAI ChatGPT berbasis cloud ke dalam aplikasi .NET MAUI.

  • Tambahkan DALL-E ke aplikasi desktop Windows .NET MAUI Anda: Tutorial tentang cara mengintegrasikan kemampuan pembuatan gambar OpenAI DALL-E berbasis cloud ke dalam aplikasi .NET MAUI.

  • Layanan Azure OpenAI: Jika Anda ingin aplikasi Windows Anda mengakses model OpenAI, seperti GPT-4, GPT-4 Turbo dengan Vision, GPT-3.5-Turbo, DALLE-3 atau seri model Embeddings, dengan kemampuan keamanan dan perusahaan tambahan Azure, Anda dapat menemukan panduan dalam dokumentasi Azure OpenAI ini.

  • Azure AI Services: Azure menawarkan seluruh rangkaian layanan AI yang tersedia melalui REST APIs dan SDK pustaka klien dalam bahasa pengembangan populer. Untuk informasi selengkapnya, lihat dokumentasi setiap layanan. Layanan berbasis cloud ini membantu pengembang dan organisasi dengan cepat menciptakan aplikasi cerdas, mutakhir, siap pasar, dan bertanggung jawab dengan aplikasi out-of-the-box dan bawaan serta dapat APIs disesuaikan dan model. Contoh aplikasi termasuk pemrosesan bahasa alami untuk percakapan, pencarian, pemantauan, terjemahan, ucapan, visi, dan pengambilan keputusan.

Menggunakan model kustom di komputer lokal Anda

Jika Anda memiliki kemampuan untuk melatih model Anda sendiri menggunakan data pribadi Anda sendiri dengan platform seperti TensorFlow atau PyTorch. Anda dapat mengintegrasikan model kustom tersebut ke dalam aplikasi Windows Anda dengan menjalankannya secara lokal pada perangkat keras perangkat menggunakan ONNX Runtime dan AI Toolkit untuk Visual Studio Code.

AI Toolkit untuk Visual Studio Code adalah Ekstensi Visual Studio Code yang memungkinkan Anda mengunduh dan menjalankan model AI secara lokal, termasuk akses ke akselerasi perangkat keras untuk performa dan skala yang lebih baik melalui DirectML. AI Tookit juga dapat membantu Anda:

  • Menguji model di taman bermain intuitif atau di aplikasi Anda dengan REST API.
  • Menyempurnakan model AI Anda, baik secara lokal maupun di cloud (pada komputer virtual) untuk membuat keterampilan baru, meningkatkan keandalan respons, mengatur nada dan format respons.
  • Menyempurnakan model bahasa kecil (SLM) populer, seperti Phi-3 dan Mistral.
  • Sebarkan fitur AI Anda baik ke cloud atau dengan aplikasi yang berjalan di perangkat.
  • Manfaatkan akselerasi perangkat keras untuk performa yang lebih baik dengan fitur AI menggunakan DirectML. DirectML adalah API tingkat rendah yang memungkinkan perangkat keras perangkat Windows Anda mempercepat performa model ML menggunakan GPU perangkat atau NPU. Memasangkan DirectML dengan ONNX Runtime biasanya merupakan cara paling mudah bagi pengembang untuk membawa AI yang dipercepat perangkat keras kepada pengguna mereka dalam skala besar. Pelajari lebih lanjut: Gambaran Umum DirectML.

Anda mungkin juga ingin melihat konsep penyempurnaan model ini untuk menyesuaikan model yang telah dilatih sebelumnya agar lebih sesuai dengan data Anda.

Menemukan model sumber terbuka

Anda dapat menemukan model ML sumber terbuka di web, beberapa yang paling populer meliputi:

  • Hugging Face: Sebuah hub berisi lebih dari 10.000 model ML yang sudah dilatih sebelumnya untuk pemrosesan bahasa alami, didukung oleh pustaka Transformers. Anda dapat menemukan model untuk klasifikasi teks, jawaban atas pertanyaan, ringkasan, terjemahan, pembuatan, dan lainnya.
  • ONNX Model Zoo: Kumpulan model ML yang telah dilatih sebelumnya dalam format ONNX yang mencakup berbagai domain dan tugas, seperti visi komputer, pemrosesan bahasa alami, ucapan, dan banyak lagi.
  • Qualcomm AI Hub: Platform yang menyediakan akses ke berbagai model dan alat ML yang dioptimalkan untuk perangkat Qualcomm Snapdragon. Anda dapat menemukan model untuk pemrosesan gambar, video, audio, dan sensor, serta kerangka kerja, pustaka, dan SDK untuk membangun dan menyebarkan aplikasi ML di perangkat seluler. Qualcomm AI Hub juga menawarkan tutorial, panduan, dan dukungan komunitas untuk pengembang dan peneliti.
  • Pytorch Hub: Repositori model yang telah dilatih sebelumnya yang dirancang untuk memfasilitasi reproduktifitas penelitian dan memungkinkan penelitian baru. Ini adalah API sederhana dan alur kerja yang menyediakan blok penyusun dasar untuk meningkatkan reproduktifitas penelitian pembelajaran mesin. PyTorch Hub terdiri dari repositori model yang telah dilatih sebelumnya yang dirancang khusus untuk memfasilitasi reproduksi penelitian.
  • TensorFlow Hub: Repositori model ML yang telah dilatih sebelumnya dan komponen yang dapat digunakan kembali untuk TensorFlow, yang merupakan kerangka kerja populer untuk membangun dan melatih model ML. Anda dapat menemukan model untuk pemrosesan gambar, teks, video, dan audio, serta pembelajaran transfer dan penyempurnaan.
  • Model Zoo: Platform yang mengkurasi dan memeringkat model ML open source terbaik untuk berbagai kerangka kerja dan tugas. Anda dapat menelusuri model berdasarkan kategori, kerangka kerja, lisensi, dan peringkat, dan melihat demo, kode, dan makalah untuk setiap model.

Beberapa pustaka model tidak dimaksudkan untuk disesuaikan dan didistribusikan melalui aplikasi, tetapi merupakan alat yang berguna untuk eksplorasi dan penemuan langsung sebagai bagian dari siklus hidup pengembangan, seperti:

  • Ollama : Ollama adalah marketplace model ML yang siap digunakan untuk berbagai tugas, seperti deteksi wajah, analisis sentimen, atau pengenalan ucapan. Anda dapat menelusuri, menguji, dan mengintegrasikan model ke dalam aplikasi dengan beberapa klik.
  • LM Studio: Lmstudio adalah alat yang memungkinkan Anda membuat model ML kustom dari data Anda sendiri, menggunakan antarmuka seret dan letakkan. Anda dapat memilih dari berbagai algoritma ML, prapemroseduran dan memvisualisasikan data Anda, serta melatih dan mengevaluasi model Anda.

Menggunakan praktik AI yang Bertanggung Jawab

Setiap kali Anda mengintegrasikan fitur AI di aplikasi Windows Anda, kami sangat merekomendasikan untuk mengikuti panduan Mengembangkan Aplikasi dan Fitur AI Generatif yang Bertanggung Jawab di Windows.

Panduan ini akan membantu Anda memahami kebijakan, praktik, dan proses tata kelola, mengidentifikasi risiko, merekomendasikan metode pengujian, menggunakan langkah-langkah keamanan seperti moderator dan filter, dan memanggil pertimbangan spesifik saat memilih model yang aman dan bertanggung jawab untuk bekerja.

Windows Copilot Runtime model AI generatif pada perangkat dapat membantu Anda menerapkan fitur keamanan konten lokal, seperti mesin klasifikasi pada perangkat untuk konten berbahaya dan daftar blokir default. Microsoft memprioritaskan pengembang pendukung untuk membangun pengalaman AI yang aman dan dapat dipercaya dengan model lokal di Windows.

Sumber daya tambahan