Catatan
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba masuk atau mengubah direktori.
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba mengubah direktori.
Gunakan JavaScript untuk membangun fitur AI generatif ke aplikasi web, seluler, dan desktop Anda. Gambaran umum ini menyoroti konsep inti, alat, dan sumber daya pembelajaran untuk membantu Anda memulai.
Mengapa menggunakan JavaScript untuk AI?
Python adalah pilihan umum untuk melatih model AI, tetapi sebagian besar pengembang aplikasi menggunakan model melalui API web. Karena JavaScript berjalan di seluruh browser dan server dan menangani panggilan HTTP dengan baik, ini adalah pilihan praktis untuk membangun aplikasi AI.
Ikuti kursus pendamping
Gunakan kursus pendamping untuk mempelajari melalui video, proyek kode, dan sampel end-to-end lengkap.
Jika Anda seorang siswa atau pengembang baru, kursus ini memberi Anda cara praktis untuk mempelajari AI. Jika Anda sudah membangun aplikasi secara profesional, ini membantu Anda memperdalam keterampilan AI Anda.
Dalam kursus ini, Anda:
- Pelajari AI saat Anda menghidihkan tokoh-tokoh sejarah dengan AI generatif.
- Terapkan aksesibilitas dengan menggunakan API browser bawaan.
- Gunakan pembuatan teks dan gambar untuk mengintegrasikan AI ke dalam pengalaman aplikasi.
- Pelajari pola arsitektur untuk aplikasi AI.
Gunakan aplikasi pendamping untuk berbicara dengan karakter historis
Apa yang harus diketahui tentang LLM
Model bahasa besar (LLM) adalah jaringan neural yang dilatih pada himpunan data besar untuk memahami dan menghasilkan teks. Pelatihan biasanya dimulai dengan model dasar yang luas dan kemudian menambahkan penyempurnaan untuk tugas tertentu. LLM dapat membantu skenario seperti penyelesaian kode dan obrolan, tetapi mereka juga memiliki batasan, termasuk jendela konteks dan kemungkinan bias dalam data pelatihan. Itulah sebabnya praktik AI yang bertanggung jawab seperti keadilan, keandalan, privasi, dan akuntabilitas sangat penting.
Pelajari lebih lanjut di sesi LLM dari kursus.
Menggunakan teknik rekayasa pemicu
Rekayasa prompt adalah praktik menulis perintah yang memandu model menuju hasil yang lebih baik. Gunakan perintah nol-bidikan saat Anda tidak memerlukan contoh, atau perintah beberapa bidikan saat contoh membantu. Instruksi yang jelas, konteks yang relevan, dan format output eksplisit sering meningkatkan respons dan mempersiapkan Anda untuk pola yang lebih canggih seperti RAG.
Pelajari lebih lanjut di sesi rekayasa prompt dari kursus:
Meningkatkan akurasi dan keandalan AI dengan RAG
Gunakan retrieval-augmented generation (RAG) untuk mengaitkan respons model pada data terpercaya yang terkini. RAG menggabungkan retriever yang menemukan konten yang relevan dengan generator yang menggunakan konten tersebut untuk menjawab pertanyaan. Pendekatan ini dapat meningkatkan akurasi, membuat respons lebih mudah diverifikasi, dan mengontrol biaya. Misalnya, aplikasi dukungan real estat dapat menggunakan dokumen perusahaan untuk menjawab pertanyaan pelanggan terperinci.
Pelajari lebih lanjut dalam sesi RAG dari kursus:
Mempercepat pengembangan AI Anda dengan LangChain.js
Percepat proyek AI Anda dengan LangChain.js. Pustaka JavaScript ini membantu Anda membangun templat perintah, menyambungkan model dan penyimpanan vektor, dan menyusun alur kerja yang kompleks. Ini berfungsi dengan baik untuk prototipe cepat, seperti API yang menjawab pertanyaan dari transkrip YouTube. Saat siap untuk produksi, Anda dapat menukar model lokal dan penyimpanan vektor untuk layanan Azure tanpa menulis ulang aplikasi Anda.
Pelajari lebih lanjut dalam sesi LangChain.js kursus:
Jalankan model AI di komputer lokal Anda dengan Ollama
Gunakan Ollama untuk menjalankan model AI lokal, termasuk Phi-3, di komputer Anda. Model lokal mengurangi ketergantungan pada cloud, mendukung pengembangan offline, dan memperpendek siklus internal saat Anda menguji ide. Karena Ollama mengekspos API yang kompatibel dengan OpenAI, Anda dapat mengintegrasikannya ke dalam alur kerja JavaScript yang ada dengan perubahan minimal.
Pelajari lebih lanjut dalam sesi Ollama kursus:
Mulai menggunakan AI secara gratis
Anda dapat menjalankan AI secara gratis dengan menggunakan Foundry Local, yang memungkinkan Anda mengunduh model AI dan berinteraksi dengannya secara lokal. Ada juga Toolkit AI untuk Visual Studio Code, ekstensi yang mendukung unduhan model, penyempurnaan, dan banyak lagi. Ollama adalah pilihan populer lainnya untuk menjalankan model lokal.
Anda juga dapat mencoba model tanpa penyiapan lokal dengan membuat GitHub Codespace dan menggunakan notebook Jupyter untuk menguji prompt engineering, pembelajaran beberapa contoh, dan RAG.
Pelajari lebih lanjut dalam sesi Phi-3 dari kursus:
Pengantar Microsoft Foundry
Gunakan Microsoft Foundry untuk mulai membangun aplikasi AI generatif dengan JavaScript. Atur sumber daya dengan hub dan proyek, telusuri model, dan sebarkan model untuk diuji di taman bermain. Baik Anda menggunakan API komputasi terkelola atau tanpa server, alur kerja tetap sama: pilih model, sebarkan, dan integrasikan ke dalam aplikasi Anda.
Pelajari lebih lanjut pada kursus sesi Foundry:
Membangun aplikasi AI generatif dengan Azure Cosmos DB
Pelajari selengkapnya dalam sesi Azure Cosmos DB dari kursus:
Alat dan layanan Azure untuk menghosting dan menyimpan aplikasi AI
Pelajari alat dan layanan Azure mana yang sesuai dengan arsitektur aplikasi AI umum, termasuk aplikasi obrolan, aplikasi RAG, dan agen otonom. Sesi ini juga menunjukkan cara menggunakan Azure Developer CLI (AZD) untuk menyebarkan aplikasi dan membandingkan opsi hosting tanpa server dan berbasis kontainer.
Pelajari selengkapnya di sesi alat dan layanan Azure dalam kursus:
Mengalirkan Hasil AI Generatif dengan Protokol Obrolan AI
Gunakan Protokol Obrolan AI untuk mendukung komunikasi real time antara layanan AI dan aplikasi klien Anda. Anda dapat mengalirkan respons dari browser atau dari server inferensi AI, tergantung pada arsitektur Anda. Saat Anda menerapkan streaming, rencanakan perlindungan kunci API, keamanan data, dan pilihan protokol. Klien protokol mendukung metode seperti getCompletion dan getStreamedCompletion, seperti yang ditunjukkan dalam RAG tanpa server dengan contoh LangChain.js.
Pelajari lebih lanjut di sesi streaming kursus: