Bagikan melalui


Gambaran umum AI generatif untuk JavaScript

Temukan kekuatan AI Generatif dengan JavaScript. Pelajari cara mengintegrasikan AI dengan mulus ke aplikasi web, seluler, atau desktop Anda.

JavaScript dengan AI?

Meskipun benar bahwa Python mungkin adalah bahasa terbaik untuk membuat, melatih, dan menyempurnakan model AI, ini adalah cerita yang berbeda ketika masalah membuat aplikasi menggunakan model AI ini. Sebagian besar model AI digunakan menggunakan API web. Itu berarti bahwa bahasa apa pun yang dapat melakukan panggilan HTTP benar-benar dapat melakukan AI. Karena JavaScript adalah lintas platform dan menyediakan integrasi yang mulus antara browser dan lingkungan sisi server, ini adalah pilihan yang bagus untuk aplikasi AI Anda.

Kursus yang menyenangkan dan interaktif

Bergabunglah dengan kami untuk pengalaman belajar imersif termasuk video, proyek kode, dan implementasi penuh untuk menggunakan dan mempelajari tentang AI generatif.

Kursus ini adalah cara yang bagus bagi siswa dan pengembang baru untuk belajar tentang AI dengan cara yang menyenangkan dan interaktif. Bagi pengembang dalam karier, dalami lebih jauh untuk peningkatan keterampilan Anda dalam AI.

Dalam kursus ini:

  • Pelajari AI saat Anda menghidihkan tokoh-tokoh sejarah dengan AI generatif
  • Menerapkan aksesibilitas dengan API browser bawaan
  • Menggunakan pembuatan teks dan gambar untuk mengintegrasikan AI ke dalam pengalaman aplikasi
  • Pelajari pola arsitektur untuk aplikasi AI

gambar Leonardo Da Vinci yang dihasilkan AI yang digunakan dalam aplikasi pendamping untuk berbicara dengan karakter historis.

Gunakan aplikasi pendamping untuk berbicara dengan karakter historis

Apa yang perlu Anda ketahui tentang LLM?

Model Bahasa Besar (LLM), adalah jaringan neural mendalam yang dilatih pada sejumlah besar data untuk mengenali dan menghasilkan teks melalui input yang ditokenisasi. LLM dibangun oleh pelatihan awal pada himpunan data yang beragam dan luas—proses yang mahal—untuk membuat model mendasar, yang kemudian dapat disempurnakan dengan data khusus untuk output kualitas yang lebih tinggi. Dalam praktiknya, model ini berfungsi seperti sistem pelengkapan otomatis tingkat lanjut, baik dalam IDE biasa atau melalui antarmuka obrolan yang mengikuti perintah terperinci. Namun, mereka dibatasi oleh jendela konteks (biasanya beberapa ribu token, meskipun model yang lebih baru mendukung lebih banyak lagi) dan dapat mewarisi bias dari data pelatihan mereka. Ini menggarisbawahi pentingnya praktik AI yang bertanggung jawab, seperti yang dianjurkan oleh Microsoft, yang menekankan kewajaran, keandalan, privasi, dan akuntabilitas dalam pengembangan AI.

Pelajari lebih lanjut di sesi LLM dari kursus.

Teknik rekayasa prompt penting

Rekayasa perintah melibatkan merancang dan mengoptimalkan perintah untuk meningkatkan output model AI. Dalam sesi ini, konsep diperkenalkan dengan teknik seperti pembelajaran zero-shot, di mana model menghasilkan respons menggunakan data pelatihannya tanpa contoh, dan pembelajaran dengan sedikit contoh, di mana contoh memandu hasil yang diinginkan. Pembicara menunjukkan cara menambahkan isjin—seperti frasa rantai pemikiran untuk mendorong penalaran langkah demi langkah, instruksi yang jelas, konteks, dan bahkan menentukan format output—dapat secara signifikan meningkatkan respons model. Ketika Anda menggunakan skenario dengan asisten AI untuk Sepatu Contoso, berbagai modifikasi seperti penyesuaian nada dan personalisasi ditunjukkan untuk menyempurnakan hasil lebih lanjut, mempersiapkan langkah untuk teknik yang lebih canggih seperti RAG di sesi berikutnya.

Pelajari lebih lanjut di sesi rekayasa prompt dari kursus:

Meningkatkan akurasi dan keandalan AI dengan RAG

Meningkatkan akurasi dan keandalan AI menggunakan Retrieval Augmented Generation (RAG). RAG mengatasi keterbatasan model bahasa besar tradisional dengan menggabungkan pengambilan yang menarik dokumen yang relevan dan up-to-tanggal dari pangkalan pengetahuan dengan generator yang membuat jawaban berdasarkan konteks spesifik tersebut. Metode ini memastikan respons faktual dan transparan dengan membumikan output di sumber tepercaya, membuatnya hemat biaya dan dapat diverifikasi. Contoh praktis dengan dukungan real estat Contoso menunjukkan bagaimana RAG dapat secara efektif memberikan jawaban terperinci dan dikutip dengan menggunakan dokumen perusahaan untuk mencadangkan responsnya.

Pelajari lebih lanjut dalam sesi RAG dari kursus:

Mempercepat pengembangan AI Anda dengan LangChain.js

Percepat pengembangan AI Anda menggunakan LangChain.js—pustaka JavaScript yang menyederhanakan bekerja dengan model bahasa besar. LangChain.js menyediakan abstraksi tingkat tinggi untuk membangun templat prompt, mengelola komponen database model dan vektor, dan membuat alur kerja yang kompleks. Kerangka kerja ini memungkinkan prototipe cepat, seperti membangun API yang mengekstrak dan memproses transkrip YouTube untuk menjawab pertanyaan, dan menyederhanakan transisi dari pengembangan lokal ke produksi di Azure dengan memungkinkan pertukaran komponen yang mudah, seperti mengganti model lokal dan penyimpanan vektor dengan layanan Azure.

Pelajari lebih lanjut dalam sesi LangChain.js kursus:

Jalankan model AI di komputer lokal Anda dengan Ollama

Unduh dan gunakan model AI lokal dengan Ollama—alat sumber terbuka berdasarkan llama.cpp—untuk menjalankan model bahasa kecil seperti Phi-3 secara efisien. Model lokal menghilangkan keandalan pada infrastruktur cloud, memungkinkan pengembangan cepat dengan kemampuan offline, dan menawarkan pengujian hemat biaya melalui perulangan pengembangan dalam yang cepat. Phi-3, dicatat karena performa tinggi dan keamanan AI yang bertanggung jawab, dapat berjalan bahkan pada perangkat spesifikasi sedang dan dapat diakses melalui API yang kompatibel dengan OpenAI, sehingga mudah diintegrasikan dengan alur kerja pengembangan Anda.

Pelajari lebih lanjut dalam sesi Ollama kursus:

Mulai menggunakan AI secara gratis menggunakan Phi-3

Bereksperimenlah dengan model AI menggunakan alat Ollama dan model Phi-3 langsung dari browser Anda melalui taman bermain online. Dengan membuat GitHub Codespace, Anda dapat berinteraksi dengan editor VS Code yang sudah dikenal di browser Anda, menjalankan perintah seperti 'Ollama run phi3' di terminal untuk mengobrol dengan model, dan menggunakan notebook Jupyter interaktif untuk mengeksekusi blok kode yang menunjukkan prompt engineering, few-shot learning, dan pengambilan generasi yang didukung melalui API yang kompatibel dengan OpenAI. Penyiapan ini memungkinkan Anda menjelajahi dan mengembangkan proyek AI Anda sepenuhnya online—tidak perlu GPU cepat atau infrastruktur lokal.

Pelajari lebih lanjut dalam sesi Phi-3 dari kursus:

Pengantar Azure AI Foundry

Azure AI Foundry adalah gerbang untuk perjalanan Anda dalam membangun aplikasi AI generatif dengan JavaScript. Dalam sesi ini, kita akan mengeksplorasi bagaimana Foundry mengatur sumber daya melalui hub dan proyek, menyelami katalog model kaya yang menampilkan ribuan model dari berbagai penyedia, dan menyebarkan model untuk mengujinya di taman bermain interaktif. Baik Anda memilih opsi komputasi terkelola atau API tanpa server, konsep inti tetap konsisten saat Anda memilih, menyebarkan, dan mengintegrasikan model ke dalam alur kerja pengembangan Anda.

Pelajari selengkapnya dalam sesi Azure AI Foundry dari kursus:

Membangun Aplikasi AI Generatif dengan Azure Cosmos DB

Pelajari selengkapnya dalam sesi Azure Cosmos DB dari kursus:

Alat Azure & layanan untuk menghosting dan menyimpan aplikasi AI

Pelajari alat dan layanan Azure penting untuk menghosting dan menyimpan aplikasi AI Anda. Kita akan menjelajahi berbagai jenis aplikasi AI yang dapat Anda buat—mulai dari aplikasi obrolan hingga pembuatan yang didukung pencarian dan agen otonom—dan membahas alat yang diperlukan, termasuk Azure Developer CLI (AZD) untuk penerapan yang mulus. Anda akan mempelajari tentang opsi arsitektur, menimbang pendekatan berbasis tanpa server versus berbasis kontainer, dan cara mengelola API dalam penerapan produksi dengan pertimbangan untuk keamanan, penskalaan, dan pemantauan, memastikan aplikasi AI Anda kuat dan siap digunakan di dunia nyata.

Pelajari selengkapnya di sesi alat dan layanan Azure dalam kursus:

Streaming keluaran AI Generatif dengan Protokol Chat AI

Jelajahi output AI generatif streaming menggunakan Protokol Obrolan AI, yang menyederhanakan komunikasi real time antara layanan inferensi AI back-end dan aplikasi klien Anda. Kami akan meninjau dua pendekatan streaming—inferensi di browser dan melalui server inferensi AI—membahas tantangan paparan kunci API, sanitasi data, dan pemilihan protokol. Dengan client ringan dari Protokol Obrolan AI dan metode sinkron (getCompletion) serta asinkron (getStreamedCompletion), Anda dapat dengan mudah mengintegrasikan streaming yang aman, efisien, dan terstruktur dengan baik ke dalam aplikasi AI Anda, seperti yang ditunjukkan dalam contoh RAG serverless kami dengan sampel LangChain.js.

Pelajari lebih lanjut di sesi streaming kursus: