次の方法で共有


JavaScript 開発者向けの生成 AI

JavaScript を使用して、生成型 AI 機能を Web、モバイル、およびデスクトップ アプリに組み込みます。 この概要では、開始に役立つ主要な概念、ツール、学習リソースについて説明します。

AI に JavaScript を使用する理由

Python は AI モデルをトレーニングするための一般的な選択肢ですが、ほとんどのアプリ開発者は Web API を介してモデルを使用します。 JavaScript はブラウザーとサーバー間で実行され、HTTP 呼び出しを適切に処理するため、AI アプリを構築するための実用的な選択肢です。

コンパニオン コースを受講する

コンパニオン コースを使用して、ビデオ、コード プロジェクト、完全なエンド ツー エンドのサンプルを学習します。

学生または新しい開発者の場合、このコースでは AI を学ぶ実用的な方法を提供します。 既に専門的にアプリを構築している場合は、AI スキルを深めるのに役立ちます。

このコースでは、次の操作を行います。

  • 過去の人物を生成 AI で生き生きとさせながら、AI について学習します。
  • 組み込みのブラウザー API を使用してアクセシビリティを適用します。
  • テキストと画像の生成を使用して、AI をアプリ エクスペリエンスに統合します。
  • AI アプリケーションのアーキテクチャ パターンについて説明します。

コンパニオン アプリで歴史的なキャラクターと話すために使用される、AI によって生成されたレオナルド・ダ・ヴィンチの画像。

歴史上の人物と話すためにコンパニオンアプリケーションを使用してください

LLM について知っておくべきこと

大規模言語モデル (LLM) は、テキストを理解して生成するために大規模なデータセットでトレーニングされたニューラル ネットワークです。 トレーニングは通常、広範な基本モデルから始まり、特定のタスクの微調整を追加します。 LLM は、コード補完やチャットなどのシナリオに役立ちますが、コンテキスト ウィンドウやトレーニング データのバイアスの可能性など、制限もあります。 だからこそ、公平性、信頼性、プライバシー、アカウンタビリティなどの責任ある AI プラクティスが重要です。

コースの LLM セッションで詳細を確認します。

プロンプトエンジニアリングの手法を活用する

プロンプト エンジニアリングは、モデルをより良い結果に導くプロンプトを記述する方法です。 例が不要な場合はゼロショットプロンプトを使用し、例が役立つ場合は少数のプロンプトを使用します。 明確な命令、関連するコンテキスト、明示的な出力形式は、多くの場合、応答を改善し、RAG などのより高度なパターンに備えます。

詳細については、 コースのプロンプト エンジニアリング セッションを参照してください。

RAG を使用して AI の精度と信頼性を向上させる

取得拡張生成 (RAG) を利用して、信頼できる最新データに基づいてモデルの応答を作成します。 RAG は、関連するコンテンツを検索するレトリバーと、そのコンテンツを使用して質問に回答するジェネレーターを結合します。 このアプローチでは、精度を向上させ、応答を簡単に検証し、コストを制御できます。 たとえば、不動産サポート アプリでは、会社のドキュメントを使用して詳細な顧客の質問に回答できます。

コースの RAG セッションで詳細を確認します。

LangChain.js を使用して AI 開発を高速化する

LangChain.jsを使用して AI プロジェクトを高速化します。 この JavaScript ライブラリは、プロンプト テンプレートの構築、モデルとベクター ストアの接続、複雑なワークフローの作成に役立ちます。 YouTube トランスクリプトからの質問に回答する API など、迅速なプロトタイプ作成に適しています。 運用環境の準備ができたら、アプリを書き換えることなく、Azure サービスのローカル モデルとベクター ストアをスワップできます。

コースの LangChain.js セッションで詳細を確認します。

Ollama を使用してローカル コンピューターで AI モデルを実行する

Ollama を使用して、Phi-3 を含むローカル AI モデルをマシン上で実行します。 ローカル モデルは、クラウドの依存関係を減らし、オフライン開発をサポートし、アイデアをテストしながら内部ループを短縮します。 Ollama は OpenAI と互換性のある API を公開しているため、最小限の変更で既存の JavaScript ワークフローに統合できます。

詳細については、 コースの Ollama セッションを参照してください。

無料で AI の使用を開始する

Foundry Local を使用して AI を無料で実行できます。これにより、AI モデルをダウンロードしてローカルで操作できます。 モデルのダウンロード、微調整などをサポートする拡張機能である 、VISUAL Studio Code 用の AI Toolkit もあります。 Ollama は、ローカル モデルを実行するためのもう 1 つの一般的な選択肢です。

GitHub Codespace を作成し、Jupyter ノートブックを使用してプロンプト エンジニアリング、少数の学習、RAG をテストすることで、ローカルセットアップなしでモデルを試すこともできます。

コースの Phi-3 セッションで詳細を確認します。

Microsoft Foundry の概要

Microsoft Foundry を使用して、JavaScript を使用して生成型 AI アプリの構築を開始します。 ハブとプロジェクトを使用してリソースを整理し、モデルを参照し、プレイグラウンドでテストするモデルをデプロイします。 マネージド コンピューティング API とサーバーレス API のどちらを使用する場合でも、ワークフローは変わりません。モデルの選択、デプロイ、アプリへの統合などです。

コースの Foundry セッションで詳細を確認します。

Azure Cosmos DB を使用して生成型 AI アプリを構築する

詳細については、 このコースの Azure Cosmos DB セッションを参照してください。

AI アプリをホストおよび格納するための Azure ツールとサービス

チャット アプリ、RAG アプリ、自律エージェントなど、一般的な AI アプリ アーキテクチャに適合する Azure ツールとサービスについて説明します。 このセッションでは、Azure Developer CLI (AZD) を使用してアプリをデプロイし、サーバーレスとコンテナーベースのホスティング オプションを比較する方法も示します。

詳細については、 このコースの Azure ツールとサービス セッションを参照してください。

AI チャット プロトコルを使用して生成 AI 出力をストリーム配信する

AI チャット プロトコルを使用して、AI サービスとクライアント アプリ間のリアルタイム通信をサポートします。 アーキテクチャに応じて、ブラウザーまたは AI 推論サーバーから応答をストリーミングできます。 ストリーミングを実装するときは、API キーの保護、データの安全性、プロトコルの選択を計画します。 プロトコル クライアントは、 getCompletiongetStreamedCompletionなどのメソッドをサポートしています。例 LangChain.js サーバーレス RAG に示されています。

詳細については、 コースのストリーミング セッションを参照してください。