Ескертпе
Бұл бетке кіру үшін қатынас шегін айқындау қажет. Жүйеге кіруді немесе каталогтарды өзгертуді байқап көруге болады.
Бұл бетке кіру үшін қатынас шегін айқындау қажет. Каталогтарды өзгертуді байқап көруге болады.
Узнайте о возможности создания ИИ с помощью JavaScript. Узнайте, как легко интегрировать ИИ в веб-приложения, мобильные приложения или классические приложения.
JavaScript с искусственным интеллектом?
Хотя это правда, что Python отлично подходит для создания и обучения моделей ИИ, создание приложений с этими моделями отличается. Большинство моделей искусственного интеллекта работают через веб-API, поэтому любой язык, который может выполнять http-вызовы, может использовать ИИ. JavaScript является кроссплатформенным и легко подключает браузеры и серверы, что делает его надежным выбором для приложений ИИ.
Веселый и интерактивный курс
Присоединяйтесь к нам для иммерсивного обучения, включая видео, проекты кода и полную реализацию для использования и изучения создания искусственного интеллекта.
- Курс
- Серия видео
Этот курс является отличным способом для студентов и новых разработчиков, чтобы узнать об ИИ в веселом, интерактивном режиме. Для разработчиков, стремящихся развивать свою карьеру, углубите свои знания в области искусственного интеллекта.
В этом курсе:
- Учите ИИ, оживляя исторические личности с помощью генеративного ИИ.
- Применение функций доступности с помощью встроенных программных интерфейсов браузера
- Использование создания текста и изображений для интеграции искусственного интеллекта в интерфейс приложения
- Изучение архитектурных шаблонов для приложений ИИ
Используйте приложение-компаньон для общения с историческими персонажами
Что нужно знать о LLM?
Крупные языковые модели (LLM) — это глубокие нейронные сети, обучаемые на большом объеме данных для понимания и создания текста. Обучение начинается с больших, разнообразных наборов данных для создания базовой модели, а затем использует специальные данные для точной настройки для улучшения результатов. LLM работают как интеллектуальные средства автозаполнения в редакторах кода или приложениях чата. Модели имеют ограничения, такие как контекстные окна (обычно несколько тысяч маркеров, хотя более новые модели поддерживают больше) и могут отображать предвзятые данные обучения. Именно поэтому ответственный ИИ имеет значение — сосредоточение на справедливости, надежности, конфиденциальности и подотчетности, как рекомендует Microsoft.
Дополнительные сведения см. в сеансе LLM курса:
Основные техники инженерии подсказок
Инженерия проектирования запросов означает создание запросов для получения лучших результатов работы искусственного интеллекта. Для руководства моделью можно использовать обучение без использования примеров (zero-shot learning) или обучение с использованием небольшого количества примеров (few-shot learning). Добавление подсказок, таких как пошаговые инструкции, четкий контекст и форматы вывода, помогают модели дать лучшие ответы. Вы также можете настроить тон и персонализацию ответов. Эти основы готовят вас для продвинутых методов, таких как RAG.
Дополнительные сведения см. в сессии инженерии запросов:
Повышение точности ИИ и надежности с помощью RAG
Используйте получение дополненного поколения (RAG), чтобы сделать ИИ более точным и надежным. RAG объединяет извлекатель, который находит актуальные документы, с генератором, использующим эти документы для ответа на вопросы. Этот подход дает четкие фактические ответы на основе надежных источников, что упрощает проверку и эффективность результатов. Например, служба поддержки недвижимости Contoso использует RAG для предоставления подробных ответов, поддерживаемых корпоративными документами.
Узнайте больше на сеансе RAG курса:
Ускорение разработки ИИ с помощью LangChain.js
Ускорение проектов ИИ с помощью LangChain.js. Эта библиотека JavaScript упрощает работу с большими языковыми моделями. Используйте LangChain.js для создания шаблонов запросов, подключения моделей и векторных баз данных и создания сложных рабочих процессов. Быстро создавайте прототипы приложений, например API, который извлекает данные и отвечает на вопросы из расшифровок YouTube. Когда вы будете готовы к рабочей среде, замените локальные модели и векторные хранилища для служб Azure без изменения кода.
Дополнительные сведения см. в сессии курсаLangChain.js:
Запуск моделей ИИ на локальном компьютере с помощью Ollama
Скачайте и используйте локальные модели искусственного интеллекта с помощью Ollama — средства с открытым кодом на основе llama.cpp— для эффективного запуска небольших языковых моделей, таких как Phi-3. Локальные модели устраняют зависимость от облачной инфраструктуры, обеспечивают быструю разработку с автономными возможностями и предлагают экономичное тестирование с помощью быстрого внутреннего цикла разработки. Phi-3, отмеченный своей высокой производительностью и ответственной безопасностью ИИ, может работать даже на устройствах с умеренными спецификациями и доступен через API, совместимый с OpenAI, что упрощает интеграцию с рабочим процессом разработки.
Дополнительные сведения см. в сессии курса Ollama.
Начало работы с ИИ бесплатно с помощью Phi-3
Попробуйте использовать модели искусственного интеллекта с помощью инструмента Ollama и модели Phi-3 в браузере с помощью онлайн-площадки. Создайте пространство GitHub Codespace для использования VS Code в браузере, выполните команды, такие как "Ollama run phi3", чтобы общаться с моделью, и используйте записную книжку Jupyter для тестирования разработки подсказок, обучения на нескольких примерах и RAG. Вы можете создавать и изучать проекты ИИ в Интернете— не требуется быстрой настройки GPU или локальной установки.
Дополнительные сведения см. в занятии курса Phi-3:
Общие сведения об Azure AI Foundry
Используйте Azure AI Foundry, чтобы начать создание созданных приложений ИИ с помощью JavaScript. Упорядочение ресурсов с помощью центров и проектов, просмотр тысяч моделей и развертывание модели для тестирования на детской площадке. Выберите управляемые вычислительные или бессерверные API, выполните те же действия, чтобы выбрать, развернуть и использовать модель в рабочем процессе.
Дополнительные сведения см. в сеансе Azure AI Foundry:
Разработка генеративных приложений ИИ с помощью Azure Cosmos DB
Дополнительные сведения см. в сессии Azure Cosmos DB курса .
Средства Azure & службы для размещения и хранения приложений ИИ
Ознакомьтесь с ключевыми инструментами и службами Azure для размещения и хранения приложений ИИ. Создание различных типов приложений ИИ, таких как приложения чата, RAG и автономные агенты. Используйте интерфейс командной строки разработчика Azure (AZD) для простого развертывания. Сравните бессерверные и контейнерные параметры и узнайте, как обеспечить безопасность, масштабируемость и мониторинг API для реального использования.
Дополнительные сведения см. в сеансе инструментов и служб Azure курса .
Потоковая трансляция результатов генеративного ИИ с помощью протокола чата ИИ
Потоковая передача данных, сгенерированных искусственным интеллектом, с помощью протокола чата для ИИ. Это средство упрощает взаимодействие в режиме реального времени между службой ИИ и клиентскими приложениями. Попробуйте два метода потоковой передачи: выполните вывод в браузере или используйте сервер вывода ИИ. Остерегайтесь утечки ключа API, безопасности данных и правильного выбора протокола. Простой клиент протокола AI Chat позволяет добавлять безопасную и эффективную потоковую передачу в приложение с помощью методов getCompletion и getStreamedCompletion, как показано в нашем бессерверном RAG с LangChain.js примере.
Дополнительные сведения см. в сеансе потоковой передачи курса: