你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn

将 AI 集成到 Azure 应用服务应用程序中

本文将指导你学习特定于语言的教程和资源,以帮助你使用应用服务构建智能应用程序。

借助 Azure 应用服务,可以轻松地跨多种编程语言和框架将 AI 功能集成到 Web 应用程序中。 无论是要使用功能强大的 Azure OpenAI 模型、直接使用应用部署本地小型语言模型 (SLM)、构建代理 Web 应用程序、使用 OpenAPI 将应用公开为 AI 智能体的工具、主机模型上下文协议 (MCP) 服务器,还是实现诸如检索增强生成 (RAG) 之类的高级模式,应用服务都提供了 AI 驱动的应用程序所需的灵活安全平台。

应用服务为开发和部署 AI 提供支持的应用程序提供了多种优势:

  • 与 Azure AI 服务的本机集成 - 使用托管标识无缝连接到 Azure OpenAI 和其他 AI 服务,实现安全无密码身份验证
  • 本地 SLM 支持 - 使用 sidecar 扩展直接通过应用程序部署较小的语言模型
  • 企业级安全性 - 实现网络隔离、端到端加密和基于角色的访问控制
  • 简化的 DevOps 与 GitHub 集成 - 使用 GitHub Actions 简化 CI/CD 管道,利用 GitHub Codespaces 与集成的 GitHub Copilot 进行 AI 辅助开发,以及从开发到生产部署创建端到端工作流

在应用服务中生成聊天机器人和 RAG 应用程序

生成使用 Azure OpenAI 进行聊天或检索扩充生成的智能 Web 应用 (RAG)。 这些教程介绍如何集成 Azure OpenAI 和(可选)Azure AI 搜索,以首选语言创建聊天机器人和 RAG 解决方案,并使用托管标识进行安全身份验证。

生成智能体 Web 应用程序

使用框架(如 Microsoft 语义内核、LangGraph 或 Foundry 代理服务)添加代理功能,从而将您的传统 CRUD Web 应用程序转变为适应 AI 时代。 你可以提供一个对话式界面,让用户“与智能体交谈”,智能地执行应用提供的相同操作,而不是让用户导航窗体、文本框和下拉列表。 此方法使 Web 应用能够代表用户进行推理、规划和执行操作。

Microsoft Foundry 代理中将应用服务用作 OpenAPI 工具

通过使用 OpenAPI 向 Foundry 代理服务公开其功能,为现有 Web 应用提供支持。 许多 Web 应用已经提供了 REST API,使它们成为理想的候选对象,可集成到能够将 REST API 作为工具调用的智能体中。 通过将 Foundry 代理服务连接到这些 API,可以快速创建功能丰富的强大代理,且代码很少。

将应用服务用作模型上下文协议 (MCP) 服务器

将 Web 应用集成为模型上下文协议 (MCP) 服务器可扩展领先的个人 AI 智能体(如 GitHub Copilot 对话助手、Cursor 和 Winsurf)的功能。 通过将应用 API 通过 MCP 公开出来,你可以为这些智能体注入 Web 应用已有的独特功能和业务逻辑,而无需进行重大开发或重新架构。

使用本地 SLM (挎斗容器)

将具有本地小型语言模型 (SLM) 的 Web 应用部署为挎斗容器,以完全在应用服务环境中运行 AI 模型。 不需要出站调用或外部 AI 服务依赖项。 如果你在数据隐私或合规性方面要求严格,则此方法是理想的选项,因为所有 AI 处理和数据都保留在应用的本地位置。 应用服务提供高性能、内存优化的定价层,可满足在挎斗中运行 SLM 的需求。

对应用服务的工具调用进行身份验证

请使用 Microsoft Entra 身份验证和授权来保护由 AI 驱动的应用程序。 这些指南介绍如何在 Azure 应用服务中保护 OpenAPI 工具和 MCP 服务器,以便只有经过授权的用户和代理才能访问它们。

更多资源