다음을 통해 공유


자습서: 봇의 음성 사용 설정

Azure AI Speech를 사용하여 채팅 봇의 음성을 사용하도록 설정합니다.

이 자습서에서는 Microsoft Bot Framework를 사용하여 사용자의 말에 대응하는 봇을 만듭니다. Azure에 봇을 배포하고 Bot Framework Direct Line Speech 채널을 사용하여 등록합니다. 그런 다음, 봇에게 말을 하고 그에 대한 봇의 대답을 들을 수 있는 Windows용 샘플 클라이언트 앱을 구성합니다.

이 자습서를 완료할 때는 Azure, Bot Framework 봇 또는 Direct Line Speech에 대한 광범위한 경험 또는 지식이 필요하지 않습니다.

이 자습서에서 만드는 음성 지원 챗봇은 다음 단계를 따릅니다.

  1. Direct Line Speech 채널과 Echo Bot에 연결하도록 샘플 클라이언트 애플리케이션을 구성합니다.
  2. 사용자가 단추를 누르면 마이크에서 음성 오디오가 스트리밍됩니다. 또는 사용자 지정 키워드를 사용하는 경우 오디오가 지속적으로 기록됩니다.
  3. 사용자 지정 키워드를 사용하는 경우 로컬 디바이스에서 키워드 검색이 수행되고 오디오 스트리밍이 클라우드로 제한됩니다.
  4. 샘플 클라이언트 애플리케이션은 Speech SDK를 사용하여 Direct Line Speech에 연결하고 오디오를 스트리밍합니다.
  5. 필요에 따라 서비스에서 더 높은 정확도 키워드 확인이 수행됩니다.
  6. 오디오가 음성 인식 서비스에 전달되고 텍스트로 기록됩니다.
  7. 인식된 텍스트는 Bot Framework 활동으로 Echo Bot에 전달됩니다.
  8. 응답 텍스트는 텍스트 음성 변환 서비스를 통해 오디오로 전환되고, 재생을 위해 다시 클라이언트 애플리케이션으로 스트리밍됩니다.

Direct Line Speech 채널의 흐름을 보여 주는 다이어그램

참고 항목

이 자습서의 단계를 수행하는 데 유료 서비스가 필요하지 않습니다. 새 Azure 사용자는 Azure 평가판 구독의 크레딧과 Speech Service 무료 계층을 사용하여 이 자습서를 완료할 수 있습니다.

이 자습서에서는 다음 내용을 다룹니다.

  • 새 Azure 리소스를 만듭니다.
  • Echo Bot 샘플을 빌드 및 테스트하고 Azure App Service에 배포합니다.
  • Direct Line Speech 채널에 봇을 등록합니다.
  • Windows 음성 도우미 클라이언트를 빌드하고 실행하여 Echo Bot과 상호 작용합니다.
  • 사용자 지정 키워드 활성화를 추가합니다.
  • 인식하고 말하는 음성의 언어를 변경하는 방법을 알아봅니다.

필수 조건

이 자습서를 완료하는 데 필요한 사항은 다음과 같습니다.

리소스 그룹 만들기

이 자습서에서 만들 클라이언트 앱은 몇 가지 Azure 서비스를 사용합니다. 봇의 응답에 대한 왕복 시간을 줄이려면 이러한 서비스가 동일한 Azure 지역에 있는 것이 좋습니다.

이 섹션에서는 미국 서부 지역에 리소스 그룹을 만드는 과정을 안내합니다. 이 리소스 그룹은 Bot Framework, Direct Line Speech 채널 및 Speech Service를 위한 개별 리소스를 만들 때 사용합니다.

  1. 리소스 그룹을 만들기 위한 Azure Portal 페이지로 이동합니다.
  2. 다음 정보를 지정합니다.
    • 구독평가판으로 설정합니다. (기존 구독을 사용할 수도 있습니다.)
    • 리소스 그룹의 이름을 입력합니다. 권장하는 이름은 SpeechEchoBotTutorial-ResourceGroup입니다.
    • 지역 드롭다운에서 미국 서부를 선택합니다.
  3. 검토 및 만들기를 선택합니다. 유효성 검사 통과라는 배너가 표시됩니다.
  4. 만들기를 실행합니다. 리소스 그룹을 만드는 데 몇 분 정도 걸릴 수 있습니다.
  5. 이 자습서의 뒷부분에서 만들 리소스와 마찬가지로, 쉽게 액세스할 수 있도록 이 리소스 그룹을 대시보드에 고정해 두는 것이 좋습니다. 이 리소스 그룹을 고정하려면 이름 옆의 고정 아이콘을 선택합니다.

Azure 지역 선택

지원되는 Azure 지역을 사용하는지 확인합니다. Direct Line Speech 채널은 인공신경망 및 표준 음성을 제공하는 텍스트 음성 변환 서비스를 사용합니다. 이 Azure 지역에서 신경망 음성이 사용되고, 이 Azure 지역에서는 표준 음성(사용 중지 중)이 사용됩니다.

지역에 대한 자세한 내용은 Azure 위치를 참조하세요.

리소스 만들기

지원되는 지역에 리소스 그룹이 있으므로, 다음 단계는 이 자습서에서 사용할 각 서비스에 대한 개별 리소스를 만드는 것입니다.

음성 서비스 리소스 만들기

  1. Speech Service 리소스를 만들기 위한 Azure Portal 페이지로 이동합니다.
  2. 다음 정보를 지정합니다.
    • 이름에는 SpeechEchoBotTutorial-Speech를 리소스의 이름으로 사용하는 것이 좋습니다.
    • 구독으로 평가판을 선택합니다.
    • 위치미국 서부를 선택합니다.
    • 가격 책정 계층으로 F0을 선택합니다. F0은 평가판 계층입니다.
    • 리소스 그룹으로 SpeechEchoBotTutorial-ResourceGroup을 선택합니다.
  3. 모든 필수 정보를 입력한 후 만들기를 선택합니다. 리소스를 만드는 데 몇 분 정도 걸릴 수 있습니다.
  4. 이 자습서의 뒷부분에서 이 서비스의 구독 키가 필요합니다. 언제든지 리소스의 개요 영역(키 관리 아래) 또는 영역에서 이러한 키에 액세스할 수 있습니다.

지금은 리소스 그룹(SpeechEchoBotTutorial-ResourceGroup)에 Speech Service 리소스가 있는지 확인합니다.

이름 Type 위치
SpeechEchoBotTutorial-Speech 음성 미국 서부

Azure App Service 계획 만들기

App Service 계획은 실행할 웹앱에 대한 컴퓨팅 리소스 세트를 정의합니다.

  1. Azure App Service 계획을 만들기 위한 Azure Portal 페이지로 이동합니다.
  2. 다음 정보를 지정합니다.
    • 구독평가판으로 설정합니다. (기존 구독을 사용할 수도 있습니다.)
    • 리소스 그룹으로 SpeechEchoBotTutorial-ResourceGroup을 선택합니다.
    • 이름에는 SpeechEchoBotTutorial-AppServicePlan을 계획의 이름으로 사용하는 것이 좋습니다.
    • 운영 체제Windows를 선택합니다.
    • 지역으로 미국 서부를 선택합니다.
    • 가격 책정 계층으로 Standard S1이 선택되었는지 확인합니다. 이것이 기본값입니다. 그렇지 않은 경우 운영 체제Windows로 설정합니다.
  3. 검토 및 만들기를 선택합니다. 유효성 검사 통과라는 배너가 표시됩니다.
  4. 만들기를 실행합니다. 리소스를 만드는 데 몇 분 정도 걸릴 수 있습니다.

지금은 리소스 그룹(SpeechEchoBotTutorial-ResourceGroup)에 다음 두 가지 리소스가 있는지 확인합니다.

이름 Type 위치
SpeechEchoBotTutorial-AppServicePlan App Service 계획 미국 서부
SpeechEchoBotTutorial-Speech Azure AI 서비스 미국 서부

Echo Bot 빌드

리소스가 생성되었으므로 사용자가 입력한 텍스트를 응답으로 반복하는 Echo Bot 샘플로 시작합니다. 이 샘플 코드는 이미 Direct Line Speech 채널로 작동하도록 구성되었으며, 봇을 Azure에 배포한 후 여기에 연결합니다.

참고 항목

후속 지침과 Echo Bot에 대한 추가 정보는 GitHub의 샘플 README에서 얻을 수 있습니다.

머신에서 봇 샘플 실행

  1. 다음과 같이 샘플 리포지토리를 복제합니다.

    git clone https://github.com/Microsoft/botbuilder-samples.git
    
  2. Visual Studio를 엽니다.

  3. 도구 모음에서 파일>열기>프로젝트/솔루션을 선택합니다. 그런 다음, 프로젝트 솔루션을 엽니다.

    samples\csharp_dotnetcore\02.echo-bot\EchoBot.sln
    
  4. 프로젝트가 로드되면 F5 키를 선택하여 프로젝트를 빌드하고 실행합니다.

    열리는 브라우저에 다음과 유사한 화면이 표시됩니다.

    봇이 준비되었다는 메시지가 포함된 EchoBot 페이지를 보여주는 스크린샷.

Bot Framework Emulator를 사용하여 봇 샘플 테스트

Bot Framework Emulator는 봇 개발자가 로컬로(또는 터널을 통해 원격으로) 봇을 테스트하고 디버그할 수 있는 데스크톱 앱입니다. 이 에뮬레이터는 사용자가 입력한 텍스트(음성 아님)를 입력으로 허용합니다. 봇은 텍스트로도 응답합니다.

다음 단계에 따라 Bot Framework Emulator를 사용하여 로컬로 실행되는 Echo Bot을 텍스트 입력 및 텍스트 출력으로 테스트합니다. Azure에 봇을 배포한 후, 음성 입력 및 음성 출력을 사용하여 봇을 테스트합니다.

  1. Bot Framework Emulator 버전 4.3.0 이상을 설치합니다.

  2. Bot Framework Emulator를 연 후 파일>봇 열기를 선택합니다.

  3. 다음가 같이 봇의 URL을 입력합니다. 예시:

    http://localhost:3978/api/messages
    
  4. 연결을 선택합니다.

  5. 봇이 "Hello and welcome!" 메시지와 함께 인사합니다. 아무 문자 메시지를 입력하고 봇이 응답하는지 확인합니다.

    에코 봇과의 통신 교환은 다음과 같습니다. 스크린샷은 Bot Framework 에뮬레이터를 보여줍니다.

Azure App Service에 봇 배포

다음 단계는 Echo Bot을 Azure에 배포하는 것입니다. Azure CLI배포 템플릿을 포함하여 봇을 배포하는 몇 가지 방법이 있습니다. 이 자습서에서는 Visual Studio에서 직접 게시하는 방법을 중점적으로 다룹니다.

참고 항목

다음 단계를 수행할 때 게시가 표시되지 않는 경우 Visual Studio 설치 관리자를 사용하여 ASP.NET 및 웹 개발 워크로드를 추가합니다.

  1. Visual Studio에서, Direct Line Speech 채널에 사용하도록 구성한 Echo Bot을 엽니다.

    samples\csharp_dotnetcore\02.echo-bot\EchoBot.sln
    
  2. 솔루션 탐색기에서 EchoBot 프로젝트를 마우스 오른쪽 단추로 클릭하고 게시를 선택합니다.

  3. 게시 창이 열리면 다음을 수행합니다.

    1. Azure>다음을 선택합니다.
    2. Azure App Service(Windows)>다음을 선택합니다.
    3. 녹색 더하기 기호로 새 Azure App Service 만들기를 선택합니다.
  4. App Service(Windows) 창이 나타나면 다음을 수행합니다.

    • 계정 추가를 선택하고 Azure 계정 자격 증명으로 로그인합니다. 이미 로그인한 경우 드롭다운 목록에서 계정을 선택합니다.

    • 이름에 전역적으로 고유한 봇 앱 이름을 입력합니다. 이 이름은 고유한 봇 URL을 만드는 데 사용됩니다.

      날짜 및 시간을 포함하는 기본 이름이 상자에 표시됩니다(예: EchoBot20190805125647). 이 자습서에서는 기본 이름을 사용해도 됩니다.

    • 구독으로 평가판을 선택합니다.

    • 리소스 그룹SpeechEchoBotTutorial-ResourceGroup을 선택합니다.

    • 호스팅 계획SpeechEchoBotTutorial-AppServicePlan을 선택합니다.

  5. 만들기를 실행합니다. 마지막 마법사 화면에서 마침을 선택합니다.

  6. 게시를 선택합니다. Visual Studio가 Azure에 봇을 배포합니다.

    Visual Studio의 출력 창에 다음과 같은 성공 메시지가 표시됩니다.

    Publish Succeeded.
    Web App was published successfully https://EchoBot20190805125647.azurewebsites.net/
    

    기본 브라우저가 열리고 "Your bot is ready!"라는 페이지가 표시됩니다.

지금은 Azure Portal에서 리소스 그룹 SpeechEchoBotTutorial-ResourceGroup을 확인합니다. 다음 세 가지 리소스가 포함되어 있음을 확인합니다.

이름 Type 위치
EchoBot20190805125647 App Service 미국 서부
SpeechEchoBotTutorial-AppServicePlan App Service 계획 미국 서부
SpeechEchoBotTutorial-Speech Azure AI 서비스 미국 서부

웹 소켓 사용

봇이 웹 소켓을 사용하여 Direct Line Speech 채널과 통신할 수 있도록 구성을 약간 변경해야 합니다. 다음 단계에 따라 웹 소켓을 사용하도록 설정합니다.

  1. Azure Portal로 이동하고 App Service 리소스를 선택합니다. 리소스 이름은 EchoBot20190805125647(고유한 앱 이름)와 비슷해야 합니다.
  2. 왼쪽 창의 설정 아래에서 구성을 선택합니다.
  3. 일반 설정 탭을 선택합니다.
  4. 웹 소켓 토글을 찾아서 켜기로 설정합니다.
  5. 저장을 선택합니다.

Azure App Service 페이지 맨 위에 있는 컨트롤을 사용하여 서비스를 중지하거나 다시 시작할 수 있습니다. 이 기능은 문제를 해결할 때 유용할 수 있습니다.

채널 등록 만들기

봇을 호스트할 Azure App Service 리소스를 만든 후 다음 단계는 채널 등록을 만드는 것입니다. Direct Line Speech 채널을 포함하여 Bot Framework 채널에 봇을 등록하려면 먼저 채널 등록을 만들어야 합니다. 봇이 채널을 어떻게 사용하는지 자세히 알아보려면 채널에 봇 연결을 참조하세요.

  1. Azure 봇을 만들기 위한 Azure Portal 페이지로 이동합니다.
  2. 다음 정보를 지정합니다.
    • 봇 핸들SpeechEchoBotTutorial-BotRegistration-####을 입력합니다. ####을 원하는 만큼 선택한 항목으로 바꿉니다.

      참고 항목

      봇 핸들은 전역적으로 고유해야 합니다. 봇 핸들을 입력하면 "요청한 봇 ID를 사용할 수 없습니다"라는 오류 메시지가 표시되는 경우 다른 숫자를 선택합니다. 다음 예제에서는 8726을 사용합니다.

    • 구독으로 평가판을 선택합니다.

    • 리소스 그룹으로 SpeechEchoBotTutorial-ResourceGroup을 선택합니다.

    • 위치미국 서부를 선택합니다.

    • 가격 책정 계층으로 F0을 선택합니다.

    • 자동 앱 ID 및 암호 만들기는 무시합니다.

  3. Azure Bot 창의 맨 아래에서 만들기를 선택합니다.
  4. 리소스를 만든 후 Azure Portal에서 SpeechEchoBotTutorial-BotRegistration-#### 리소스를 엽니다.
  5. 설정 영역에서 구성을 선택합니다.
  6. 메시지 엔드포인트에는 웹앱의 URL에 /api/messages를 붙여서 입력합니다. 예를 들어 전역적으로 고유한 앱 이름이 EchoBot20190805125647인 경우 메시지 엔드포인트는 https://EchoBot20190805125647.azurewebsites.net/api/messages/입니다.

지금은 Azure Portal에서 리소스 그룹 SpeechEchoBotTutorial-ResourceGroup을 확인합니다. 적어도 다음 4개 리소스가 표시되어야 합니다.

이름 Type 위치
EchoBot20190805125647 App Service 미국 서부
SpeechEchoBotTutorial-AppServicePlan App Service 계획 미국 서부
SpeechEchoBotTutorial-BotRegistration-8726 Bot Service 전역
SpeechEchoBotTutorial-Speech Azure AI 서비스 미국 서부

Important

사용자가 미국 서부를 선택했는데, Azure AI Bot Service 리소스는 글로벌 지역을 표시합니다. 예상된 동작입니다.

선택 사항: 웹 채팅에서 테스트

Azure 봇 페이지의 설정 아래에는 웹 채팅 테스트 옵션이 있습니다. 웹 채팅을 봇에서 인증해야 하므로 이 옵션은 기본적으로 작동하지 않습니다.

텍스트 입력을 사용하여 배포된 봇을 테스트하려면 다음 단계를 사용합니다. 다음 단계는 선택 사항이며 완료하지 않아도 자습서를 계속 진행할 수 있습니다.

  1. Azure Portal에서 EchoBotTutorial-BotRegistration-#### 리소스를 찾아서 엽니다.

  2. 설정 영역에서 구성을 선택합니다. Microsoft 앱 ID의 값을 복사합니다.

  3. Visual Studio EchoBot 솔루션을 엽니다. 솔루션 탐색기에서 appsettings.json을 찾아서 두 번 선택합니다.

  4. JSON 파일의 MicrosoftAppId 옆에 있는 빈 문자열을 앞에서 복사한 ID 값으로 바꿉니다.

  5. Azure Portal로 돌아갑니다. 설정 영역에서 구성을 선택합니다. 그런 다음, Microsoft 앱 ID 옆에 있는 관리를 선택합니다.

  6. 새 클라이언트 비밀을 선택합니다. 설명(예: 웹 채팅)을 추가하고 추가를 선택합니다. 새 비밀을 복사합니다.

  7. JSON 파일의 MicrosoftAppPassword 옆에 있는 빈 문자열을 앞에서 복사한 비밀 값으로 바꿉니다.

  8. JSON 파일을 저장합니다. 이 코드와 비슷합니다.

    {
      "MicrosoftAppId": "YourAppId",
      "MicrosoftAppPassword": "YourAppPassword"
    }
    
  9. Visual Studio 솔루션 탐색기에서 EchoBot 프로젝트를 마우스 오른쪽 단추로 클릭하고 게시를 선택한 다음, 게시 단추를 선택합니다.

Direct Line Speech 채널 등록

이제 Direct Line Speech 채널에 봇을 등록할 차례입니다. 이 채널은 봇과 Speech SDK를 사용하여 컴파일한 클라이언트 앱 사이에 연결을 만듭니다.

  1. Azure Portal에서 SpeechEchoBotTutorial-BotRegistration-#### 리소스를 찾아서 엽니다.

  2. 설정 영역에서 채널을 선택한 후 다음 단계를 수행합니다.

    1. 채널 더 보기에서 Direct Line Speech를 선택합니다.
    2. Direct Line Speech 구성 페이지의 텍스트를 검토한 다음, 인식 서비스 계정 드롭다운 메뉴를 확장합니다.
    3. 메뉴에서 이전에 만든 Speech Service 리소스(예: SpeechEchoBotTutorial-Speech)를 선택하여 봇을 Speech 구독 키에 연결합니다.
    4. 나머지 선택 사항 필드는 무시합니다.
    5. 저장을 선택합니다.
  3. 설정 영역에서 구성을 선택한 후 다음 단계를 수행합니다.

    1. 스트리밍 엔드포인트 사용 확인란을 선택합니다. 봇과 Direct Line Speech 채널 사이에 웹 소켓 기반의 통신 프로토콜을 만들려면 이 단계를 수행해야 합니다.
    2. 저장을 선택합니다.

자세한 내용은 Direct Line Speech에 봇 연결을 참조하세요.

Windows 음성 도우미 클라이언트 실행

이 Windows 음성 도우미 클라이언트는 Speech SDK를 통해 Direct Line Speech를 사용하는 봇과의 통신을 관리하는 C#의 WPF(Windows Presentation Foundation) 앱입니다. 사용자 지정 클라이언트 앱을 작성하기 전에 이 클라이언트를 사용하여 봇과 상호 작용하고 봇을 테스트합니다. 오픈 소스이므로 실행 파일을 다운로드하여 실행할 수 있습니다. 또는 직접 빌드해도 됩니다.

Windows 음성 도우미 클라이언트는 봇에 대한 연결을 구성하고, 텍스트 대화를 보고, JSON 형식의 Bot Framework 활동을 보고, 적응형 카드를 표시할 수 있는 간단한 UI를 제공합니다. 또한 사용자 지정 키워드를 사용할 수 있습니다. 이 클라이언트를 사용하여 봇과 이야기하고 음성 응답을 받을 것입니다.

참고 항목

지금은 마이크와 스피커를 사용하도록 설정했으며 정상적으로 작동하는지 확인합니다.

  1. Windows 음성 도우미 클라이언트에 대한 GitHub 리포지토리로 이동합니다.

  2. 제공된 지침에 따라 다음 중 하나를 수행합니다.

    • 실행할 .zip 패키지에 미리 빌드된 실행 파일 다운로드
    • 리포지토리를 복제하고 프로젝트를 빌드하여 실행 파일을 직접 빌드합니다.
  3. GitHub 리포지토리의 지침에 따라 VoiceAssistantClient.exe 클라이언트 애플리케이션을 열고 봇에 연결하도록 구성합니다.

  4. 다시 연결을 선택하고 "새 대화가 시작되었습니다. 대화를 입력하거나 마이크 단추를 누르세요"라는 메시지가 표시되는지 확인합니다.

  5. 테스트를 수행합니다. 마이크 단추를 선택하고 단어 몇 개를 영어로 말합니다. 말하는 대로 인식된 텍스트가 나타납니다. 사용자의 말이 끝나면 봇이 고유한 음성으로 대답합니다. 봇은 "echo"라고 말한 후 인식한 단어를 말합니다.

    텍스트를 사용하여 봇과 통신할 수도 있습니다. 아래쪽 표시줄에 텍스트를 입력하면 됩니다.

Windows 음성 도우미 클라이언트의 오류 문제 해결

기본 앱 창에 오류 메시지가 표시되면 다음 표를 사용하여 문제를 파악하고 해결합니다.

메시지 어떻게 해야 하나요?
오류(AuthenticationFailure): 인증 오류(401)로 인해 WebSocket 업그레이드가 실패했습니다. 올바른 리소스 키(또는 권한 부여 토큰) 및 지역 이름을 확인하세요. 앱의 설정 페이지에서 키와 지역을 올바르게 입력했는지 확인합니다.
오류(ConnectionFailure): 원격 호스트가 연결을 종료했습니다. 오류 코드: 1011. 오류 세부 정보: 봇에 연결할 수 없어 메시지를 보낼 수 없습니다. 스트리밍 엔드포인트 사용 확인란을 선택하고 웹 소켓을 활성화했는지 확인합니다.
Azure App Service가 실행 중인지 확인합니다. 그렇다면 다시 시작해 보세요.
오류(ConnectionFailure): 원격 호스트가 연결을 종료했습니다. 오류 코드: 1002. 오류 세부 정보: 상태 코드 ‘101’을 예상했지만 서버에서 상태 코드 ‘503’을 반환했습니다. 스트리밍 엔드포인트 사용 확인란을 선택하고 웹 소켓을 활성화했는지 확인합니다.
Azure App Service가 실행 중인지 확인합니다. 그렇다면 다시 시작해 보세요.
오류(ConnectionFailure): 원격 호스트가 연결을 종료했습니다. 오류 코드: 1011. 오류 세부 정보: 응답 상태 코드가 성공: 500(InternalServerError)을 나타내지 않습니다. 봇이 출력 활동 말하기 필드에서 인공신경망 음성을 지정했지만, 리소스 키와 연결된 Azure 지역에서 인공신경망 음성을 지원하지 않습니다. 신경망 음성표준 음성을 참조하세요.

표의 동작으로 문제가 해결되지 않으면 음성 도우미: 질문과 대답을 참조하세요. 이 자습서의 모든 단계를 수행한 후에도 문제가 해결되지 않으면 음성 도우미 GitHub 페이지에 새 문제를 입력하세요.

연결 제한 시간에 대한 참고 사항

봇에 연결되어 있고 5분 동안 아무 것도 하지 않으면 서비스가 클라이언트와 봇의 웹 소켓 연결을 자동으로 종료합니다. 이것은 의도적인 것입니다. "활성 연결 시간이 초과되었으며 요청 시 다시 연결할 수 있습니다"라는 메시지가 아래쪽 표시줄에 표시됩니다.

다시 연결 단추를 선택하지 않아도 됩니다. 마이크 단추를 누르고 말하기를 시작하거나, 문자 메시지를 입력하거나, 키워드를 말합니다(사용하도록 설정된 경우). 연결이 자동으로 다시 설정됩니다.

봇 활동 보기

모든 봇은 활동 메시지를 보내고 받습니다. Windows 음성 도우미 클라이언트의 활동 로그 창에는 클라이언트가 봇으로부터 받은 각 활동과 함께 타임스탬프가 찍힌 로그가 표시됩니다. DialogServiceConnector.SendActivityAsync 메서드를 사용하여 클라이언트가 봇에 보낸 작업을 확인할 수도 있습니다. 로그 항목을 선택하면 관련 활동의 세부 정보가 JSON으로 표시됩니다.

다음은 클라이언트가 받은 활동의 샘플 JSON입니다.

{
    "attachments":[],
    "channelData":{
        "conversationalAiData":{
             "requestInfo":{
                 "interactionId":"8d5cb416-73c3-476b-95fd-9358cbfaebfa",
                 "version":"0.2"
             }
         }
    },
    "channelId":"directlinespeech",
    "conversation":{
        "id":"129ebffe-772b-47f0-9812-7c5bfd4aca79",
        "isGroup":false
    },
    "entities":[],
    "from":{
        "id":"SpeechEchoBotTutorial-BotRegistration-8726"
    },
    "id":"89841b4d-46ce-42de-9960-4fe4070c70cc",
    "inputHint":"acceptingInput",
    "recipient":{
        "id":"129ebffe-772b-47f0-9812-7c5bfd4aca79|0000"
    },
    "replyToId":"67c823b4-4c7a-4828-9d6e-0b84fd052869",
    "serviceUrl":"urn:botframework:websocket:directlinespeech",
    "speak":"<speak version='1.0' xmlns='https://www.w3.org/2001/10/synthesis' xml:lang='en-US'><voice name='en-US-JennyNeural'>Echo: Hello and welcome.</voice></speak>",
    "text":"Echo: Hello and welcome.",
    "timestamp":"2019-07-19T20:03:51.1939097Z",
    "type":"message"
}

JSON 출력에 반환되는 항목에 대한 자세한 내용은 활동의 필드를 참조하세요. 이 자습서에서는 텍스트말하기에 집중하면 됩니다.

Speech SDK 호출에 대한 클라이언트 소스 코드 보기

Windows 음성 도우미 클라이언트는 Speech SDK를 포함하고 있는 NuGet 패키지 Microsoft.CognitiveServices.Speech를 사용합니다. 샘플 코드 검토를 시작하기에 좋은 위치는 VoiceAssistantClient\MainWindow.xaml.cs 파일의 InitSpeechConnector() 메서드입니다. 이 메서드는 다음과 같은 두 가지 Speech SDK 개체를 만듭니다.

  • DialogServiceConfig: 리소스 키 및 해당 지역과 같은 구성 설정입니다.
  • DialogServiceConnector: 인식된 음성 및 봇 응답을 처리하기 위한 채널 연결과 클라이언트 구독 이벤트를 관리합니다.

사용자 지정 키워드 활성화 추가

Speech SDK는 사용자 지정 키워드 활성화를 지원합니다. Microsoft 도우미의 "Hey Cortana"와 마찬가지로, 사용자가 선택한 키워드를 지속적으로 수신 대기하는 앱을 작성할 수 있습니다. 키워드는 한 단어도 되고 여러 단어로 구성된 구도 됩니다.

참고 항목

키워드라는 용어는 호출어라는 용어와 같은 의미로 사용되는 경우가 많습니다. Microsoft 설명서에서 둘 다 사용되는 것을 보셨을 것입니다.

키워드 검색은 클라이언트 앱에서 수행됩니다. 키워드를 사용하는 경우 키워드가 검색된 경우에만 오디오가 Direct Line Speech 채널에 스트리밍됩니다. Direct Line Speech 채널에는 키워드 확인이라는 구성 요소가 있는데, 이 구성 요소는 사용자가 선택한 키워드가 오디오 스트림의 시작 부분에 있는지 확인하는 클라우드의 좀 더 복잡한 처리를 담당합니다. 키워드 확인이 성공하면 이 채널이 봇과 통신합니다.

다음 단계에 따라 키워드 모델을 만들고, 이 모델을 사용하도록 Windows 음성 도우미 클라이언트를 구성하고, 봇에서 테스트합니다.

  1. Speech Service를 사용하여 사용자 지정 키워드 만들기
  2. 이전 단계에서 다운로드한 모델 파일의 압축을 풉니다. 키워드가 이름으로 지정되어 있을 것입니다. 우리가 찾는 파일은 kws.table입니다.
  3. Windows 음성 도우미 클라이언트에서 설정 메뉴(오른쪽 위에 있는 기어 아이콘)를 찾습니다. 모델 파일 경로에 2단계의 kws.table 파일에 대한 전체 경로 이름을 입력합니다.
  4. 사용 확인란을 선택합니다. 확인란 옆에 "다음 연결 시 키워드를 수신 대기합니다"라는 메시지가 표시됩니다. 잘못된 파일 또는 잘못된 경로를 입력한 경우 오류 메시지가 표시됩니다.
  5. 구독 키, 구독 키 영역을 입력한 다음, 확인을 선택하여 설정 메뉴를 닫습니다.
  6. 다시 연결을 선택합니다. "새 대화가 시작되었습니다. 텍스트를 입력하거나 마이크 단추를 누르거나 키워드를 말하세요"라는 메시지가 표시됩니다. 이제 앱이 지속적으로 수신 대기 중입니다.
  7. 키워드로 시작하는 아무 문구나 말해 보세요. 예: "{your keyword}, what time is it?" 키워드를 말한 후 일시 중지할 필요가 없습니다. 모두 마치면 다음 두 가지 작업이 수행됩니다.
    • 말한 내용의 대화 내용 기록이 표시됩니다.
    • 봇의 대답을 듣습니다.
  8. 봇이 지원하는 다음 세 가지 입력 형식을 계속 실험합니다.
    • 아래쪽 표시줄에 텍스트 입력
    • 마이크 아이콘을 누르고 말하기
    • 키워드로 시작하는 문구 말하기

키워드 검색을 사용하도록 설정하는 소스 코드 보기

Windows 음성 도우미 클라이언트의 소스 코드에서 다음 파일을 사용하여 키워드 검색을 사용하도록 설정하는 코드를 검토합니다.

선택 사항: 언어 및 봇 음성 변경

사용자가 만든 봇은 기본 미국 영어 텍스트 음성 변환 음성을 사용하여 영어로 수신 대기하고 응답합니다. 하지만 반드시 영어 또는 기본 음성을 사용해야 하는 제한이 있는 것은 아닙니다.

이 섹션에서는 봇이 수신 대기하고 응답하는 언어를 변경하는 방법을 알아봅니다. 해당 언어에 사용할 다른 음성을 선택하는 방법도 알아봅니다.

언어 변경

음성 텍스트 변환 표에 언급된 언어 중 하나를 선택할 수 있습니다. 다음 예제에서는 언어를 독일어로 변경합니다.

  1. Windows 음성 도우미 클라이언트 앱을 열고, 설정 단추(오른쪽 위에 있는 기어 아이콘)를 선택하고, 언어 필드에서 de-de를 입력합니다. 이는 음성 텍스트 변환 표에 나와 있는 로캘 값입니다.

    이 단계는 음성 언어를 설정하고 기본 en-us를 재정의합니다. 또한 봇 응답에 기본 독일어 음성을 사용하도록 Direct Line Speech 채널에 지시합니다.

  2. 설정 페이지를 닫은 후 다시 연결 단추를 클릭하여 Echo Bot에 대한 새 연결을 설정합니다.

  3. 마이크 단추를 선택하고 독일어로 구를 말합니다. 인식된 텍스트가 표시되고 Echo Bot이 기본 독일 음성으로 대답합니다.

기본 봇 음성 변경

봇이 단순 텍스트가 아닌 SSML(Speech Synthesis Markup Language) 형식으로 응답을 지정하는 경우 텍스트 음성 변환 음성을 선택하고 발음을 제어할 수 있습니다. Echo Bot은 SSML을 사용하지 않지만, 그렇게 하도록 코드를 쉽게 수정할 수 있습니다.

다음 예제에서는 기본 여성 음성 대신 독일어 음성 de-DE-RalfNeural(남성 음성)을 사용하도록 Echo Bot 응답에 SSML을 추가합니다. 해당 언어에 대해 지원되는 표준 음성 목록신경망 음성 목록을 참조하세요.

  1. samples\csharp_dotnetcore\02.echo-bot\echo-bot.cs를 엽니다.

  2. 다음 줄을 찾습니다.

    var replyText = $"Echo: {turnContext.Activity.Text}";
    await turnContext.SendActivityAsync(MessageFactory.Text(replyText, replyText), cancellationToken);
    

    이를 다음 코드로 바꿉니다.

    var replyText = $"Echo: {turnContext.Activity.Text}";
    var replySpeak = @"<speak version='1.0' xmlns='https://www.w3.org/2001/10/synthesis' xml:lang='de-DE'>
                    <voice name='de-DE-RalfNeural'>" +
                    $"{replyText}" + "</voice></speak>";
    await turnContext.SendActivityAsync(MessageFactory.Text(replyText, replySpeak), cancellationToken);
    
  3. Visual Studio에서 솔루션을 빌드하고 빌드 오류를 수정합니다.

MessageFactory.Text 메서드의 두 번째 인수는 봇 응답의 활동 말하기 필드를 설정합니다. 위와 같이 변경한 결과, 기본 음성이 아닌 독일어 음성을 지정하기 위해 단순 텍스트에서 SSML로 바뀌었습니다.

봇 다시 배포

봇을 필요한 대로 변경했으므로, 다음 단계는 봇을 Azure App Service에 다시 게시하고 사용해 보는 것입니다.

  1. 솔루션 탐색기 창에서 EchoBot 프로젝트를 마우스 오른쪽 단추로 클릭하고 게시를 선택합니다.

  2. 이전 배포 구성이 이미 기본값으로 로드되었습니다. EchoBot20190805125647 - 웹 배포 옆에 있는 게시를 선택합니다.

    게시 성공 메시지가 Visual Studio 출력 창에 표시되고, "Your bot is ready!"라는 메시지와 함께 웹 페이지가 열립니다.

  3. Windows 음성 도우미 클라이언트 앱을 엽니다. 설정 단추(오른쪽 위 기어 아이콘)를 선택하고 언어 필드에 여전히 de-de가 있는지 확인합니다.

  4. Windows 음성 도우미 클라이언트 실행의 지침에 따라 새로 배포한 봇에 다시 연결하고, 새 언어로 말하고 봇이 해당 언어의 새 음성으로 대답하는 것을 들어 봅니다.

리소스 정리

이 자습서에서 배포한 Echo Bot 봇을 더 이상 사용하지 않으려는 경우 Azure 리소스 그룹을 삭제하면 이 리소스 그룹 및 관련 Azure 리소스까지 함께 제거할 수 있습니다.

  1. Azure PortalAzure 서비스에서 리소스 그룹을 선택합니다.
  2. SpeechEchoBotTutorial-ResourceGroup 리소스 그룹을 찾습니다. 점 3개(...)를 선택합니다.
  3. 리소스 그룹 삭제를 선택합니다.

설명서 살펴보기

다음 단계