중요합니다
이 기능은 공개 미리보기 단계에 있습니다.
이 페이지에서는 데이터 연결로 Azure Databricks를 추가하여 Microsoft Power Platform에서 Azure Databricks에 연결하는 방법을 설명합니다. 연결되면 다음 플랫폼의 Azure Databricks 데이터를 사용할 수 있습니다.
- Power Apps: Azure Databricks 거버넌스 컨트롤을 유지하면서 Azure Databricks에서 읽고 쓸 수 있는 애플리케이션을 빌드합니다.
- Power Automate: 흐름을 빌드하고 사용자 지정 SQL을 실행할 수 있도록 하고 결과를 다시 가져오는 작업을 추가합니다.
- Copilot Studio: Azure Databricks 데이터를 지식 원본으로 사용하여 사용자 지정 에이전트를 빌드합니다.
시작하기 전 주의 사항:
Power Platform에서 Azure Databricks에 연결하기 전에 다음 요구 사항을 충족해야 합니다.
- Microsoft Entra ID(이전의 Azure Active Directory) 계정이 있습니다.
- 프리미엄 Power Apps 라이선스가 있습니다.
- Azure Databricks 계정이 있습니다.
- Azure Databricks의 SQL 웨어하우스 에 액세스할 수 있습니다.
선택 사항: Azure Virtual Network를 사용하여 연결
Azure Databricks 작업 영역에서 Virtual Network를 사용하는 경우 다음 두 가지 방법으로 연결할 수 있습니다.
퍼블릭 인터넷을 통해 노출하지 않고 가상 네트워크 내의 리소스와 Power Platform을 통합합니다. Azure Databricks 작업 영역의 프라이빗 엔드포인트에 연결하려면 Azure Databricks에 대한 프라이빗 연결을 구성한 후 다음을 수행합니다.
- Power Platform에 대한 Virtual Network 지원을 설정합니다.
- Power Platform 가상 네트워크(기본 또는 보조 네트워크)가 Azure Databricks 가상 네트워크와 다른 경우 가상 네트워크 피어링을 사용하여 가상 네트워크를 Azure Databricks와 연결합니다.
가상 네트워크에 대한 자세한 내용은 Virtual Network 지원 개요를 참조하세요.
공용 엔드포인트가 있는 프런트 엔드 프라이빗 링크가 작업 영역 IP 액세스 목록으로 보호되는 하이브리드 배포를 사용하여 액세스를 사용하도록 설정합니다. 액세스를 사용하도록 설정하려면 다음을 수행합니다.
- 작업 영역 수준에서 공용 액세스를 사용하도록 설정합니다. 자세한 내용은 작업 영역에 대한 IP 액세스 목록 구성을 참조하세요.
- 환경의 지역에 따라 AzureConnectors IP 범위 또는 특정 Power Platform IP 범위를 작업 영역 IP 액세스 목록에 추가합니다.
선택 사항: Microsoft Entra 서비스 주체 만들기
중요합니다
Azure Databricks 및 Power Platform이 서로 다른 테넌트에 있는 경우 인증에 서비스 주체를 사용해야 합니다.
연결하기 전에 다음 단계를 완료하여 Azure Databricks 계정 또는 작업 영역에 Microsoft Entra 서비스 주체를 만들고, 설정하고, 할당합니다.
1단계: Power Platform에 Azure Databricks 연결 추가
비고
Copilot Studio를 사용하는 경우 Power Apps 또는 Power Automate를 사용하여 Azure Databricks 커넥터를 정의해야 합니다. 그런 다음 코필로트 스튜디오에서 사용할 수 있습니다.
Azure Databricks 연결을 추가하려면 다음을 수행합니다.
Power Apps 또는 Power Automate의 사이드바에서 연결을 클릭합니다.
왼쪽 위 모서리에서 + 새 연결을 클릭합니다.
오른쪽 위에 있는 검색 창을 사용하여 "Azure Databricks"를 검색합니다.
Azure Databricks 타일을 선택합니다.
드롭다운 메뉴에서 인증 유형을 선택합니다.
인증 방법을 선택하고 인증 정보를 입력합니다.
Power Platform 배포 및 Azure Databricks 계정이 동일한 Microsoft Entra 테넌트에 있는 경우 OAuth 연결을 사용할 수 있습니다. 다음 정보를 입력합니다.
- 서버 호스트 이름에 Azure Databricks SQL Warehouse 호스트 이름을 입력합니다.
- HTTP 경로의 경우 SQL Warehouse HTTP 경로를 입력합니다.
- 만들기를 클릭합니다.
- Microsoft Entra ID로 로그인합니다.
서비스 주체 연결 은 모든 시나리오에서 사용할 수 있습니다. 연결하기 전에 Microsoft Entra 서비스 주체를 만듭니다. 다음 정보를 입력합니다.
- 클라이언트 ID의 경우 서비스 주체 ID를 입력합니다.
- 클라이언트 암호의 경우 서비스 주체 암호를 입력합니다.
- 테넌트에 서비스 주체 테넌트를 입력합니다.
- 호스트 이름에 Azure Databricks SQL Warehouse 호스트 이름을 입력합니다.
- HTTP 경로의 경우 SQL Warehouse HTTP 경로를 입력합니다.
- (선택 사항) 연결을 만든 후 서비스 주체 연결의 이름을 바꾸거나 팀 구성원과 공유할 수 있습니다.
Azure Databricks SQL 웨어하우스 연결 세부 정보를 찾으려면 Azure Databricks 컴퓨팅 리소스에 대한 연결 세부 정보 가져오기를 참조하세요.
만들기를 클릭합니다.
2단계: Azure Databricks 연결 사용
Power Apps 또는 Power Automate에서 Azure Databricks 연결을 만든 후 Azure Databricks 데이터를 사용하여 Power Canvas 앱, Power Automate 흐름 및 Copilot Studio 에이전트를 빌드할 수 있습니다.
Azure Databricks 데이터를 사용하여 Power Canvas 앱 빌드
중요합니다
Azure Databricks 테이블을 저장할 수 없으므로 Power Apps에서만 캔버스 앱을 만들 수 있습니다.
애플리케이션에 Azure Databricks 데이터를 추가하려면 다음을 수행합니다.
- 맨 왼쪽 탐색 모음에서 만들기를 클릭합니다.
- 빈 캔버스로 시작을 클릭하고 원하는 캔버스 크기를 선택하여 새 캔버스 앱을 만듭니다.
- 애플리케이션에서 데이터 > 커넥터 Azure Databricks > 추가를 클릭합니다. 만든 Azure Databricks 연결을 선택합니다.
- 데이터 세트 선택 사이드바에서 카탈로그 를 선택합니다 .
- 데이터 세트 사이드바 선택에서 캔버스 앱을 연결할 모든 테이블을 선택합니다.
- 연결을 클릭합니다.
Power Apps의 데이터 작업:
커넥터는 기본 키가 정의된 테이블에 대해서만 만들기, 업데이트 및 삭제 작업을 지원합니다. 만들기 작업을 수행할 때는 항상 기본 키를 지정해야 합니다.
Azure Databricks는 생성된 ID 열을 지원합니다. 이 경우 기본 키 값은 행을 만드는 동안 서버에서 자동으로 생성되며 수동으로 지정할 수 없습니다.
Azure Databricks 데이터를 사용하여 Power Automate 흐름 빌드
Azure Databricks 문 실행 API 가 Power Automate 내에 노출되므로 Power Automate에서 SQL 문을 작성할 수 있습니다. 작업으로 Azure Databricks를 사용하여 Power Automate 흐름을 만들려면 다음을 수행합니다.
맨 왼쪽 탐색 모음에서 만들기를 클릭합니다.
흐름을 만들고 트리거 형식을 추가합니다.
새 흐름에서 "Databricks"를 클릭하고 + 검색하여 사용 가능한 작업을 확인합니다.
사용 가능한 네 가지 옵션 중에서 원하는 작업을 선택합니다.
SQL 문 실행: SQL 문을 작성하고 실행합니다. 다음을 입력합니다.
- 본문/warehouse_id 항목에 SQL 문을 실행할 웨어하우스의 ID를 입력하세요.
- "본문/statement_id의 경우, 실행할 SQL 문의 ID를 입력하세요."
고급 매개 변수에 대한 자세한 내용은 여기를 참조 하세요.
상태를 확인하고 결과를 가져옵니다. SQL 문의 상태를 확인하고 결과를 수집합니다. 다음을 입력합니다.
- 문 ID의 경우 SQL 문이 실행될 때 반환된 ID를 입력합니다.
매개 변수에 대한 자세한 내용은 여기를 참조 하세요.
문 실행을 취소합니다. SQL 문의 실행을 종료합니다. 다음을 입력합니다.
- 문장 ID에 종료할 SQL 문의 ID를 입력합니다.
매개 변수에 대한 자세한 내용은 여기를 참조 하세요.
청크 인덱스로 결과를 가져옵니다 . 큰 결과 집합에 적합한 청크 인덱스로 결과를 가져옵니다. 다음을 입력합니다.
- 검색할 결과를 얻기 위해 명령문 ID에 SQL 문의 ID를 입력합니다.
- 청크 인덱스에 대상 청크 인덱스를 입력하세요.
매개 변수에 대한 자세한 내용은 여기를 참조 하세요.
Copilot Studio에서 Azure Databricks를 지식 원본으로 사용
Copilot Studio 에이전트에 Azure Databricks 데이터를 지식 원본으로 추가하려면 다음을 수행합니다.
사이드바에서 에이전트를 클릭합니다.
+ 새 에이전트를 클릭하여 기존 에이전트를 선택하거나 새 에이전트를 만듭니다.
- 메시지를 입력하여 에이전트를 설명한 다음 만들기를 클릭합니다.
- 또는 [건너뛰기 ]를 클릭하여 에이전트의 정보를 수동으로 지정합니다.
[지식] 탭에서 + [지식]을 클릭합니다.
고급을 클릭합니다.
Azure Databricks를 기술 자료로 선택합니다.
데이터가 있는 카탈로그 이름을 입력합니다.
연결을 클릭합니다.
에이전트에서 기술 자료로 사용할 테이블을 선택하고 추가를 클릭합니다.
일괄 업데이트 수행
Power Apps 입력에 대한 응답으로 대량 만들기, 업데이트 또는 삭제 작업을 수행해야 하는 경우 Databricks는 Power Automate 흐름을 구현하는 것이 좋습니다. 그 절차는 다음과 같습니다:
Power Apps에서 Azure Databricks 연결을 사용하여 캔버스 앱을 만듭니다.
Azure Databricks 연결을 사용하여 Power Automate 흐름을 만들고 Power Apps를 트리거로 사용합니다.
Power Automate 트리거에서 Power Apps에서 Power Automate로 전달하려는 입력 필드를 추가합니다.
Power Apps 내에서 컬렉션 개체를 만들어 모든 변경 내용을 수집합니다.
캔버스 앱에 Power Automate 플로우를 추가하세요.
캔버스 앱에서 Power Automate 플로우를 호출하고
ForAll
명령을 사용하여 컬렉션을 반복합니다.ForAll(collectionName, FlowName.Run(input field 1, input field 2, input field 3, …)
동시 쓰기
행 수준 동시성은 행 수준에서 변경 내용을 검색하고 동시 쓰기가 동일한 데이터 파일에서 다른 행을 업데이트하거나 삭제할 때 발생하는 충돌을 자동으로 해결하여 동시 쓰기 작업 간의 충돌을 줄입니다.
행 수준 동시성은 Databricks Runtime 14.2 이상에 포함됩니다. 행 수준 동시성은 기본적으로 다음 유형의 테이블에 대해 지원됩니다.
- 삭제 벡터가 활성화되고 분할이 없는 테이블
- 삭제 벡터를 사용하지 않도록 설정하지 않는 한 액체 클러스터링이 있는 테이블
삭제 벡터를 사용하도록 설정하려면 다음 SQL 명령을 실행합니다.
ALTER TABLE table_name SET TBLPROPERTIES ('delta.enableDeletionVectors' = true);
Azure Databricks의 동시 쓰기 충돌에 대한 자세한 내용은 Azure Databricks 에서 격리 수준 및 쓰기 충돌을 참조하세요.
제한점
- Power Platform 커넥터는 정부 클라우드를 지원하지 않습니다.
Power App 제한 사항
다음 PowerFx 수식은 로컬로 검색된 데이터만 사용하여 값을 계산합니다.
카테고리 | 수식 |
---|---|
Table 함수 |
|
집계 |
|
Power Automate 제한 사항
- 사용자 지정 커넥터는 OpenAPI 2.0(Swagger 2.0)을 기반으로 하므로 Power Automate 쿼리에서 반환된 데이터는 null이 아니어야 합니다. 그렇지 않으면 Power Automate에서 오류가 발생합니다.