HDInsight에서 Apache Hive와 함께 Java UDF 사용
Apache Hive와 함께 사용할 Java 기반 UDF(사용자 정의 함수)를 만드는 방법을 알아봅니다. 이 예제의 Java UDF는 텍스트 문자열 테이블을 모두 소문자로 변환합니다.
필수 조건
HDInsight의 Hadoop 클러스터. Linux에서 HDInsight 시작을 참조하세요.
Apache에 따라 올바르게 설치된Apache Maven Maven은 Java 프로젝트용 프로젝트 빌드 시스템입니다.
클러스터 기본 스토리지에 대한 URI 체계입니다. Azure Storage는 wasb://, Azure Data Lake Storage Gen2는
abfs://
, Azure Data Lake Storage Gen1은 adl://입니다. Azure Storage에 대해 보안 전송이 활성화된 경우 URI는wasbs://
입니다. 보안 전송도 참조하세요.텍스트 편집기 또는 Java IDE
Important
Windows 클라이언트에서 Python 파일을 만드는 경우 LF를 줄 끝으로 사용하는 편집기를 이용해야 합니다. 편집기에서 LF 또는 CRLF를 사용하는지 여부가 확실하지 않은 경우 CR 문자를 제거하는 단계는 문제 해결 섹션을 참조하세요.
테스트 환경
이 문서에 사용된 환경은 Windows 10을 실행하는 컴퓨터였습니다. 명령은 명령 프롬프트에서 실행되었으며 다양한 파일이 메모장을 사용하여 편집되었습니다. 사용자 환경에 맞게 수정합니다.
명령 프롬프트에서 아래 명령을 입력하여 작업 환경을 만듭니다.
IF NOT EXIST C:\HDI MKDIR C:\HDI
cd C:\HDI
예제 Java UDF 만들기
다음 명령을 입력하여 새 Maven 프로젝트를 만듭니다.
mvn archetype:generate -DgroupId=com.microsoft.examples -DartifactId=ExampleUDF -DarchetypeArtifactId=maven-archetype-quickstart -DinteractiveMode=false
이 명령은 Maven 프로젝트를 포함하는
exampleudf
라는 디렉터리를 만듭니다.프로젝트를 만들면 다음 명령을 입력하여 프로젝트의 일부로 만들어진
exampleudf/src/test
디렉터리를 삭제합니다.cd ExampleUDF rmdir /S /Q "src/test"
아래 명령을 입력하여
pom.xml
을 엽니다.notepad pom.xml
그런 다음, 기존
<dependencies>
항목을 다음 XML로 바꿉니다.<dependencies> <dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-client</artifactId> <version>2.7.3</version> <scope>provided</scope> </dependency> <dependency> <groupId>org.apache.hive</groupId> <artifactId>hive-exec</artifactId> <version>1.2.1</version> <scope>provided</scope> </dependency> </dependencies>
이러한 항목은 HDInsight 3.6과 함께 포함된 Hadoop 및 Hive의 버전을 지정합니다. HDInsight 구성 요소 버전 관리 문서에서 HDInsight를 제공하는 Hadoop 및 Hive의 버전에 대한 정보를 찾을 수 있습니다.
파일 끝의
</project>
줄 앞에<build>
섹션을 추가합니다. 이 섹션에는 다음 XML이 포함되어야 합니다.<build> <plugins> <!-- build for Java 1.8. This is required by HDInsight 3.6 --> <plugin> <groupId>org.apache.maven.plugins</groupId> <artifactId>maven-compiler-plugin</artifactId> <version>3.3</version> <configuration> <source>1.8</source> <target>1.8</target> </configuration> </plugin> <!-- build an uber jar --> <plugin> <groupId>org.apache.maven.plugins</groupId> <artifactId>maven-shade-plugin</artifactId> <version>3.2.1</version> <configuration> <!-- Keep us from getting a can't overwrite file error --> <transformers> <transformer implementation="org.apache.maven.plugins.shade.resource.ApacheLicenseResourceTransformer"> </transformer> <transformer implementation="org.apache.maven.plugins.shade.resource.ServicesResourceTransformer"> </transformer> </transformers> <!-- Keep us from getting a bad signature error --> <filters> <filter> <artifact>*:*</artifact> <excludes> <exclude>META-INF/*.SF</exclude> <exclude>META-INF/*.DSA</exclude> <exclude>META-INF/*.RSA</exclude> </excludes> </filter> </filters> </configuration> <executions> <execution> <phase>package</phase> <goals> <goal>shade</goal> </goals> </execution> </executions> </plugin> </plugins> </build>
이러한 항목은 프로젝트를 빌드하는 방법을 정의합니다. 특히, 프로젝트에서 사용하는 Java 버전과 클러스터로의 배포를 위한 uberjar를 빌드하는 방법이 유용합니다.
변경이 완료되면 파일을 저장합니다.
다음 명령을 입력하여 새 파일을 만들고 엽니다
ExampleUDF.java
.notepad src/main/java/com/microsoft/examples/ExampleUDF.java
그런 다음, 아래의 Java 코드를 복사하여 새 파일에 붙여넣습니다. 그 다음 파일을 닫습니다.
package com.microsoft.examples; import org.apache.hadoop.hive.ql.exec.Description; import org.apache.hadoop.hive.ql.exec.UDF; import org.apache.hadoop.io.*; // Description of the UDF @Description( name="ExampleUDF", value="returns a lower case version of the input string.", extended="select ExampleUDF(deviceplatform) from hivesampletable limit 10;" ) public class ExampleUDF extends UDF { // Accept a string input public String evaluate(String input) { // If the value is null, return a null if(input == null) return null; // Lowercase the input string and return it return input.toLowerCase(); } }
이 코드는 문자열 값을 허용하고 문자열의 소문자 버전을 반환하는 UDF를 구현합니다.
UDF 빌드 및 설치
아래 명령에서 sshuser
을 실제 사용자 이름(다른 경우)으로 바꿉니다. mycluster
를 실제 클러스터 이름으로 바꿉니다.
다음 명령을 입력하여 UDF를 컴파일하고 패키지합니다.
mvn compile package
이 명령은
exampleudf/target/ExampleUDF-1.0-SNAPSHOT.jar
파일에 UDF를 빌드하고 패키지합니다.다음 명령을 입력하여
scp
명령을 사용해 파일을 HDInsight 클러스터에 복사합니다.scp ./target/ExampleUDF-1.0-SNAPSHOT.jar sshuser@mycluster-ssh.azurehdinsight.net:
다음 명령을 입력하여 SSH를 사용해 클러스터에 연결합니다.
ssh sshuser@mycluster-ssh.azurehdinsight.net
열린 SSH 세션에서 jar 파일을 HDInsight 스토리지에 복사합니다.
hdfs dfs -put ExampleUDF-1.0-SNAPSHOT.jar /example/jars
Hive에서 UDF 사용
다음 명령을 입력하여 SSH 세션에서 Beeline 클라이언트를 시작합니다.
beeline -u 'jdbc:hive2://localhost:10001/;transportMode=http'
이 명령에서는 클러스터에 대한 로그인 계정에 admin 의 기본값을 사용했다고 가정합니다.
jdbc:hive2://localhost:10001/>
프롬프트가 표시되면 다음을 입력하여 Hive에 UDF를 추가하고 함수로 노출합니다.ADD JAR wasbs:///example/jars/ExampleUDF-1.0-SNAPSHOT.jar; CREATE TEMPORARY FUNCTION tolower as 'com.microsoft.examples.ExampleUDF';
UDF를 사용하여 검색한 값을 테이블에서 소문자 문자열로 변환합니다.
SELECT tolower(state) AS ExampleUDF, state FROM hivesampletable LIMIT 10;
이 쿼리는 테이블에서 상태를 선택하고 문자열을 소문자로 변환한 다음, 수정되지 않은 이름과 함께 표시합니다. 출력은 다음 텍스트와 유사합니다.
+---------------+---------------+--+ | exampleudf | state | +---------------+---------------+--+ | california | California | | pennsylvania | Pennsylvania | | pennsylvania | Pennsylvania | | pennsylvania | Pennsylvania | | colorado | Colorado | | colorado | Colorado | | colorado | Colorado | | utah | Utah | | utah | Utah | | colorado | Colorado | +---------------+---------------+--+
문제 해결
Hive 작업 실행 중 다음 텍스트와 유사한 오류가 발생할 수 있습니다.
Caused by: org.apache.hadoop.hive.ql.metadata.HiveException: [Error 20001]: An error occurred while reading or writing to your custom script. It may have crashed with an error.
이 문제는 Python 파일의 줄 끝 때문에 발생할 수 있습니다. 많은 Windows 편집기에서는 기본적으로 CRLF를 줄 끝으로 사용하지만 Linux 애플리케이션에서는 보통 LF를 사용합니다.
파일을 HDInsight로 업로드하기 전에 CR 문자를 제거하기 위해 다음 PowerShell 문을 사용할 수 있습니다.
# Set $original_file to the Python file path
$text = [IO.File]::ReadAllText($original_file) -replace "`r`n", "`n"
[IO.File]::WriteAllText($original_file, $text)
다음 단계
Hive로 작업하는 다른 방법은 HDInsight에서 Apache Hive 사용을 참조하세요.
Hive 사용자 정의 함수에 대한 자세한 내용은 apache.org의 Hive wiki에서 Apache Hive 연산자 및 사용자 정의 함수 섹션을 참조하세요.