다음을 통해 공유


고급 항목 스크립트 작성

적용 대상: Python SDK azureml v1

이 문서에서는 특수한 사용 사례에 대한 항목 스크립트를 작성하는 방법을 설명합니다.

필수 조건

이 문서에서는 Azure Machine Learning을 사용하여 배포하려는 학습된 기계 학습 모델이 이미 있다고 가정합니다. 모델 배포에 대해 자세히 알아보려면 Azure에 기계 학습 모델 배포를 참조하세요.

Swagger 스키마 자동 생성

웹 서비스에 대한 스키마를 자동으로 생성하려면 정의된 형식 개체 중 하나에 대한 생성자에서 입력 및/또는 출력의 샘플을 제공합니다. 형식 및 샘플은 스키마를 자동으로 만드는 데 사용됩니다. 그런 다음 Azure Machine Learning은 배포 중에 웹 서비스에 대한 OpenAPI 사양(이전의 Swagger 사양)을 만듭니다.

Warning

샘플 입력 또는 출력에 중요한 데이터 또는 개인 데이터를 사용하지 않아야 합니다. AML에서 호스트되는 추론의 Swagger 페이지는 샘플 데이터를 노출합니다.

현재 지원되는 형식은 다음과 같습니다.

  • pandas
  • numpy
  • pyspark
  • 표준 Python 개체

스키마 생성을 사용하려면 종속성 파일에 오픈 소스 inference-schema 패키지 버전 1.1.0을 포함합니다. 이 패키지에 대한 자세한 내용은 GitHub의 InferenceSchema를 참조하세요. 자동화된 웹 서비스 사용에 대한 준수 swagger를 생성하려면 점수 매기기 스크립트 실행() 함수에 다음의 API 셰이프를 사용해야 합니다.

  • Inputs라는 이름의 중첩된 StandardPythonParameterType 형식의 첫 번째 매개 변수
  • GlobalParameters라는 이름의 StandardPythonParameterType 형식의 선택적 두 번째 매개 변수
  • Results라는 이름의 중첩된 StandardPythonParameterType 형식의 사전 반환

input_sampleoutput_sample 변수에서 웹 서비스의 요청 및 응답 형식을 나타내는 입력 및 출력 샘플 형식을 정의합니다. run() 함수에 대한 입력 및 출력 함수 데코레이터에서 이러한 샘플을 사용합니다. 다음 scikit-learn 예제에서는 스키마 생성을 사용합니다.

Power BI 호환 엔드포인트

다음 예에서는 이전 지침에 따라 API 형태를 정의하는 방법을 보여 줍니다. 이 메서드는 Power BI에서 배포된 웹 서비스를 사용하는 데 지원됩니다.

import json
import pickle
import numpy as np
import pandas as pd
import azureml.train.automl
from sklearn.externals import joblib
from sklearn.linear_model import Ridge

from inference_schema.schema_decorators import input_schema, output_schema
from inference_schema.parameter_types.standard_py_parameter_type import StandardPythonParameterType
from inference_schema.parameter_types.numpy_parameter_type import NumpyParameterType
from inference_schema.parameter_types.pandas_parameter_type import PandasParameterType


def init():
    global model
    # Replace filename if needed.
    model_path = os.path.join(os.getenv('AZUREML_MODEL_DIR'), 'sklearn_regression_model.pkl')
    # Deserialize the model file back into a sklearn model.
    model = joblib.load(model_path)


# providing 3 sample inputs for schema generation
numpy_sample_input = NumpyParameterType(np.array([[1,2,3,4,5,6,7,8,9,10],[10,9,8,7,6,5,4,3,2,1]],dtype='float64'))
pandas_sample_input = PandasParameterType(pd.DataFrame({'name': ['Sarah', 'John'], 'age': [25, 26]}))
standard_sample_input = StandardPythonParameterType(0.0)

# This is a nested input sample, any item wrapped by `ParameterType` will be described by schema
sample_input = StandardPythonParameterType({'input1': numpy_sample_input, 
                                        'input2': pandas_sample_input, 
                                        'input3': standard_sample_input})

sample_global_parameters = StandardPythonParameterType(1.0) # this is optional
sample_output = StandardPythonParameterType([1.0, 1.0])
outputs = StandardPythonParameterType({'Results':sample_output}) # 'Results' is case sensitive

@input_schema('Inputs', sample_input) 
# 'Inputs' is case sensitive

@input_schema('GlobalParameters', sample_global_parameters) 
# this is optional, 'GlobalParameters' is case sensitive

@output_schema(outputs)

def run(Inputs, GlobalParameters): 
    # the parameters here have to match those in decorator, both 'Inputs' and 
    # 'GlobalParameters' here are case sensitive
    try:
        data = Inputs['input1']
        # data will be convert to target format
        assert isinstance(data, np.ndarray)
        result = model.predict(data)
        return result.tolist()
    except Exception as e:
        error = str(e)
        return error

스크립트의 반환 값은 JSON으로 직렬화할 수 있는 모든 Python 개체일 수 있습니다. 예를 들어 모델이 여러 열을 포함하는 Pandas 데이터 프레임을 반환하는 경우 다음 코드와 유사한 출력 데코레이터를 사용할 수 있습니다.

output_sample = pd.DataFrame(data=[{"a1": 5, "a2": 6}])
@output_schema(PandasParameterType(output_sample))
...
result = model.predict(data)
return result

이진(즉, 이미지) 데이터

모델이 이미지와 같이 이진 데이터를 허용하는 경우 원시 HTTP 요청을 수락하도록 배포에 사용되는 score.py 파일을 수정해야 합니다. 원시 데이터를 수락하려면 항목 스크립트에서 AMLRequest 클래스를 사용하고 run() 함수에 @rawhttp 데코레이터를 추가합니다.

다음은 이진 데이터를 수락하는 score.py의 예제입니다.

from azureml.contrib.services.aml_request import AMLRequest, rawhttp
from azureml.contrib.services.aml_response import AMLResponse
from PIL import Image
import json


def init():
    print("This is init()")
    

@rawhttp
def run(request):
    print("This is run()")
    
    if request.method == 'GET':
        # For this example, just return the URL for GETs.
        respBody = str.encode(request.full_path)
        return AMLResponse(respBody, 200)
    elif request.method == 'POST':
        file_bytes = request.files["image"]
        image = Image.open(file_bytes).convert('RGB')
        # For a real-world solution, you would load the data from reqBody
        # and send it to the model. Then return the response.

        # For demonstration purposes, this example just returns the size of the image as the response.
        return AMLResponse(json.dumps(image.size), 200)
    else:
        return AMLResponse("bad request", 500)

Important

AMLRequest 클래스가 azureml.contrib 네임스페이스에 있습니다. 서비스를 개선하려 노력하므로 이 네임스페이스의 항목은 자주 변경됩니다. 이 네임스페이스의 모든 것을 미리 보기로 간주하므로 Microsoft에서 완벽히 지원되지 않습니다.

로컬 개발 환경에서 이를 테스트해야 하는 경우 다음 명령을 사용하여 구성 요소를 설치할 수 있습니다.

pip install azureml-contrib-services

참고 항목

azureml-fe 쪽에서와 같이 500은 사용자 지정 상태 코드로 권장되지 않으며, 상태 코드는 502로 다시 작성됩니다.

  • 상태 코드는 azureml-fe를 통해 전달된 다음 클라이언트로 전송됩니다.
  • azureml-fe는 모델 쪽에서 반환된 500을 502로 재작성하고 클라이언트는 502를 수신합니다.
  • 그러나 azureml-fe 자체가 500을 반환하는 경우 클라이언트 쪽에서는 여전히 500을 받습니다.

AMLRequest 클래스를 사용하면 score.py 파일에서 게시된 원시 데이터에만 액세스할 수 있으며 클라이언트 쪽 구성 요소는 없습니다. 클라이언트에서 데이터를 정상적으로 게시합니다. 예를 들어 다음 Python 코드는 이미지 파일을 읽고 데이터를 게시합니다.

import requests

uri = service.scoring_uri
image_path = 'test.jpg'
files = {'image': open(image_path, 'rb').read()}
response = requests.post(uri, files=files)

print(response.json)

CORS(원본 간 리소스 공유)

원본 간 리소스 공유는 웹 페이지의 리소스가 다른 도메인에서 요청될 수 있도록 하는 방법입니다. CORS는 클라이언트 요청과 함께 전송되고 서비스 응답과 함께 반환된 HTTP 헤더를 통해 작동합니다. CORS 및 유효한 헤더에 대한 자세한 내용은 위키백과의 원본 간 리소스 공유를 참조하세요.

CORS를 지원하도록 모델 배포를 구성하려면 항목 스크립트에서 AMLResponse 클래스를 사용합니다. 이 클래스를 사용하여 응답 개체의 헤더를 설정할 수 있습니다.

다음 예제에서는 입력 스크립트의 응답에 대한 Access-Control-Allow-Origin 헤더를 설정합니다.

from azureml.contrib.services.aml_request import AMLRequest, rawhttp
from azureml.contrib.services.aml_response import AMLResponse


def init():
    print("This is init()")

@rawhttp
def run(request):
    print("This is run()")
    print("Request: [{0}]".format(request))
    if request.method == 'GET':
        # For this example, just return the URL for GET.
        # For a real-world solution, you would load the data from URL params or headers
        # and send it to the model. Then return the response.
        respBody = str.encode(request.full_path)
        resp = AMLResponse(respBody, 200)
        resp.headers["Allow"] = "OPTIONS, GET, POST"
        resp.headers["Access-Control-Allow-Methods"] = "OPTIONS, GET, POST"
        resp.headers['Access-Control-Allow-Origin'] = "http://www.example.com"
        resp.headers['Access-Control-Allow-Headers'] = "*"
        return resp
    elif request.method == 'POST':
        reqBody = request.get_data(False)
        # For a real-world solution, you would load the data from reqBody
        # and send it to the model. Then return the response.
        resp = AMLResponse(reqBody, 200)
        resp.headers["Allow"] = "OPTIONS, GET, POST"
        resp.headers["Access-Control-Allow-Methods"] = "OPTIONS, GET, POST"
        resp.headers['Access-Control-Allow-Origin'] = "http://www.example.com"
        resp.headers['Access-Control-Allow-Headers'] = "*"
        return resp
    elif request.method == 'OPTIONS':
        resp = AMLResponse("", 200)
        resp.headers["Allow"] = "OPTIONS, GET, POST"
        resp.headers["Access-Control-Allow-Methods"] = "OPTIONS, GET, POST"
        resp.headers['Access-Control-Allow-Origin'] = "http://www.example.com"
        resp.headers['Access-Control-Allow-Headers'] = "*"
        return resp
    else:
        return AMLResponse("bad request", 400)

Important

AMLResponse 클래스가 azureml.contrib 네임스페이스에 있습니다. 서비스를 개선하려 노력하므로 이 네임스페이스의 항목은 자주 변경됩니다. 이 네임스페이스의 모든 것을 미리 보기로 간주하므로 Microsoft에서 완벽히 지원되지 않습니다.

로컬 개발 환경에서 이를 테스트해야 하는 경우 다음 명령을 사용하여 구성 요소를 설치할 수 있습니다.

pip install azureml-contrib-services

Warning

Azure Machine Learning은 채점 서비스를 실행하는 컨테이너에 POST 및 GET 요청만 라우팅합니다. 이로 인해 사전 CORS 요청에 대한 OPTIONS 요청을 사용하는 브라우저로 인한 오류가 발생할 수 있습니다.

등록된 모델 로드

항목 스크립트에서 모델을 찾는 방법에는 두 가지가 있습니다.

  • AZUREML_MODEL_DIR: 모델 위치의 경로를 포함하는 환경 변수입니다.
  • Model.get_model_path: 등록된 모델 이름을 사용하여 모델 파일에 대한 경로를 반환하는 API입니다.

AZUREML_MODEL_DIR

AZUREML_MODEL_DIR은 서비스 배포 중에 만들어진 환경 변수입니다. 이 환경 변수를 사용하여 배포된 모델의 위치를 찾을 수 있습니다.

다음 표에서는 배포된 모델 수에 따른 AZUREML_MODEL_DIR 값을 설명합니다.

배포 환경 변수 값
단일 모델 모델을 포함하는 폴더에 대한 경로입니다.
다중 모델 모든 모델을 포함하는 폴더에 대한 경로입니다. 모델은 이 폴더($MODEL_NAME/$VERSION)의 이름 및 버전으로 위치합니다.

모델 등록 및 배포 중에 모델은 AZUREML_MODEL_DIR 경로에 배치되고, 원래 파일 이름은 유지됩니다.

항목 스크립트의 모델 파일에 대한 경로를 가져오려면 환경 변수를 찾고 있는 파일 경로와 결합합니다.

단일 모델 예제

# Example when the model is a file
model_path = os.path.join(os.getenv('AZUREML_MODEL_DIR'), 'sklearn_regression_model.pkl')

# Example when the model is a folder containing a file
file_path = os.path.join(os.getenv('AZUREML_MODEL_DIR'), 'my_model_folder', 'sklearn_regression_model.pkl')

다중 모델 예제

이 시나리오에서는 두 개의 모델이 작업 영역에 등록됩니다.

  • my_first_model: 하나의 파일(my_first_model.pkl)을 포함하고 하나의 버전(1)만 있습니다.
  • my_second_model: 하나의 파일(my_second_model.pkl)을 포함하고 두 개의 버전(12)이 있습니다.

서비스가 배포되면 배포 작업에 두 모델이 모두 제공됩니다.

first_model = Model(ws, name="my_first_model", version=1)
second_model = Model(ws, name="my_second_model", version=2)
service = Model.deploy(ws, "myservice", [first_model, second_model], inference_config, deployment_config)

서비스를 호스트하는 Docker 이미지에서 AZUREML_MODEL_DIR 환경 변수는 모델이 위치한 디렉터리를 포함합니다. 이 디렉터리에서 각 모델은 MODEL_NAME/VERSION의 디렉터리 경로에 있습니다. 여기서 MODEL_NAME은 등록된 모델의 이름이고 VERSION은 모델의 버전입니다. 등록된 모델을 구성하는 파일은 다음 디렉터리에 저장됩니다.

이 예제에서 경로는 $AZUREML_MODEL_DIR/my_first_model/1/my_first_model.pkl$AZUREML_MODEL_DIR/my_second_model/2/my_second_model.pkl입니다.

# Example when the model is a file, and the deployment contains multiple models
first_model_name = 'my_first_model'
first_model_version = '1'
first_model_path = os.path.join(os.getenv('AZUREML_MODEL_DIR'), first_model_name, first_model_version, 'my_first_model.pkl')
second_model_name = 'my_second_model'
second_model_version = '2'
second_model_path = os.path.join(os.getenv('AZUREML_MODEL_DIR'), second_model_name, second_model_version, 'my_second_model.pkl')

get_model_path

모델을 등록할 때 레지스트리에서 모델을 관리하는 데 사용되는 모델 이름을 제공합니다. 이 이름을 Model.get_model_path() 메서드와 함께 사용하여 로컬 파일 시스템에서 모델 파일 또는 파일의 경로를 검색합니다. 폴더 또는 파일 컬렉션을 등록하는 경우 이 API는 해당 파일이 포함된 디렉터리의 경로를 반환합니다.

모델을 등록할 때 이름을 지정합니다. 이름은 모델을 로컬 또는 서비스 배포 중에 배치하는 위치에 해당합니다.

프레임워크 관련 예제

특정 기계 학습 사용 사례에 대한 추가 항목 스크립트 예는 다음 문서를 참조하세요.