기존 MLOps에서 LLMOps로 전환

완료됨

MLOps (Machine Learning 작업) 및 LLMOps (대규모 언어 모델 작업)는 기계 학습 모델의 운영화에서 각각 고유한 챌린지, 도구 및 워크플로 집합이 있는 두 가지 고유한 패러다임을 나타냅니다.

기존의 MLOps는 다양한 기계 학습 모델을 배포하고 관리하는 데 중점을 두고 있지만 LLMOps는 크기 조정, 데이터 관리 및 모델 튜닝 측면에서 고유한 요구 사항이 있는 LLM(대규모 언어 모델)에 맞게 특별히 조정됩니다.

Azure Databricks는 MLOps와 LLMOps를 모두 지원하지만, 각각의 구현 세부 정보는 크게 다릅니다. MLops와 LLMOps를 비교하여 차이점을 살펴보겠습니다.

MLOps와 LLMOps 비교

기존의 기계 학습에는 일반적으로 회귀 모델 또는 더 복잡한 신경망과 같은 모델의 학습이 포함됩니다.

기존 기계 학습 개요의 다이어그램.

기계 학습 프로세스는 다음을 포함합니다.

  1. 적절한 데이터 세트 수집, 탐색 및 준비
  2. 알고리즘을 선택하고 데이터 레이블을 정의합니다.
  3. 학습된 모델을 사용하여 새 데이터에 대한 예측을 생성합니다 .

운영의 초점은 이러한 모델이 다양한 환경 및 데이터 볼륨에서 효율적으로 확장할 수 있도록 하는 것입니다.

Azure Databricks는 확장성 있는 컴퓨팅 리소스, Azure Machine Learning과의 통합 및 모델의 추적과 배포를 위한 MLflow와 같은 도구를 제공하여 MLOps를 용이하게 합니다.

반면 LLMOps는 텍스트 기반 입력과 같은 구조(프롬프트라고 함)로 작동하는 미리 학습된 언어 모델을 처리합니다.

언어 모델 구현 개요 다이어그램

언어 모델을 사용하는 프로세스는 다음을 포함합니다.

  1. 데이터와 예상 프롬프트의 결합.
  2. 미리 학습된 언어 모델 선택 및 구성
  3. 구성된 모델을 사용해 새 프롬프트에 응답을 생성합니다.

LLMOps는 GPT-3 또는 GPT-4와 같이 더 큰 규모의 모델을 처리합니다. LLM에는 더 강력한 컴퓨팅 성능뿐만 아니라, LLM의 규모를 처리하기 위한 특수 인프라도 필요합니다.

Azure Databricks는 최적화된 클러스터, 분산 컴퓨팅Azure OpenAI와의 통합을 제공하여 대규모 LLM을 배포할 수 있도록 합니다.

MLOps와 LLMOps를 비교할 때 이해해야 할 몇 가지 주요 차이점이 있습니다.

구조화되지 않은 텍스트 데이터의 관리

기존 MLOps에서 데이터 관리는 정형 데이터와 반정형 데이터를 중심으로 이루어집니다. 데이터 관리 내에서는 데이터 전처리, 기능 엔지니어링 및 파이프라인 자동화에 초점을 맞춥니다.

그러나 LLMOps는 구조화되지 않은 대량의 텍스트 데이터를 처리해야 하므로 보다 정교한 데이터 수집 및 전처리 파이프라인이 필요합니다.

Microsoft Foundry와 결합된 Azure Databricks를 사용하면 큰 텍스트 corpora를 수집하고 처리할 수 있으므로 LLM을 효율적으로 학습하고 미세 조정할 수 있습니다.

처음부터 학습하지 않고 미세 조정

기존 MLOps는 특정 작업에 대한 모델 성능 최적화에 중점을 두면서 반복적인 모델 학습과 하이퍼 매개 변수 튜닝을 수행하는 경우가 많습니다. Azure Databricks의 Hyperopt 및 AutoML(자동화된 Machine Learning)과 같은 도구는 이러한 프로세스를 자동화하는 데 도움이 됩니다.

그러나 LLMOps는 특정 작업 또는 도메인 에서 미리 학습된 모델을 미세 조정하는 데 더 중점을 둡니다.

Azure Databricks는 Azure OpenAI 서비스와의 통합을 통해 미세 조정을 지원하므로, 사용자는 학습 시간 단축을 위한 분산 컴퓨팅 기능을 사용하여 최소한의 코드 변경으로 GPT-4와 같은 LLM을 미세 조정할 수 있습니다.

배포된 모델의 사용

기존 MLOps에서 배포에는 REST API, 일괄 처리 또는 실시간 유추 엔드포인트를 사용하여 모델을 프로덕션 시스템에 통합하는 작업이 포함됩니다.

그러나 LLMOps에서 배포는 미리 학습된 모델을 사용하고 배포된 모델을 호출하는 방법을 구성하는 데 집중하기 때문에 수명 주기의 초기에 발생 합니다. LLMOps에서 배포 전략은 기존 MLOps의 관행과 다릅니다.

Azure Databricks는 프로덕션 환경에서 모델 성능 및 안정성을 보장하는 기본 제공 모니터링 및 로깅을 통해 LLM을 배포하기 위한 관리 엔드포인트를 제공합니다. 또는 Azure OpenAI 및 Microsoft Foundry를 사용하여 LLM을 배포한 다음, Azure Databricks에서 이를 사용하고 구성할 수 있습니다.

시스템 보안 및 책임 있는 AI 구현

거버넌스, 규정 준수 및 책임 있는 AI 사용은 기존 MLOps에서 매우 중요합니다. 특히, 모델이 엄격한 규제 요구 사항을 준수해야 하는 금융과 의료 같은 산업에서 그렇습니다.

LLMOps는 이 영역에서 다음과 같은 다른 과제를 도입합니다.

  • 유해한 정보 유포를 방지하기 위해 콘텐츠 안전 및 조정이 필요합니다.
  • 탈옥 및 보안 조치는 악의적인 공격으로부터 보호합니다.
  • 투명성과 설명성을 보장하면 모델 의사 결정을 이해할 수 있게 함으로써 신뢰를 쌓을 수 있습니다.
  • 지속적인 모니터링 및 피드백 루프는 시간이 지남에 따라 모델 정확도, 공정성 및 안전을 유지합니다.

이러한 과제를 해결하면, 최고 수준의 거버넌스, 규정 준수 및 책임 있는 AI 관행을 준수하면서 책임감 있게 LLM을 개발 및 배포할 수 있습니다.