다음을 통해 공유


Personalizer의 특성 및 제한 사항

Important

2023년 9월 20일부터 새로운 Personalizer 리소스를 만들 수 없습니다. Personalizer 서비스는 2026년 10월 1일에 사용 중지됩니다.

Azure AI Personalizer는 다양한 시나리오에서 작동할 수 있습니다. Personalizer를 적용할 수 있는 위치를 이해하려면 시나리오의 요구 사항이 Personalizer 작동에 대한 기대치를 충족하는지 확인합니다. Personalizer를 사용해야 하는지 여부와 이를 애플리케이션에 통합하는 방법을 알아보려면 Personalizer 사용 사례를 참조하세요. Personalizer 사용과 관련된 사용 사례 선택, 기능 설계 및 보상 함수에 대한 기준과 지침을 확인할 수 있습니다.

이 문서를 읽기 전에 Personalizer 작동 방식에 대한 몇 가지 배경 정보를 이해하는 것이 좋습니다.

Personalizer의 기능 선택

콘텐츠 맞춤 설정은 콘텐츠와 사용자에 대해 보유한 유용한 정보에 달려 있습니다. 일부 애플리케이션 및 산업에서는 일부 사용자 기능이 기능은 차별적이며 잠재적으로 불법적인 것으로 직/간접적으로 간주될 수 있습니다. Personalizer에서 사용할 기능 평가에 대한 Personalizer 통합 및 책임 있는 사용 지침을 참조하세요.

Personalizer에 대한 컴퓨팅 보상

Personalizer는 애플리케이션 비즈니스 논리에서 제공하는 보상 점수에 따라 작업 선택 기능을 향상시키는 방법을 학습합니다. 잘 작성된 보상 점수는 조직의 중요 업무와 연결된 비즈니스 목표에 대한 단기 프록시로 작동합니다. 예를 들어 클릭에 대한 보상은 클릭한 항목이 사용자의 주의를 산만하게 하거나 비즈니스 결과와 연결되지 않은 경우에도 Personalizer 서비스에서 다른 모든 항목을 희생하여 클릭을 시도합니다. 반면 뉴스 사이트는 "사용자가 콘텐츠를 읽는 데 충분한 시간을 소비했나요?" 또는 "사용자가 관련 기사 또는 참조를 클릭했나요?"와 같이 클릭보다 더 의미 있는 항목과 연결된 보상을 설정하려고 할 수 있습니다. Personalizer를 사용하면 메트릭을 보상에 밀접하게 연결하기 쉽습니다. 그러나 단기 사용자 참여와 원하는 결과를 혼동하지 않도록 주의해야 합니다.

보상 점수에서 의도하지 않은 결과

최선의 의도로 작성된 보상 점수가 있는 경우에도 Personalizer에서 콘텐츠의 순위를 지정하는 방식으로 인해 예기치 않은 결과 또는 의도하지 않은 결과가 발생할 수 있습니다.

다음 예를 살펴 보십시오.

  • 시청한 비디오 길이의 비율에 따라 비디오 콘텐츠 맞춤에 대한 보상은 아마도 긴 비디오보다 짧은 비디오의 순위를 더 높게 지정하는 경향이 있습니다.
  • 공유 방법 또는 콘텐츠 자체에 대한 감정 분석 없이 소셜 미디어 공유에 대한 보상은 공격적이거나 변조되지 않거나 선동적인 콘텐츠의 순위를 지정할 수 있습니다. 이 유형의 콘텐츠는 많은 참여를 유도하는 경향이 있지만 손상을 주는 경우가 많습니다.
  • 사용자가 변경할 필요가 없는 사용자 인터페이스 요소의 작업에 대한 보상은 사용자 인터페이스의 유용성과 예측 가능성을 방해할 수 있습니다. 예를 들어 경고 없이 위치 또는 용도를 변경하는 단추는 특정 사용자 그룹에서 생산성을 유지하기 어렵게 만들 수 있습니다.

다음과 같은 모범 사례를 구현합니다.

  • 영향과 부작용을 이해하기 위해 다양한 보상 방법을 사용하여 시스템에서 오프라인 실험을 실행합니다.
  • 보상 함수를 평가하고, 순진한 사람이 의도하지 않거나 바람직하지 않은 결과를 유발할 수 있는 해석을 변경할 수 있는 방법에 대해 자문합니다.
  • 결과를 재현할 수 있도록 Personalizer에서 작동하는 데 사용하는 모델, 학습 정책 및 기타 데이터와 같은 정보 및 자산을 보관합니다.

성능을 이해하고 개선하기 위한 일반적인 지침

Personalizer는 보충 학습을 기반으로 하고 시간이 지남에 따라 더 나은 선택을 하기 위해 보상에서 학습하므로 성능은 정밀도 및 재현율과 같이 분류자에서 사용되는 기존 감독 학습 용어로 측정되지 않습니다. Personalizer의 성능은 보상 API를 통해 애플리케이션에서 받는 보상 점수의 합계로 직접 측정됩니다.

Personalizer를 사용하는 경우 Azure Portal의 제품 사용자 인터페이스에서 성능 정보를 제공하므로 모니터링하고 작업을 수행할 수 있습니다. 성능은 다음과 같은 방법으로 확인할 수 있습니다.

  • Personalizer가 온라인 학습 모드인 경우 오프라인 평가를 수행할 수 있습니다.
  • Personalizer가 실습생 모드인 경우 Azure Portal의 평가 창에서 성능 메트릭(모방된 이벤트 및 모방된 보상)을 확인할 수 있습니다.

감독을 유지하기 위해 오프라인 평가를 자주 수행하는 것이 좋습니다. 이 작업은 추세를 모니터링하고 효율성을 확인하는 데 도움이 됩니다. 예를 들어 보상 성능이 저하되면 Personalizer를 일시적으로 실습생 모드로 전환할 수 있습니다.

오프라인 평가에 표시된 Personalizer 성능 추정치: 제한 사항

Personalizer의 "성능"은 사용하는 동안 얻는 총 보상으로 정의됩니다. 오프라인 평가에 표시된 Personalizer 성능 추정치는 측정되는 대신 계산됩니다. 이러한 추정치의 제한 사항을 이해해야 합니다.

  • 추정치는 과거 데이터를 기반으로 하므로 향후 성능은 세계와 사용자의 변화에 ​​따라 달라질 수 있습니다.
  • 기준 성능에 대한 추정치는 확률적으로 계산됩니다. 이러한 이유로 기준 평균 보상에 대한 신도 구간이 중요합니다. 이벤트가 많을수록 추정치가 더 정확해집니다. 각 순위 호출에서 더 적은 수의 작업을 사용하는 경우 Personalizer에서 모든 이벤트에 대해 이러한 작업(기준 작업 포함) 중 하나를 선택할 가능성이 더 높으므로 성능 추정치의 신뢰도가 높아질 수 있습니다.
  • Personalizer는 모델을 거의 실시간으로 지속적으로 학습하여 각 이벤트에 대해 선택한 작업을 개선하므로 얻은 총 보상에 영향을 줍니다. 모델 성능은 최근의 과거 학습 데이터에 따라 시간이 지남에 따라 달라집니다.
  • 검색 및 작업 선택은 Personalizer 모델에서 안내하는 확률적 프로세스입니다. 이러한 확률적 프로세스에 사용되는 난수는 이벤트 ID에서 시드됩니다. 검색-익스플로잇 및 기타 확률적 프로세스의 재현성을 보장하려면 동일한 이벤트 ID를 사용합니다.
  • 온라인 성능은 검색으로 제한될 수 있습니다. 검색 설정을 낮추면 변화하는 추세 및 사용 패턴에 따라 유지하기 위해 수집되는 정보의 양이 제한되므로 균형은 각 사용 사례에 따라 달라집니다. 일부 사용 사례에는 더 높은 검색 설정으로 시작하여 시간이 지남에 따라 이 설정이 감소하는 장점이 있습니다(예: 30%에서 시작하여 10%로 감소).

실수로 Personalizer가 편향될 수 있는 기존 모델 확인

기존 권장 사항, 고객 구분 및 성향 모델 출력은 애플리케이션에서 Personalizer에 대한 입력으로 사용할 수 있습니다. Personalizer는 보상에 기여하지 않는 기능을 무시하는 방법을 학습합니다. 성향 모델을 검토하고 평가하여 보상을 예측하는 데 익숙해지고 부작용으로 피해를 줄 수 있는 강한 바이어스를 포함하는지 확인합니다. 예를 들어 유해한 스테레오타입을 기반으로 할 수 있는 권장 사항을 찾습니다. FairLearn과 같은 도구를 사용하여 프로세스를 용이하게 하는 것이 좋습니다.

프로젝트 수명 주기 동안 사전 평가

팀 멤버, 사용자 및 비즈니스 소유자가 책임 있는 사용 및 해결 우선 순위를 지정하는 프로세스에 대한 문제를 보고할 수 있는 방법을 만드는 것이 좋습니다. 사용자 환경, 보안 또는 DevOps와 관련된 작업과 같이 애플리케이션 수명 주기의 다른 교차 작업과 마찬가지로 책임 있는 사용과 관련된 작업을 처리하는 것이 좋습니다. 책임 있는 사용 및 해당 요구 사항과 관련된 작업은 나중에 고려하면 안 됩니다. 책임 있는 사용은 애플리케이션 수명 주기 전반에 걸쳐 논의하고 확인해야 합니다.

다음 단계