Azure Machine Learning şemasını inceleme
azure_ml uzantısının azure_ai şeması, veritabanınızın özel olarak oluşturulmuş makine öğrenmesi modellerinin özellikleriyle etkileşim kurmasını sağlar.
azure_ml şemasını kullanarak PostgreSQL veritabanınızı Azure Machine Learning hizmetleriyle sorunsuz bir şekilde tümleştirebilirsiniz. Bu tümleştirme, makine öğrenmesi modellerini doğrudan veritabanınızdan dağıtmanıza ve sunmanıza olanak sağlayarak gerçek zamanlı çıkarımları verimli ve ölçeklenebilir hale getirmenizi sağlar.
azure_ml şemasıyla gerçek zamanlı çıkarım
Azure Machine Learning , uçtan uca makine öğrenmesi iş akışlarını temel alan bulut tabanlı bir platformdur. Azure Machine Learning'de modeller PyTorch ve TensorFlow gibi popüler çerçeveler kullanılarak geliştirilmiştir. Eğitildikten sonra, bu modeller tahminlerin istenebileceği kararlı URL'ler olan uç noktalar olarak dağıtılır.
Çevrimiçi uç noktaların gerçek zamanlı çıkarım sağlamasıyla, azure_ai uzantısıyla tümleştirilen Azure Machine Learning, doğrudan veritabanınızdan doğru tahminler yapmanızı sağlar. Bu şemadaki inference işlevi, Azure Machine Learning'den eğitilmiş bir model kullanarak tahminde bulunmayı veya çıkış oluşturmayı kolaylaştırmak için tasarlanmıştır. Modeli dağıttığınızda çıkarım işlevi modeli çağırmanıza ve yeni verilerle ilgili tahminler almanıza olanak tanır.
azure_ml.inference(jsonb,integer,boolean,text)
inference() işlevi aşağıdaki giriş parametrelerini bekler:
| Parametre | Tür | Temerrüt | Açıklama |
|---|---|---|---|
| girdi_verisi | jsonb |
Azure Machine Learning modelleriyle etkileşim kurmak için gereken input_data nesnesini içeren bir JSON nesnesi. |
|
| dağıtım_adı | text |
NULL::text |
(İsteğe bağlı) Belirtilen Azure Machine Learning uç noktasını hedef alan model dağıtımının adı. |
| zaman_aşımı_ms | integer |
NULL::integer |
Zaman aşımına uğramadan önce çıkarım işleminin beklenme süresini (milisaniye olarak) ayarlar. |
| hata_olduğunda_at | boolean |
true |
Çıkarım işlemi bir sorunla karşılaşırsa hata oluşturup oluşturmayabileceğinizi belirler. |
| maksimum_deneme | integer |
1 |
Hata durumunda Azure OpenAI hizmetine yapılan çağrının yeniden denenme sayısı. |
| tekrar deneme gecikmesi (milisaniye cinsinden) | integer |
1000 |
Azure OpenAI hizmet uç noktasını çağırmayı yeniden denemeden önce milisaniye cinsinden beklenmesi gereken süre. |
Azure Machine Learning çıkarım uç noktaları giriş olarak bir JavaScript Nesne Gösterimi (JSON) nesnesi bekler. Ancak, bu nesnenin yapısı temel alınan modele bağlıdır. Örneğin, Seattle, Washington bölgesindeki kısa süreli konut kiralamaları için günlük kiralama fiyatlarını tahmin etmek üzere eğitilen bir regresyon modeli, mahalle, Posta Kodu, yatak odası sayısı, banyo sayısı ve daha fazlası gibi belirli girişler göz önünde bulundurulduğunda aşağıdaki şekle sahiptir:
{
"input_data": {
"columns": [
"host_is_superhost",
"host_has_profile_pic",
"host_identity_verified",
"neighbourhood_group_cleansed",
"zipcode",
"property_type",
"room_type",
"accommodates",
"bathrooms",
"bedrooms",
"beds"
],
"index": [0],
"data": [["False", "False", "False", "Central Area", "98122", "House", "Entire home/apt", 4, 1.5, 3, 3]]
}
}
Beklenen giriş nesnesi yapısı, dağıtılan uç noktanızla ilişkili Swagger tanımı incelenerek alınabilir. Bu tanım, girişlerinizi ve çıkışlarınızı belirlemek için kullanabileceğiniz ServiceInput ve ServiceOutput yapılarını belirtir.
Azure Machine Learning'e bağlantı yapılandırma
Gerçek zamanlı çıkarım gerçekleştirmek için azure_ml.inference() işlevini kullanmadan önce uzantıyı Azure Machine Learning puanlama uç noktanız ve anahtarınız ile yapılandırmanız gerekir.
azure_ml.scoring_endpoint değeri, dağıtılan modelinizin REST uç noktasıdır.
azure_ml.endpoint_key değeri, bu uç noktanın birincil veya ikincil anahtarı olabilir.
SELECT azure_ai.set_setting('azure_ml.scoring_endpoint', '{endpoint}');
SELECT azure_ai.set_setting('azure_ml.endpoint_key', '{api-key}');