Modell értelmezhetősége
Ez a cikk az Azure Machine Learning modellértelmezhetőségéhez használható módszereket ismerteti.
Fontos
A modellértelmezhetőséget is magában foglaló Felelős AI-irányítópult kiadásával javasoljuk, hogy migráljon az új felületre, mert a régebbi SDK v1 előzetes verziójú modell értelmezhetőségi irányítópultja már nem lesz aktívan karbantartva.
Miért fontos a modell értelmezhetősége a modell hibakereséséhez?
Ha olyan gépi tanulási modelleket használ, amelyek hatással vannak az emberek életére, kritikus fontosságú megérteni, hogy mi befolyásolja a modellek viselkedését. Az értelmezhetőség segít megválaszolni az olyan helyzetekben felmerülő kérdéseket, mint például:
- Modell hibakeresése: Miért követte el a modellem ezt a hibát? Hogyan fejleszthetem a modellt?
- Emberi-AI-együttműködés: Hogyan értelmezhetem és bízhatok a modell döntéseiben?
- Jogszabályi megfelelőség: Megfelel a modellem a jogi követelményeknek?
A Felelős AI-irányítópult értelmezhetőségi összetevője hozzájárul a modell életciklus-munkafolyamatának "diagnosztizálásához" azáltal, hogy egy gépi tanulási modell előrejelzéseinek emberi-érthető leírását hozza létre. Több nézetet is biztosít a modell viselkedéséhez:
- Globális magyarázatok: Milyen funkciók befolyásolják például a hitelkiosztási modell általános viselkedését?
- Helyi magyarázatok: Miért hagytak jóvá vagy utasítottak el például egy ügyfél hitelkérelmét?
A kiválasztott kohorsz modellmagyarázatait adatpontok alcsoportjaként is megfigyelheti. Ez a megközelítés akkor hasznos, ha például egy adott demográfiai csoportban lévő egyének modell-előrejelzéseinek méltányosságát értékeli. Az összetevő Helyi magyarázat lapja teljes adatvizualizációt is tartalmaz, amely kiválóan alkalmas az adatok általános szemrevételezésére, valamint az egyes kohorszok helyes és helytelen előrejelzései közötti különbségekre.
Ennek az összetevőnek a képességeit az InterpretML-csomag határozza meg, amely modellmagyarázatokat hoz létre.
Használjon értelmezhetőséget, ha a következőkre van szüksége:
- Az AI-rendszer előrejelzéseinek megbízhatóságának meghatározásához ismerje meg, hogy mely funkciók a legfontosabbak az előrejelzésekhez.
- A modell hibakereséséhez először annak megértésével és annak azonosításával közelítheti meg, hogy a modell kifogástalan szolgáltatásokat vagy csupán hamis korrelációkat használ-e.
- A tisztességtelenség lehetséges forrásainak feltárása azáltal, hogy tisztában van azzal, hogy a modell az előrejelzéseket bizalmas funkciókra vagy azokkal szorosan korrelált funkciókra alapozza.
- A modell döntéseibe vetett felhasználói bizalom kialakításához hozzon létre helyi magyarázatokat az eredmények szemléltetéséhez.
- Végezze el az AI-rendszerek szabályozási auditját a modellek ellenőrzéséhez és a modelldöntések emberekre gyakorolt hatásának monitorozásához.
A modell értelmezése
A gépi tanulásban a funkciók a céladatpont előrejelzéséhez használt adatmezők. A hitelkockázat előrejelzéséhez például adatmezőket használhat az életkor, a fiók mérete és a fiók életkora szerint. Itt az életkor, a fiók mérete és a fiók életkora jellemzők. A funkció fontossága megmutatja, hogy az egyes adatmezők hogyan befolyásolják a modell előrejelzéseit. Például, bár az előrejelzésben nagy mértékben használhatja az életkort, előfordulhat, hogy a fiók mérete és a fiók életkora nem befolyásolja jelentősen az előrejelzési értékeket. Ezzel a folyamattal az adattudósok olyan módon magyarázhatják el az eredményül kapott előrejelzéseket, hogy az érdekelt felek betekintést kapnak a modell legfontosabb funkcióiba.
A Felelős AI-irányítópult osztályainak és metódusainak használatával, valamint az SDK v2 és CLI v2 használatával a következő műveletekre van lehetőség:
- A modell előrejelzésének magyarázata a teljes modell (globális magyarázat) vagy egyéni adatpontok (helyi magyarázat) funkció-fontossági értékeinek generálásával.
- Valós adathalmazok modellértelmezhetőségének elérése nagy méretekben.
- Interaktív vizualizációs irányítópult használatával betanításkor felfedezheti az adatok mintáit és magyarázatait.
Az SDK 1-ben található osztályok és metódusok használatával a következő műveletekre van lehetőség:
- A modell előrejelzésének magyarázata funkció-fontossági értékek generálásával a teljes modellre vagy az egyes adatpontokra vonatkozóan.
- Valós adathalmazok modellértelmezhetőségének elérése nagy méretekben a betanítás és következtetés során.
- Interaktív vizualizációs irányítópult használatával betanításkor felfedezheti az adatok mintáit és magyarázatait.
Feljegyzés
A modellértelmezhetőségi osztályok az SDK v1 csomagon keresztül érhetők el. További információ: SDK-csomagok telepítése az Azure Machine Learninghez és az azureml.interprethez.
Támogatott modellértelmezhetőségi technikák
A Felelős AI-irányítópult és azureml-interpret
a Interpret-Communityben kifejlesztett értelmezhetőségi technikák használata, amely egy nyílt forráskódú Python-csomag, amely értelmezhető modellek betanítására és az átlátszatlan AI-rendszerek magyarázatára használható. Az átlátszatlan modellek olyan modellek, amelyek belső működéséről nincs információnk.
Az Interpret-Community a következő támogatott magyarázók gazdagépe, és jelenleg a következő szakaszokban bemutatott értelmezhetőségi technikákat támogatja.
Támogatott a Felelős AI-irányítópult a Python SDK v2-ben és a CLI v2-ben
Értelmezhetőségi technika | Leírás | Típus |
---|---|---|
Mimic Explainer (Global Surrogate) + SHAP fa | A Mimic Explainer a globális helyettesítő modellek betanításán alapul, hogy átlátszatlan modelleket utánozza. A globális helyettesítő modell egy belsőleg értelmezhető modell, amely betanított, hogy a lehető legpontosabban közelítse meg az átlátszatlan modellek előrejelzéseit. Az adattudósok értelmezhetik a helyettesítő modellt, hogy következtetéseket vonjanak le az átlátszatlan modellről. A Felelős AI-irányítópult a LightGBM -et (LGBMExplainableModel) használja, amelyet az SHAP (SHapley Additive exPlanations) Tree Explainerrel párosítunk, amely egy konkrét magyarázó a fákhoz és a fák együtteseihez. A LightGBM és az SHAP fa kombinációja modell-agnosztikus globális és helyi magyarázatokat biztosít a gépi tanulási modellekhez. |
Modell-agnosztikus |
Támogatott modellértelmezhetőségi technikák szövegmodellekhez
Értelmezhetőségi technika | Leírás | Típus | Szöveges tevékenység |
---|---|---|---|
SHAP-szöveg | Az SHAP (SHapley Additive exPlanations) a mély neurális hálózatok népszerű magyarázati módszere, amely betekintést nyújt az egyes bemeneti funkciók adott előrejelzéshez való hozzájárulásába. Ez a Shapley értékek fogalmán alapul, amely egy olyan módszer, amellyel kreditet rendelhet az egyes játékosokhoz egy kooperatív játékban. Az SHAP ezt a fogalmat a neurális hálózat bemeneti funkcióira alkalmazza azáltal, hogy kiszámítja az egyes funkciók átlagos hozzájárulását a modell kimenetéhez a funkciók összes lehetséges kombinációjában. Kifejezetten a szövegek esetében az SHAP hierarchikus módon osztja fel a szavakat, és az egyes szavakat vagy jogkivonatokat funkcióként kezeli. Ez olyan hozzárendelési értékeket hoz létre, amelyek számszerűsítik az egyes szavak vagy jogkivonatok fontosságát az adott előrejelzésben. A végleges hozzárendelési térkép úgy jön létre, hogy ezeket az értékeket hőtérképként jeleníti meg az eredeti szöveges dokumentumon. Az SHAP egy modell-agnosztikus módszer, amely a mélytanulási modellek széles körének magyarázatára használható, beleértve a CNN-eket, az RNN-eket és a transzformátorokat. Emellett számos kívánatos tulajdonságot biztosít, például a konzisztenciát, a pontosságot és a méltányosságot, így megbízható és értelmezhető technikát biztosít a modell döntéshozatali folyamatának megértéséhez. | Modell agnosztika | Többosztályos szövegbesorolás, többcímkés szövegbesorolás |
Támogatott modellértelmezhetőségi technikák képmodellekhez
Értelmezhetőségi technika | Leírás | Típus | Vision Task |
---|---|---|---|
SHAP-látás | Az SHAP (SHapley Additive exPlanations) a mély neurális hálózatok népszerű magyarázati módszere, amely betekintést nyújt az egyes bemeneti funkciók adott előrejelzéshez való hozzájárulásába. Ez a Shapley értékek fogalmán alapul, amely egy olyan módszer, amellyel kreditet rendelhet az egyes játékosokhoz egy kooperatív játékban. Az SHAP ezt a fogalmat a neurális hálózat bemeneti funkcióira alkalmazza azáltal, hogy kiszámítja az egyes funkciók átlagos hozzájárulását a modell kimenetéhez a funkciók összes lehetséges kombinációjában. A látás szempontjából az SHAP hierarchikus módon oszlik meg a képen, és minden funkcióként kezeli a kép szuperpixeles területeit. Ez olyan hozzárendelési értékeket eredményez, amelyek számszerűsítik az egyes szuperpixelek vagy képterületek fontosságát az adott előrejelzéshez. A végső hozzárendelési térkép úgy jön létre, hogy ezeket az értékeket hőtérképként jeleníti meg. Az SHAP egy modell-agnosztikus módszer, amely a mélytanulási modellek széles körének magyarázatára használható, beleértve a CNN-eket, az RNN-eket és a transzformátorokat. Emellett számos kívánatos tulajdonságot biztosít, például a konzisztenciát, a pontosságot és a méltányosságot, így megbízható és értelmezhető technikát biztosít a modell döntéshozatali folyamatának megértéséhez. | Modell agnosztika | Image Multi-class Classification, Image Multi-label Classification |
Irányított Backprop | Az irányított backprop a mély neurális hálózatok népszerű magyarázati módszere, amely betekintést nyújt a modell tanult ábrázolásába. Megjeleníti azokat a bemeneti funkciókat, amelyek aktiválnak egy adott neuront a modellben, a kimenet gradiensének a bemeneti képhez képest történő kiszámításával. Más színátmenetalapú módszerekkel ellentétben az irányított backprop csak pozitív színátmeneteken keresztül fejti ki a visszataszítást, és egy módosított ReLU aktiválási függvényt használ annak biztosítására, hogy a negatív színátmenetek ne befolyásolják a vizualizációt. Ez egy értelmezhetőbb és nagy felbontású hasznossági térképet eredményez, amely kiemeli a bemeneti kép legfontosabb funkcióit egy adott előrejelzéshez. Az irányított backprop számos mélytanulási modell magyarázatára használható, beleértve a konvolúciós neurális hálózatokat (CNN-eket), a visszatérő neurális hálózatokat (RNN-eket) és a transzformátorokat. | AutoML | Image Multi-class Classification, Image Multi-label Classification |
Irányított gradCAM | Az irányított GradCAM a mély neurális hálózatok népszerű magyarázati módszere, amely betekintést nyújt a modell tanult ábrázolásába. Megjeleníti azokat a bemeneti funkciókat, amelyek a leginkább hozzájárulnak egy adott kimeneti osztályhoz az irányított háttérpropagáció színátmenetalapú megközelítésének és a GradCAM honosítási megközelítésének kombinálásával. Pontosabban kiszámítja a kimeneti osztály színátmeneteit a hálózat utolsó konvolúciós rétegének funkciótérképei alapján, majd súlyozza az egyes funkciótérképeket az adott osztály aktiválásának fontossága szerint. Ez egy nagy felbontású hőtérképet hoz létre, amely kiemeli a bemeneti kép legkülönbözőbb régióit az adott kimeneti osztályhoz. Az irányított GradCAM számos mélytanulási modell magyarázatára használható, beleértve a CNN-eket, az RNN-eket és a transzformátorokat. Emellett az irányított háttéralkalmazás beépítésével biztosítja, hogy a vizualizáció értelmes és értelmezhető legyen, elkerülve a hamis aktiválásokat és negatív hozzájárulásokat. | AutoML | Image Multi-class Classification, Image Multi-label Classification |
Integrált színátmenetek | Az Integrált színátmenetek a mély neurális hálózatok népszerű magyarázati módszere, amely betekintést nyújt az egyes bemeneti funkciók adott előrejelzéshez való hozzájárulásába. Kiszámítja a kimeneti osztály gradiensének integrálját a bemeneti rendszerképhez viszonyítva, az alaprendszerkép és a tényleges bemeneti rendszerkép közötti egyenes út mentén. Ez az elérési út általában lineáris interpolációként van kiválasztva a két kép között, az alapkonfiguráció pedig egy semleges kép, amely nem rendelkezik salient jellemzőkkel. A színátmenet ezen útvonal mentén történő integrálásával az integrált színátmenetek azt mérik, hogy az egyes bemeneti funkciók hogyan járulnak hozzá az előrejelzéshez, lehetővé téve a hozzárendelési térkép létrehozásának engedélyezését. Ez a térkép a legbefolyásosabb bemeneti funkciókat emeli ki, és segítségével betekintést nyerhet a modell döntéshozatali folyamatába. Az integrált színátmenetek számos mélytanulási modell magyarázatára használhatók, beleértve a CNN-eket, az RNN-eket és a transzformátorokat. Emellett ez egy elméletileg megalapozott technika, amely kielégíti a kívánt tulajdonságokat, például a bizalmasságot, a megvalósítási invarianciát és a teljességet. | AutoML | Image Multi-class Classification, Image Multi-label Classification |
XRAI | Az XRAI egy új, régióalapú saliency metódus, amely integrált színátmeneteken (IG) alapul. Túlszegmenti a képet, és iteratív módon teszteli az egyes régiók fontosságát, és a kisebb régiókat nagyobb szegmensekre alakítja a hozzárendelési pontszámok alapján. Ez a stratégia kiváló minőségű, szorosan határolt megszólítási régiókat eredményez, amelyek felülmúlják a meglévő megszólítási technikákat. Az XRAI bármilyen DNN-alapú modellel használható, ha van mód arra, hogy a bemeneti funkciókat szegmensekbe csoportosítsa valamilyen hasonlósági metrikával. | AutoML | Image Multi-class Classification, Image Multi-label Classification |
D-RISE | A D-RISE egy modell agnosztikus módszer, amellyel vizuális magyarázatokat hozhat létre az objektumészlelési modellek előrejelzéseihez. Az objektumészlelés honosítási és kategorizálási szempontjainak figyelembe adásával a D-RISE olyan üdvtérképeket hozhat létre, amelyek kiemelik a kép azon részeit, amelyek a leginkább hozzájárulnak az érzékelő előrejelzéséhez. A színátmenetalapú módszerekkel ellentétben a D-RISE általánosabb, és nem igényel hozzáférést az objektumérzékelő belső működéséhez; csak a modell bemeneteihez és kimeneteihez szükséges. A módszer alkalmazható egyfázisú detektorokra (például YOLOv3), kétfázisú detektorokra (például Faster-RCNN) és Vision Transformerekre (például DETR, OWL-ViT). A D-Rise a bemeneti kép véletlenszerű maszkjainak létrehozásával biztosítja a megszólítási térképet, és elküldi azt az objektumdetektornak a bemeneti kép véletlenszerű maszkjaival. Az objektumérzékelő pontszámának változásának felmérésével összesíti az összes észlelést az egyes maszkokkal, és létrehoz egy végső hasznossági térképet. |
Modell agnosztika | Objektumészlelés |
Támogatott a Python SDK 1-ben
Értelmezhetőségi technika | Leírás | Típus |
---|---|---|
SHAP-fa magyarázó | Az SHAP Tree Explainer, amely egy polinomos, időgyors, SHAP értékbecslési algoritmusra összpontosít, amely a fákra és fák együtteseire vonatkozik. | Modellspecifikus |
SHAP mély magyarázó | Az SHAP magyarázata alapján a Deep Explainer egy "nagy sebességű közelítő algoritmus az SHAP-értékekhez mélytanulási modellekben, amelyek az SHAP NIPS-tanulmányban leírt DeepLIFT-kapcsolatra épülnek. A TensorFlow-modellek és a TensorFlow háttérrendszert használó Keras-modellek támogatottak (a PyTorch előzetes támogatása is támogatott)." | Modellspecifikus |
SHAP lineáris magyarázó | Az SHAP lineáris magyarázó lineáris modell SHAP-értékeit számítja ki, opcionálisan a funkciók közötti korrelációk számba vitelével. | Modellspecifikus |
SHAP Kernel -magyarázó | Az SHAP Kernel Explainer egy speciálisan súlyozott helyi lineáris regressziót használ a modell SHAP-értékeinek becsléséhez. | Modell-agnosztikus |
Mimic Explainer (Globális helyettes) | A Mimic Explainer a globális helyettesítő modellek betanításán alapul, hogy átlátszatlan modelleket utánozza. A globális helyettesítő modell egy belsőleg értelmezhető modell, amely betanított, hogy a lehető legpontosabban közelítse meg az átlátszatlan modellek előrejelzéseit. Az adattudósok értelmezhetik a helyettesítő modellt, hogy következtetéseket vonjanak le az átlátszatlan modellről. A következő értelmezhető modellek egyikét használhatja helyettesítő modellként: LightGBM (LGBMExplainableModel), lineáris regresszió (LinearExplainableModel), sztochasztikus színátmenetes descent magyarázható modell (SGDExplainableModel) vagy Döntésfa (DecisionTreeExplainableModel). | Modell-agnosztikus |
A permutációs funkció fontossági magyarázata | A permutációs funkció fontossága (PFI) a Breiman Random Forests-tanulmánya által ihletett besorolási és regressziós modellek magyarázatára szolgáló technika (lásd a 10. szakaszt). Magas szinten úgy működik, hogy véletlenszerűen egyesével alakítja át az adatokat egy-egy funkcióval a teljes adatkészlethez, és kiszámítja, hogy az érdeklődési kör teljesítménymetrikája mennyiben változik. Minél nagyobb a változás, annál fontosabb a funkció. A PFI bármilyen mögöttes modell általános viselkedését képes magyarázni, de nem magyarázza meg az egyes előrejelzéseket. | Modell-agnosztikus |
Az előző szakaszban ismertetett értelmezhetőségi technikák mellett egy másik SHAP-alapú magyarázót, a Tabular Explainert is támogatjuk. A modelltől függően a Táblázatos magyarázó a támogatott SHAP-magyarázók egyikét használja:
- Fa magyarázó az összes faalapú modellhez
- Mély magyarázó mély neurális hálózati (DNN-) modellekhez
- Lineáris magyarázó lineáris modellekhez
- Kernel-magyarázó az összes többi modellhez
A táblázatos magyarázó a közvetlen SHAP-magyarázókkal szemben is jelentős funkciókat és teljesítménybeli fejlesztéseket hajtott végre:
- Az inicializálási adatkészlet összegzése: Ha a magyarázat sebessége a legfontosabb, összegezzük az inicializálási adatkészletet, és létrehozunk egy kis reprezentatív mintát. Ez a megközelítés felgyorsítja az általános és egyéni jellemzők fontossági értékeinek létrehozását.
- A kiértékelési adatkészlet mintavételezése: Ha nagy számú kiértékelési mintát ad át, de valójában nem szükséges mindegyik kiértékelése, a mintavételezési paramétert úgy állíthatja be, hogy
true
felgyorsítsa az általános modellmagyarázatok kiszámítását.
Az alábbi ábra a támogatott magyarázók jelenlegi struktúráját mutatja be:
Támogatott gépi tanulási modellek
Az azureml.interpret
SDK csomagja az alábbi adathalmaz-formátumokkal betanított modelleket támogatja:
numpy.array
pandas.DataFrame
iml.datatypes.DenseData
scipy.sparse.csr_matrix
A magyarázó függvények bemenetként fogadják el a modelleket és a folyamatokat is. Ha egy modell meg van adva, az előrejelzési függvényt predict
kell implementálnia, vagy predict_proba
meg kell felelnie a Scikit konvenciónak. Ha a modell nem támogatja ezt, egy olyan függvénybe csomagolhatja, amely ugyanazt az eredményt hozza létre, mint predict
a Scikitben, predict_proba
és használhatja ezt a burkolófüggvényt a kiválasztott magyarázóval.
Ha megad egy folyamatot, a magyarázó függvény feltételezi, hogy a futó folyamatszkript előrejelzést ad vissza. Ha ezt a burkolási technikát használja, támogathatja a PyTorch, azureml.interpret
a TensorFlow, a Keras mélytanulási keretrendszerei és a klasszikus gépi tanulási modellek által betanított modelleket.
Helyi és távoli számítási cél
A azureml.interpret
csomag úgy lett kialakítva, hogy helyi és távoli számítási célokkal is működjön. Ha helyileg futtatja a csomagot, az SDK-függvények nem fognak kapcsolatba lépni az Azure-szolgáltatásokkal.
A magyarázatot távolról is futtathatja az Azure Machine Learning Computeben, és naplózhatja a magyarázó információkat az Azure Machine Learning run history service-ben. Az információk naplózása után a magyarázatból származó jelentések és vizualizációk könnyen elérhetők az Azure Machine Learning Studióban elemzés céljából.
Következő lépések
- Megtudhatja, hogyan hozhatja létre a Felelős AI-irányítópultot a CLI v2 és az SDK v2 vagy az Azure Machine Learning Studio felhasználói felületén keresztül.
- A Felelős AI-irányítópult támogatott értelmezhetőségi vizualizációinak megismerése.
- Megtudhatja, hogyan hozhat létre felelős AI scorecardot a Felelős AI-irányítópulton megfigyelt megállapítások alapján.
- Megtudhatja, hogyan engedélyezheti az automatizált gépi tanulási modellek (SDK v1) értelmezhetőségét.