Modell teljesítménye és méltányossága
Ez a cikk olyan módszereket ismertet, amelyekkel megismerheti a modell teljesítményét és méltányosságát az Azure Machine Learningben.
Mi a gépi tanulási méltányosság?
A mesterséges intelligencia és a gépi tanulási rendszerek tisztességtelen viselkedést mutathatnak. A tisztességtelen viselkedés meghatározásának egyik módja a károkozás vagy az emberekre gyakorolt hatása. Az AI-rendszerek számos típusú kárt okozhatnak. További információért tekintse meg Kate Crawford NeurIPS 2017-beli keynote-ot.
Az AI által okozott károk két gyakori típusa:
A kiosztás sérülése: Az AI-rendszerek bizonyos csoportok számára kiterjesztik vagy visszatartják a lehetőségeket, erőforrásokat vagy információkat. Ilyenek például a felvétel, az iskolai felvétel és a hitelnyújtás, ahol a modell jobban alkalmas lehet a jó jelöltek kiválasztására egy adott csoport között, mint más csoportok között.
A szolgáltatásminőség sérülése: Az AI-rendszerek nem működnek olyan jól az emberek egy csoportjánál, mint a másiknál. Előfordulhat például, hogy a hangfelismerő rendszer nem működik olyan jól a nők számára, mint a férfiak esetében.
Az AI-rendszerek tisztességtelen viselkedésének csökkentése érdekében fel kell mérnie és csökkentenie kell ezeket a károkat. A Felelős AI-irányítópult modelláttekintő összetevője hozzájárul a modell életciklusának azonosítási szakaszához azáltal, hogy modellteljesítmény-metrikákat hoz létre a teljes adatkészlethez és az azonosított adatok kohorszaihoz. Ezeket a metrikákat a bizalmas funkciók vagy bizalmas attribútumok szempontjából azonosított alcsoportokban hozza létre.
Feljegyzés
A méltányosság társadalmi-technikai kihívás. A mennyiségi méltányossági metrikák nem rögzítik a méltányosság számos aspektusát, például az igazságosságot és a megfelelő folyamatot. Emellett számos mennyiségi méltányossági mérőszám nem elégíthető ki egyszerre.
A Fairlearn nyílt forráskódú csomag célja, hogy lehetővé tegye az emberek számára a hatás- és kockázatcsökkentési stratégiák értékelését. Végső soron az embereken múlik, hogy mi és gépi tanulási modelleket építenek ki, hogy a forgatókönyveiknek megfelelő kompromisszumokat hozhassanak létre.
A Felelős AI-irányítópult ezen összetevőjében a méltányosság a csoport méltányosságának nevezett megközelítésen keresztül fogalmilag fogalmilag van meg. Ez a megközelítés a következőt kérdezi: "Mely egyének csoportjait fenyegeti a kár?" A bizalmas funkciók kifejezés arra utal, hogy a rendszertervezőnek érzékenynek kell lennie ezekre a funkciókra a csoport méltányosságának értékelésekor.
Az értékelési fázisban a méltányosság az egyenlőtlenségi metrikákon keresztül számszerűsíthető. Ezek a metrikák az arányok vagy különbségek alapján értékelhetik ki és hasonlíthatják össze a modellek viselkedését a csoportok között. A Felelős AI-irányítópult két különböző metrikaosztályt támogat:
A modell teljesítményének eltérése: Ezek a metrikák kiszámítják a kiválasztott teljesítménymetrika értékeinek eltérését (különbségét) az adatok alcsoportjaiban. Íme néhány példa:
- A pontossági arány eltérése
- A hibaarány eltérése
- A pontosság eltérése
- Eltérés a visszahívásban
- A középérték abszolút hibájának eltérése (MAE)
Eltérés a kiválasztási arányban: Ez a metrika az alcsoportok közötti kiválasztási arány (kedvező előrejelzés) különbségét tartalmazza. Erre példa a hitel-jóváhagyási ráta eltérése. A kiválasztási arány az egyes osztályok adatpontjainak 1 (bináris besorolásban) vagy előrejelzési értékek eloszlásának (regresszióban) a töredékét jelenti.
Ennek az összetevőnek a méltányossági felmérési képességei a Fairlearn-csomagból származnak. A Fairlearn a modell méltányossági felmérési metrikáinak és a tisztességtelenség-mérséklési algoritmusoknak a gyűjteményét biztosítja.
Feljegyzés
A méltányossági értékelés nem pusztán technikai gyakorlat. A Fairlearn nyílt forráskódú csomag mennyiségi metrikákat tud azonosítani, amelyek segítenek felmérni a modell méltányosságát, de nem fogja elvégezni az értékelést. Minőségi elemzést kell végeznie a saját modelljei méltányosságának kiértékeléséhez. A korábban említett bizalmas jellemzők egy példa erre a minőségi elemzésre.
Paritáskorlátok a tisztességtelenség mérséklése érdekében
Miután megismerte a modell méltányossági problémáit, a Fairlearn nyílt forráskódú csomagban található kárenyhítő algoritmusokkal enyhítheti ezeket a problémákat. Ezek az algoritmusok támogatják a prediktor viselkedésére vonatkozó korlátozásokat, úgynevezett paritáskorlátokat vagy feltételeket.
A paritásos korlátozások megkövetelik, hogy a prediktor viselkedésének bizonyos aspektusai összehasonlíthatók legyenek a bizalmas jellemzők által definiált csoportok között (például különböző fajokkal). A Fairlearn nyílt forráskódú csomagban található kárenyhítő algoritmusok ilyen paritásos korlátozásokat használnak a megfigyelt méltányossági problémák enyhítésére.
Feljegyzés
A Fairlearn nyílt forráskódú csomag tisztességtelenség-mérséklő algoritmusai javasolt kockázatcsökkentési stratégiákat biztosíthatnak a gépi tanulási modellek tisztességtelenségének csökkentésére, de ezek a stratégiák nem szüntetik meg a tisztességtelenséget. Előfordulhat, hogy a fejlesztőknek más paritáskorlátokat vagy feltételeket kell figyelembe venniük a gépi tanulási modelljeikhez. Az Azure Machine Learninget használó fejlesztőknek maguknak kell meghatározniuk, hogy a kockázatcsökkentés megfelelően csökkenti-e a gépi tanulási modellek tervezett használatában és üzembe helyezésében a tisztességtelenséget.
A Fairlearn-csomag a paritásos korlátozások alábbi típusait támogatja:
Paritáskorlát | Cél | Gépi tanulási feladat |
---|---|---|
Demográfiai paritás | Foglalási hibák elhárítása | Bináris besorolás, regresszió |
Kiegyenlített esélyek | A kiosztással és a szolgáltatásminőséggel kapcsolatos ártalmak diagnosztizálása | Bináris besorolás |
Esélyegyenlőség | A kiosztással és a szolgáltatásminőséggel kapcsolatos ártalmak diagnosztizálása | Bináris besorolás |
Korlátolt csoportvesztés | A szolgáltatásminőségi ártalmak enyhítése | Regresszió |
Kárenyhítő algoritmusok
A Fairlearn nyílt forráskódú csomag kétféle tisztességtelenség-mérséklő algoritmust biztosít:
Csökkentés: Ezek az algoritmusok egy szabványos feketedobozos gépi tanulási becslést (például LightGBM-modellt) használnak, és újratanított modelleket hoznak létre újrasúlyozott betanítási adatkészletek sorozatával.
Előfordulhat például, hogy egy adott nem kérelmezője túlsúlyos vagy alacsony súlyú a modellek újratanítása és a nemi csoportok közötti különbségek csökkentése érdekében. A felhasználók ezután kiválaszthatják azt a modellt, amely az üzleti szabályok és a költségszámítások alapján a legjobb kompromisszumot biztosítja a pontosság (vagy egy másik teljesítménymetrika) és az egyenlőtlenségek között.
Utófeldolgozás: Ezek az algoritmusok egy meglévő osztályozót és egy bizalmas funkciót vesznek bemenetként. Ezután az osztályozó előrejelzésének átalakításával kényszerítik ki a megadott méltányossági korlátozásokat. Egy utófeldolgozási algoritmus, a küszöbérték-optimalizálás legnagyobb előnye az egyszerűsége és rugalmassága, mivel nem kell újratanulnia a modellt.
Algoritmus | Leírás | Gépi tanulási feladat | Bizalmas funkciók | Támogatott paritáskorlátok | Algoritmus típusa |
---|---|---|---|---|---|
ExponentiatedGradient |
Az A Reductions Approach to Fair Classification (A Reductions Approach to Fair Classification) című cikkben leírt méltányos besorolás feketedobozos megközelítése. | Bináris besorolás | Kategorikus | Demográfiai paritás, kiegyenlített esélyek | Csökkentés |
GridSearch |
A méltányos besorolás csökkentési megközelítésében leírt feketedobozos megközelítés. | Bináris besorolás | Bináris | Demográfiai paritás, kiegyenlített esélyek | Csökkentés |
GridSearch |
Black-box megközelítés, amely a fair regresszió rácskeresési variánsát valósítja meg a Fair Regresszió: Mennyiségi definíciók és csökkentési alapú algoritmusok című szakaszban leírt, határolt csoportvesztés algoritmusával. | Regresszió | Bináris | Korlátolt csoportvesztés | Csökkentés |
ThresholdOptimizer |
Az esélyegyenlőség a felügyelt tanulásban című tanulmányon alapuló utófeldolgozási algoritmus. Ez a technika egy meglévő osztályozót és egy bizalmas funkciót vesz fel bemenetként. Ezután az osztályozó előrejelzésének monoton transzformációját hozza létre a megadott paritáskorlátok kikényszerítéséhez. | Bináris besorolás | Kategorikus | Demográfiai paritás, kiegyenlített esélyek | Utófeldolgozás |
Következő lépések
- Megtudhatja, hogyan hozhatja létre a Felelős AI-irányítópultot a parancssori felület és az SDK vagy az Azure Machine Learning Studio felhasználói felületén keresztül.
- Ismerje meg a felelős AI-irányítópult támogatott modelláttekintési és méltányossági felmérési vizualizációit .
- Megtudhatja, hogyan hozhat létre felelős AI scorecardot a Felelős AI-irányítópulton megfigyelt megállapítások alapján.
- Megtudhatja, hogyan használhatja az összetevőket a Fairlearn GitHub-adattárának, felhasználói útmutatójának, példáinak és mintajegyzetfüzeteinek megtekintésével.