Pastaba
Prieigai prie šio puslapio reikalingas įgaliojimas. Galite bandyti prisijungti arba pakeisti katalogus.
Prieigai prie šio puslapio reikalingas įgaliojimas. Galite bandyti pakeisti katalogus.
Išmanusis programų darbo krūvis turi atitikti atsakingo dirbtinio intelekto principus, kad būtų užtikrintas sąžiningumas, atskaitomybė, skaidrumas ir etiškas elgesys.
Sukurkite dirbtinio intelekto sistemą taip, kad su visais naudotojais būtų elgiamasi sąžiningai, kūrėjai ir naudotojai būtų atsakingi už jos veikimą, užtikrinkite dirbtinio intelekto operacijų skaidrumą ir laikykitės etikos standartų.
„Microsoft“ esame įsipareigoję dirbtinio intelekto plėtrai, vadovaudamiesi principais, pagal kuriuos žmonės yra svarbiausi. Generatyviniai modeliai gali būti labai naudingi, tačiau be kruopštaus dizaino ir apgalvotų švelninimo priemonių tokie modeliai gali sukurti neteisingą ar net žalingą turinį. "Microsoft" daug investavo, kad padėtų apsisaugoti nuo piktnaudžiavimo ir nenumatytos žalos, įskaitant "Microsoft" atsakingo DI naudojimo principų įtraukimą, elgesio taisyklių priėmimą, turinio filtrų kūrimą siekiant palaikyti klientus ir atsakingos DI informacijos bei rekomendacijų , į kurias klientai turėtų atsižvelgti naudodami generacinį AI, teikimą.
Power Platform Antriniai pilotai ir generatyvinės dirbtinio intelekto funkcijos laikosi pagrindinių saugumo ir privatumo praktikų bei „Microsoft“ atsakingo dirbtinio intelekto standarto. Power Platform Duomenys yra apsaugoti išsamiomis, pramonėje pirmaujančiomis atitikties, saugumo ir privatumo kontrolės priemonėmis.
Sužinokite daugiau:
- "Microsoft" DI principai
- "Microsoft" atsakingi DI ištekliai
- Microsoft Azure Mokymo kursai apie atsakingą dirbtinį intelektą
- Atsakingi AI DUK apie Copilot Studio
- Atsakingo DI praktikų, skirtų "Azure" OpenAI modeliams, apžvalga
Pagrindiniai atsakingo dirbtinio intelekto principai
Pagrindiniai atsakingo dirbtinio intelekto principai yra sąžiningumas, atskaitomybė, skaidrumas ir etika. Užtikrinimas, kad protingas programų darbo krūvis, sukurtas Power Platform laikantis šių pagrindinių principų, apima keletą pagrindinių praktikų:
- Sąžiningumas: naudokite įvairius ir reprezentatyvius mokymo duomenis, kad sumažintumėte šališkumą. Reguliariai atnaujinkite mokymo duomenis ir pasitelkite auditorius, kad jie patvirtintų sąžiningumą ir teisingumą.
- Atskaitomybė: apibrėžkite aiškius komandos narių, dalyvaujančių DI projekte, vaidmenis ir atsakomybę. Nustatykite ir laikykitės etikos standartų, kuriuose pirmenybė teikiama sąžiningumui ir atskaitomybei.
- Skaidrumas: įsitikinkite, kad vartotojai žino, jog naudoja darbo krūvį, kuris naudoja generatyvinio DI galimybes. Aiškiai nurodykite, kodėl buvo pasirinktas DI sprendimas, kaip jis buvo sukurtas ir kaip jis stebimas bei atnaujinamas.
- Etika: skatinti įtraukią darbo jėgą ir siekti įvairių bendruomenių indėlio kūrimo proceso pradžioje. Reguliariai vertinti ir išbandyti modelius, ar nėra etinių problemų ir veiklos skirtumų. Sukurti valdymo sistemą, kuri apimtų reguliarius auditus.
Įtraukite šias praktikas į savo kūrimo ir diegimo procesus, kad sukurtumėte intelektualų programų darbo krūvį, atitinkantį pagrindinius atsakingo dirbtinio intelekto principus.
Duomenų privatumas ir saugumas
Duomenų privatumo užtikrinimas yra labai svarbus, ypač todėl, kad intelektualiųjų programų darbo krūvis gali apdoroti neskelbtinus duomenis. Planuojant išmanų programų darbo krūvį Power Platform, būtina atsižvelgti į keletą pagrindinių rizikų ir įgyvendinti veiksmingas švelninimo strategijas:
- Platformos funkcijos: supraskite vietinius valdiklius ir platformos funkcijas, kurios apsaugo jūsų duomenis. Microsoft Copilot yra sukurtas tarnyboje Microsoft Azure OpenAI ir visiškai veikia "Azure" debesyje. „Copilot“ naudoja OpenAI modelius su visomis saugumo galimybėmis Microsoft Azure. „Copilot“ yra integruotas į „Microsoft“ paslaugas, pvz., „Dynamics 365“ ir „Power Platform“, ir paveldi šių saugos, privatumo ir atitikties strategijas bei procesus, pvz., kelių dalių autentifikavimą bei atitikimo ribas.
- Duomenų šifravimas: paslaugų valdymo technologijos užšifruoja organizacijos saugojamą ir perduodamą turinį, kad būtų užtikrinta patikima sauga. Ryšiai apsaugomi naudojant transportavimo lygmens saugą (TLS), o duomenų perdavimas tarp "Dynamics 365 Power Platform" ir "Azure OpenAI " vyksta per "Microsoft" pagrindinį tinklą, užtikrinant patikimumą ir saugą. Sužinokite daugiau apie šifravimą "Microsoft" debesyje.
- Prieigos kontrolė: duomenys pateikiami "Copilot" (arba pasirinktiniam agentui), atsižvelgiant į dabartinio vartotojo prieigos lygį. Įdiekite vaidmenimis pagrįstą prieigos valdymą (RBAC) naudodami Microsoft Entra ID, kad užtikrintumėte, jog tik įgaliotieji vartotojai galėtų pasiekti duomenis. Taikykite mažiausių privilegijų principą, kad apribotumėte prieigą tik prie to, kas būtina.
- Stebėjimas ir auditas: aptikti galimus saugumo incidentus ir į juos reaguoti reguliariai stebint prieigą prie DI sistemos ir jos naudojimą. Tvarkykite išsamius audito žurnalus, kad galėtumėte sekti prieigą prie duomenų ir jų modifikavimą.
- Atitiktis ir valdymas: užtikrinkite, kad būtų laikomasi atitinkamų duomenų privatumo reglamentų, pvz., BDAR (Bendrojo duomenų apsaugos reglamento), HIPAA (Sveikatos draudimo perkeliamumo ir atskaitomybės akto) ir CCPA (Kalifornijos vartotojų privatumo akto). Įgyvendinti etišką dirbtinio intelekto praktiką, kad būtų išvengta šališkumo ir užtikrintas DI rezultatų teisingumas.
- Naudotojų švietimas ir lietus: mokykite naudotojus apie geriausią saugos praktiką ir duomenų privatumo svarbą. Informuokite vartotojus apie saugos strategijų ir procedūrų naujinimus ir pakeitimus.
Sužinokite daugiau: DUK apie "Copilot" duomenų saugą ir privatumą "Dynamics 365" ir Power Platform
Šališkumo suvokimas ir mažinimas
Pripažinkite, kad svarbu spręsti sistemos šališkumo problemą, ir užtikrinti teisingumą, kad būtų išvengta šališkumo dirbtinio intelekto atsakymuose.
- Įvairūs ir reprezentatyvūs duomenys: įsitikinkite, kad mokymo duomenys yra įvairūs ir atspindi skirtingus demografinius rodiklius, kad sumažintumėte būdingą šališkumą. Reguliariai tikrinti duomenis, ar nėra šališkumo ir disbalanso, ir prireikus imtis taisomųjų veiksmų.
- Šališkumo aptikimo ir mažinimo įrankiai: naudokite įrankius ir metodus, kad aptiktumėte DI modelių šališkumą, pvz., statistinę analizę ir teisingumo metriką. Įdiekite šališkumo nustatymo metodus, įskaitant mėginių ėmimą, pakartotinį svorį arba priešišką šališkumą, kad sumažintumėte modelių šališkumą.
- "Human-in-the-loop": įtraukite žmogaus peržiūros ir grįžtamojo ryšio ciklus, kad nustatytumėte ir ištaisytumėte šališkumą, kurį gali sukelti DI. Įsteigti etikos komitetą arba valdymo tarybą, kuri prižiūrėtų dirbtinio intelekto kūrimą ir diegimą, užtikrindama, kad būtų laikomasi etikos standartų.
- Skaidrumas ir pasitikėjimas: įsitikinkite, kad naudotojai žino, jog naudoja darbo krūvį, kuris naudoja generatyvinio DI galimybes. Aiškiai nurodykite, kodėl buvo pasirinktas DI sprendimas, ir pateikite informaciją apie tai, kaip jis buvo sukurtas ir kaip jis stebimas bei atnaujinamas.
- Nuolatinis stebėjimas ir tobulinimas: nuolat stebėkite, ar DI sistemoje nėra šališkumo ir našumo problemų, ir prireikus atnaujinkite modelius. Užtikrinti, kad modeliai išliktų teisingi ir nešališki, reguliariai perkvalifikuojant modelius su atnaujintais ir įvairesniais duomenimis.
Nuolatinė stebėsena ir vertinimas
Toliau tobulinkite savo išmaniųjų programų darbo krūvį. Sukurti nuolatinės stebėsenos ir vertinimo sistemą ir į atnaujinimus įtraukti naudotojų atsiliepimus ir besikeičiančius etikos standartus.
- Grįžtamojo ryšio ciklai: sukurkite grįžtamojo ryšio mechanizmus, kuriais naudotojai galėtų pranešti apie netikslumus, kuriuos vėliau būtų galima naudoti modeliams tobulinti ir tobulinti.
- Stebėjimas ir auditas: aptikti galimus saugumo incidentus ir į juos reaguoti reguliariai stebint prieigą prie DI sistemos ir jos naudojimą. Tvarkykite išsamius audito žurnalus, kad galėtumėte sekti prieigą prie duomenų ir jų modifikavimą.