Förbereda för konsekvenserna av ansvarsfull AI

Slutförd

AI är vår tids definierande teknik. Det möjliggör redan snabbare och mer djupgående framsteg inom nästan alla områden av mänsklig strävan och hjälper till att ta itu med några av samhällets mest skrämmande utmaningar. AI kan till exempel hjälpa personer med visuella funktionshinder att förstå bilder genom att generera beskrivande text för bilder. I ett annat exempel kan AI hjälpa jordbrukare att producera tillräckligt med mat för den växande globala befolkningen.

På Microsoft anser vi att AI:s beräkningsinformation bör användas för att förstärka människans medfödda kreativitet och uppfinningsrikedom. Vår vision för AI är att ge alla utvecklare möjlighet att förnya, ge organisationer möjlighet att transformera branscher och ge människor möjlighet att förändra samhället.

Samhälleliga konsekvenser av AI

Som med alla stora tekniska innovationer tidigare har användningen av AI-teknik stor inverkan på samhället, vilket väcker komplexa och utmanande frågor om den framtid vi vill se. AI har konsekvenser för beslutsfattandet i olika branscher, datasäkerhet och sekretess och de färdigheter som människor behöver för att lyckas på arbetsplatsen. När vi ser fram emot denna framtid måste vi fråga oss själva:

  • Hur utformar, bygger och använder vi AI-system som skapar en positiv inverkan på individer och samhälle?
  • Hur kan vi bäst förbereda arbetare för effekterna av AI?
  • Hur kan vi uppnå fördelarna med AI samtidigt som vi respekterar integriteten?

Vikten av ett ansvarsfullt förhållningssätt till AI

Det är viktigt att inse att när ny intelligent teknik dyker upp och förökar sig i hela samhället, kommer dess fördelar oavsiktliga och oförutsedda konsekvenser. Vissa av dessa konsekvenser har betydande etiska konsekvenser och kan orsaka allvarlig skada. Även om organisationer inte kan förutsäga framtiden ännu, är det vårt ansvar att göra en samlad ansträngning för att förutse och mildra de oavsiktliga konsekvenserna av den teknik vi släpper ut i världen genom avsiktlig planering och kontinuerlig tillsyn.

Hot

Varje genombrott inom AI-teknik ger en ny påminnelse om vårt gemensamma ansvar. Till exempel släppte Microsoft 2016 en chattrobot på X med namnet Tay, som kan lära sig av interaktioner med X-användare. Målet var att göra det möjligt för chattroboten att bättre replikera mänsklig kommunikation och personlighetsdrag. Men inom 24 timmar insåg användarna att chattroboten kunde lära sig av trångsynt retorik och förvandlade chattroboten till ett fordon för hatpropaganda. Den här upplevelsen är ett exempel på varför vi måste ta hänsyn till mänskliga hot när vi utformar AI-system.

Nya hot kräver en ständig utveckling av vår inställning till ansvarsfull AI. Till exempel eftersom generativ AI gör det möjligt för människor att skapa eller redigera videor, bilder eller ljudfiler så trovärdigt att de ser verkliga ut, är medieautenticitet svårare att verifiera. Som svar samarbetar Microsoft med andra teknik- och nyhetsintressenter för att utveckla tekniska standarder för att hantera djupfake-relaterad manipulering.

Kommentar

För att förbereda för nya typer av attacker som kan påverka inlärningsdatauppsättningar utvecklade Microsoft teknik som avancerade innehållsfilter och introducerade övervakare för AI-system med automatiska inlärningsfunktioner. Aktuella generativa AI-modeller, till exempel de som tillhandahålls i Azure AI Services eller Bing Chat, bygger på dessa insikter.

Partiska resultat

En annan oavsiktlig konsekvens som organisationer bör tänka på är att AI kan förstärka samhälleliga eller andra fördomar utan avsiktlig planering och design. Det är viktigt för utvecklare att förstå hur bias kan introduceras i antingen träningsdata eller maskininlärningsmodeller. Det här problemet kan vara genomgripande i fördefinierade modeller eftersom användaren kanske inte hanterar själva träningsdata.

Tänk dig till exempel ett stort finansinstitut som vill utveckla ett riskbedömningssystem för godkännanden av lån. När ingenjörer testar systemet före distributionen inser de att det bara godkänner lån för manliga låntagare. Eftersom systemet tränades på tidigare kunddata reproducerade det den historiska sexistiska biasen hos lånetjänstemän. Genom att verifiera systemet före distributionen kunde vi identifiera och åtgärda problemet innan systemet var operativt.

Kommentar

På Microsoft utforskar våra forskare verktyg och tekniker för att upptäcka och minska fördomar inom AI-system. Fördefinierade modeller verifieras noggrant, men bör ändå användas på ett klokt sätt och deras resultat bör alltid granskas innan de vidtar åtgärder.

Känsliga användningsfall

En annan illustration av vårt ansvar att minimera oavsiktliga konsekvenser är med känsliga tekniker som ansiktsigenkänning. På senare tid har efterfrågan på ansiktsigenkänningsteknik ökat, särskilt från brottsbekämpande organisationer som ser teknikens potential för användningsfall som att hitta försvunna barn. Vi inser dock att denna teknik skulle kunna äventyra grundläggande friheter. De kan till exempel möjliggöra kontinuerlig övervakning av specifika individer. Vi anser att samhället har ett ansvar att sätta lämpliga gränser för användningen av denna teknik, vilket inbegriper att se till att statlig användning av ansiktsigenkänningsteknik fortfarande omfattas av rättsstatsprincipen.

Även om nya lagar och förordningar måste skrivas ersätter de inte det ansvar som vi alla har när vi engagerar oss i AI. Genom att arbeta tillsammans kan företag, regeringar, icke-statliga organisationer och akademiska forskare hantera känsliga användningsfall.

Kommentar

Microsoft utvärderar och utvecklar principer för att styra vårt arbete med ansiktsigenkänningstekniker. Vi förväntar oss att dessa principer kommer att utvecklas med tiden när vi fortsätter att lära oss och samarbeta med kunder, andra teknikföretag, akademiker, det civila samhället och andra i denna fråga. Microsoft använder ansvarsfulla AI-metoder för att identifiera, förhindra och åtgärda dessa problem, men även AI-relaterade projekt bör överväga dem.

Nu ska vi se hur Microsofts sex vägledande principer för ansvarsfull AI kan tillämpas inom andra organisationer.