Zajištění budoucnosti umělé inteligence a strojového učení v Microsoftu

Autoři: Andrew Marshall, Raul Rojas, Jay Stokes a Donald Brinkman

Zvláštní poděkování patří Marku Cartwrightovi a Grahamovi Calladinovi.

Shrnutí

Umělá inteligence (AI) a strojové Učení (ML) už mají velký dopad na to, jak lidé pracují, socializují a žijí jejich životy. S rozšiřujícím se využíváním produktů a služeb využívajících AI/ML je potřeba přijmout zvláštní opatření pro zajištění ochrany nejen vašich zákazníků a jejich dat, ale také vaší AI a vašich algoritmů před zneužitím, trollováním a extrakcí. Tento dokument představuje některé poznatky Microsoftu získané při navrhování produktů a provozu online služeb využívajících AI. I když je obtížné předpovědět, jak se tato oblast rozbalí, dospěli jsme k závěru, že existují problémy, které je možné vyřešit. Kromě toho jsme zjistili, že existují strategické problémy, které musí technické odvětví překonat, pokud chce zajistit dlouhodobou bezpečnost zákazníků a zabezpečení jejich dat.

Tento dokument se týká útoků založených na umělé inteligenci ani využití umělé inteligence nežádoucími osobami. Místo toho se zaměříme na problémy, které musí partneři Microsoftu a odvětví řešit kvůli ochraně produktů a služeb založených na umělé inteligenci před vysoce sofistikovanými, kreativními a škodlivými útoky, ať už prováděnými jednotlivými trolly nebo celými vlkovými balíčky.

Tento dokument se zaměřuje výhradně na otázky přípravy zabezpečení, které jsou jedinečné pro prostor AI/ML, ale vzhledem k rozsáhlé povaze domény InfoSec je zřejmé, že problémy a závěry, o kterých se zde diskutují, se překrývají do určité míry s doménami ochrany osobních údajů a etiky. Vzhledem k tomu, že tento dokument zdůrazňuje výzvy strategického významu, před kterými stojí technické odvětví, cílovou skupinou tohoto dokumentu jsou přední představitelé bezpečnostního inženýrství napříč obory.

Naše prvotní zjištění naznačují následující:

  • K omezení rizika vyplývajícího z typů problémů se zabezpečením popisovaných v tomto dokumentu se vyžadují pivoty AI/ML pro stávající postupy zabezpečení.

  • Modely strojového učení z velké části nedokáží rozlišovat mezi škodlivým vstupem a neobvyklými, ale neškodnými daty. Významný zdroj trénovacích dat je odvozen od nehodnocených, nemoderovaných, veřejných datových sad, které jsou otevřené pro 3příspěvky rd-party. Útočníci nemusí ohrozit datové sady, když k nim můžou přispívat. V průběhu času se z škodlivých dat s nízkou spolehlivostí stanou důvěryhodná data s vysokou spolehlivostí, pokud struktura a formátování dat zůstane správná.

  • Vzhledem k velkému počtu vrstev skrytých klasifikátorů/neuronů, které je možné použít v modelu hlubokého učení, se na výstup rozhodovacích procesů a algoritmů AI/ML umístí příliš velká důvěra, aniž by bylo důležité porozumět tomu, jak byla tato rozhodnutí dosažena. Tato obfuskace vede k nemožnosti „ukázat vaši práci“ a ztěžuje prokazatelnou obhajobu závěrů AI/ML v případě jejich zpochybnění.

  • Kombinace AI/ML se čím dál častěji využívá k zajištění podpory rozhodovacích procesů s vysokou hodnotou v oblasti zdravotnictví a v dalších oborech, kde špatné rozhodnutí může vést k vážnému zranění nebo dokonce úmrtí. Absence možností generování forenzních zpráv v AI/ML brání obhajobě těchto závěrů s vysokou hodnotou jak před soudem, tak před veřejností.

Cílem tohoto dokumentu je (1) zdůraznit bezpečnostní technické problémy, které jsou jedinečné pro prostor AI/ML, (2) zvýraznit některé počáteční myšlenky a pozorování o vznikajících hrozbách a (3) podělit se o prvotní myšlenky o potenciální nápravě. Některé výzvy v tomto dokumentu představují problémy, které se musí v rámci oboru vyřešit během následujících dvou let, zatímco jiné představují problémy, se kterými se musíme potýkat již dnes. Bez hlubšího zkoumání oblastí popsaných v tomto dokumentu riskujeme, že budoucí AI se stane černou skříňkou prostřednictvím naší neschopnosti důvěřovat nebo pochopit (a v případě potřeby upravit) rozhodovací procesy umělé inteligence na matematické úrovni [7]. Z hlediska zabezpečení to efektivně znamená ztrátu kontroly a odchod od hlavních principů Microsoftu v oblasti umělé inteligence [3, 7].

Nové výzvy v oblasti bezpečnostního inženýrství

Tradiční vektory útoku na software jsou stále důležité k řešení, ale neposkytují dostatečné pokrytí v oblasti hrozeb AI/ML. Technické odvětví nemůže bojovat s problémy nové generace pomocí řešení poslední generace tím, že bude vytvářet nové architektury a přijímat nové přístupy řešící nedostatky v návrhu a provozu služeb založených na AI/ML:

  1. Jak je uvedeno níže, zabezpečený základ pro vývoj a provoz musí při ochraně AI a dat, která má pod kontrolou, dodržovat koncepty odolnosti a diskrétnosti. V oblastech ověřování, rozdělení povinností, ověřování vstupu a omezování rizik v souvislosti s odepřením služeb se vyžadují pivoty specifické pro AI. Bez investic do těchto oblastí budou služby AI/ML nadále bojovat proti nežádoucím nežádoucím prvkům všech úrovní dovedností.

  2. Umělá inteligence musí být schopná rozpoznávat předsudky u ostatních, aniž by sama byla zaujatá při komunikaci s lidmi. K dosažení tohoto stavu se vyžaduje kolektivní a vyvíjející se porozumění předsudkům, stereotypům, dialektům a dalším kulturním konstruktům. Takové porozumění pomáhá chránit AI před útoky na manipulaci se sociálními technologiemi a datovými sadami. Správně implementovaný systém se z takových útoků ve skutečnosti stává silnější a dokáže sdílet své rozšířené znalosti s dalšími umělou inteligencí.

  3. Algoritmy strojového Učení musí být schopné rozlišovat škodlivě zavedená data od neškodných událostí "Black Swan" [1] odmítnutím trénovacích dat s negativním dopadem na výsledky. V opačném případě jsou modely učení vždy náchylné k hraní útočníky a trolly.

  4. AI musí disponovat integrovanými forenzními funkcemi. To podnikům umožňuje poskytovat zákazníkům transparentnost a odpovědnost za jejich AI a zajistit, aby jeho akce byly nejen ověřitelně správné, ale také právně zpřehlednitelné. Tyto funkce fungují také jako raná forma zjišťování neoprávněných vniknutí do AI, protože technikům umožňují určit konkrétní bod v čase, kdy klasifikátor učinil rozhodnutí, jaká data na něj měla vliv a jestli tato data byla důvěryhodná. Možnosti vizualizace dat v této oblasti rychle posouvají a ukazují slib, že inženýři můžou identifikovat a vyřešit původní příčiny těchto složitých problémů [10].

  5. AI musí rozpoznávat a chránit citlivé informace, i když je člověk za citlivé nepovažuje. Bohatá uživatelská prostředí v AI vyžadují obrovské množství nezpracovaných dat, na kterých se můžou trénovat, takže je potřeba se připravit na nadměrné sdílení mezi zákazníky.

Podrobné informace o každé z těchto oblastí, včetně hrozeb a možností omezení rizik, najdete níže.

AI vyžaduje nové pivoty pro tradiční modely zabezpečeného návrhu a provozu: zavedení odolnosti a diskrétnosti

Návrháři umělé inteligence potřebují zajistit důvěrnost, integritu a dostupnost citlivých dat, že systém AI není známým ohrožením zabezpečení a poskytuje kontroly ochrany, detekce a reakce na škodlivé chování systému nebo dat uživatele.

Tradiční způsoby ochrany před škodlivými útoky neposkytují stejné pokrytí v tomto novém paradigmatu, kdy útoky založené na hlasech, videích a imagích můžou obejít aktuální filtry a obranu. Aby nedocházelo k novým způsobům zneužívání AI, je potřeba prozkoumat nové aspekty modelování hrozeb. To dalece přesahuje identifikaci tradičních možností útoku na základě neplatných vstupních dat nebo manipulace se vstupem (tyto útoky také mají vlastní pivoty specifické pro AI). Vyžaduje se k tomu začlenění scénářů jedinečných pro oblast AI/ML. Mezi ty klíčové patří uživatelská prostředí AI například pro hlas, video a gesta. Hrozby spojené s těmito prostředími nebyly tradičně modelovány. Například obsah videa se teď běžně upravuje tak, aby vyvolával fyzické účinky. Výzkum navíc ukazuje, že příkazy útoku založené na zvuku lze vytvořit [9].

Nepředvídatelnost, kreativita a škodlivost zločinců, odhodlaných nežádoucích osob a trollů nás nutí, abychom do našich AI vštěpovali hodnoty odolnosti a diskrétnosti:

Odolnost: Systém by měl být schopný identifikovat neobvyklé chování a zabránit manipulaci nebo převodu mimo normální hranice přijatelného chování ve vztahu k systému AI a konkrétní úloze. Jedná se o nové typy útoků specifické pro oblast AI/ML. Systémy by se měly navrhovat tak, aby odolávaly vstupům, které by jinak byly v rozporu s místními zákony, etikou a hodnotami komunity a jejich tvůrců. To znamená, že by umělá inteligence měla mít možnost určit, že se komunikace odchyluje od scénáře. Toho je možné dosáhnout následujícími způsoby:

  1. Upoznamněte jednotlivé uživatele, kteří se odchylují od norem nastavených různými velkými clustery podobných uživatelů, například uživatelům, kteří se zdají být příliš rychlí, reagují příliš rychle, nepřesnou nebo aktivují části systému, které ostatní uživatelé neaktivují.

  2. Identifikujte vzorce chování, o kterých se ví, že značí testovací útoky se škodlivým záměrem a spusťte model Kill Chain pro napadení sítě.

  3. Rozpoznat kdykoli, když více uživatelů jednat koordinovaným způsobem; Například více uživatelů, kteří vydávají stejný nevysvětlitelný, ale záměrně vytvořený dotaz, náhlé špičky v počtu uživatelů nebo náhlé špičky při aktivaci konkrétních částí systému AI.

Útoky tohoto typu by se měly zvážit na základě analýzy útoků DoS, protože AI může vyžadovat opravy chyb a opětovné trénování, aby znovu nespadl na stejné triky. Kritická důležitost je schopnost identifikovat škodlivý záměr v přítomnosti protichůdných opatření, jako jsou ty, které se používají k poražení rozhraní API pro analýzu mínění [4].

Volitelné: AI by měla být zodpovědná a důvěryhodná správce všech informací, ke které má přístup. Jako lidé nepochybně přiřadíme určitou úroveň důvěry v naše vztahy S AI. V určitém okamžiku budou tito agenti naším jménem komunikovat s dalšími agenty nebo jinými lidmi. Musíme být schopni důvěřovat, že je systém AI dostatečně diskrétní, aby o nás v omezené podobě sdílel pouze nezbytné informace, aby za něj mohli další agenti dokončit požadované úlohy. Kromě toho by více agentů, kteří interagují s osobními údaji v našem zastoupení, nemělo by k němu každý potřebovat globální přístup. Ve všech scénářích přístupu k datům, které zahrnují více AI nebo agentů robotů, by se měl přístup omezovat na nejkratší možnou dobu. Uživatelé by také měli být schopni odepřít data a odmítnout ověřování agentů od konkrétních společností nebo národních prostředí stejně jako webové prohlížeče umožňují blokování webů dnes. Řešení tohoto problému vyžaduje nový náhled na ověřování uvnitř agenta a přístupová oprávnění k datům, stejně jako v případě investic do cloudového ověřování uživatelů v počátcích cloud computingu.

Umělá inteligence musí být schopná rozpoznávat předsudky u ostatních, aniž by sama byla zaujatá.

Přestože by umělá inteligence měla být spravedlivá a podporovat začlenění, aniž by diskriminovala konkrétní skupinu jednotlivců nebo platných výsledků, aby toho dosáhla, musí přirozeně chápat předsudky. Bez trénování rozpoznávat předsudky, trolling nebo sarkasmus, umělá inteligence může být zklamán těmi, kteří hledají levné smíchy v nejlepším případě, nebo způsobit škodu zákazníkům v nejhorším.

K dosažení této úrovně povědomí se vyžaduje, aby „dobří lidé učili umělou inteligenci špatnostem“, protože k tomu jsou ve skutečnosti potřeba komplexní a rozvíjející se znalosti kulturních předsudků. Umělá inteligence by měla být schopná rozpoznat uživatele, se kterým v minulosti měla negativní interakce, a postupovat vhodnou opatrnost, podobně jako rodiče učí své děti být opatrný cizími lidmi. Nejlepším způsobem, jak toho docílit, je opatrně vystavovat umělou inteligenci trollům, a to řízeným, moderovaným a omezeným způsobem. AI se tak může naučit rozlišovat mezi neškodným uživatelem, který ji jen tak zkouší, a skutečně škodlivým chováním nebo trollováním. Trollové poskytují cenný proud trénovacích dat, díky čemuž je AI odolnější vůči budoucím útokům.

Umělá inteligence by měla být schopná rozpoznávat předsudky také v sadách dat, na kterých se trénuje. Může se jednat o kulturní nebo regionální data, dialekt používaný konkrétní skupinou lidí nebo témata a úhly pohledu, které obzvláště zajímají jednu skupinu. Stejně jako u škodlivých zavedení trénovacích dat musí být AI odolná vůči účinkům těchto dat na vlastní odvozování a odpočty. V jádru se jedná o komplexní problém s ověřováním vstupu, který se podobá kontrolám mezí. Místo práce s délkami a odsazeními vyrovnávacích pamětí představují kontroly vyrovnávacích pamětí a mezí z celé řady zdrojů varovné signály. Klíčová je také historie konverzace a kontext, ve kterém se slova používají. Stejně jako se postupy důkladné obrany používají k vrstvení dalších úrovní ochrany nad tradiční front-end rozhraní API webové služby, mělo by se využívat více vrstev ochrany i v případě technik rozpoznávání předsudků a vyvarování se jich.

Algoritmy strojového Učení musí být schopné rozlišovat škodlivě zavedená data od neškodných událostí "Černé labuty".

Řada dokumentů white paper se publikuje o teoretickém potenciálu manipulace s modelem/klasifikátorem ML a extrakci/krádeži ze služeb, kde útočníci mají přístup k trénovací sadě dat a informovanému porozumění modelu používanému [2, 3, 6, 7]. Problém s překlenováním spočívá v tom, že všechny klasifikátory ML můžou oklamat útočník, který má kontrolu nad daty trénovací sady. Útočníci dokonce ani nepotřebují mít možnost upravovat stávající trénovací sadu. Stačí jim, když do ní můžou přidávat vstupy, které se v průběhu času stanou „důvěryhodnými“, protože klasifikátor strojového učení není schopný rozlišovat škodlivá data od skutečných neobvyklých dat.

Tento problém s dodavatelským řetězcem trénovacích dat nás přivádí ke konceptu integrity rozhodování – schopnosti identifikovat a odmítnout škodlivá trénovací data nebo uživatelský vstup před tím, než budou mít negativní dopad na chování klasifikátoru. Odůvodněním je, že důvěryhodná trénovací data mají vyšší pravděpodobnost generování důvěryhodných výsledků a rozhodnutí. I když je stále důležité trénovat a být odolný vůči nedůvěryhodným datům, škodlivá povaha těchto dat by se měla analyzovat před tím, než se stane součástí vysoce důvěryhodného těla trénovacích dat. Bez takovýchto opatření by umělá inteligence byla nucená přehnaně reagovat na trollování a odepírat služby legitimním uživatelům.

Týká se to především případů, kdy se algoritmy učení bez supervize trénují na nekurátorovaných nebo nedůvěryhodných sadách dat. To znamená, že útočníci můžou při dodržení správného formátu vložit libovolná data a algoritmus se na nich natrénuje a bude těmto datovým bodům důvěřovat stejně jako zbytku trénovací sady. Pokud útočník sestaví dostatečné množství vstupů, trénovací algoritmus ztratí schopnost rozlišovat šum a anomálie od vysoce spolehlivých dat.

Jako příklad této hrozby si představte, že existuje celosvětová databáze značek STOP ve všech jazycích. Vzhledem k množství obrázků a jazyků by její správa byla extrémně náročná. Škodlivé příspěvky do této sady dat by z velké části procházely bez povšimnutí a autonomní vozidla by nakonec značky STOP přestala rozpoznávat. Omezení odolnosti dat a omezení integrity rozhodnutí musí být v ruce, aby bylo možné identifikovat a odstranit poškození trénování, které škodlivá data udělala, aby se zabránilo tomu, že se stane základní součástí výukového modelu.

AI musí disponovat integrovanými forenzními funkcemi a protokolováním zabezpečení, aby mohla zajišťovat transparentnost a odpovědnost

Umělá inteligence bude časem schopná fungovat v rámci profesní činnosti jako agent naším jménem a pomáhat nám s rozhodováním s velkým dopadem. Příkladem může být umělá inteligence, která pomáhá zpracovávat finanční transakce. Pokud je umělá inteligence zneužita a transakce nějakým způsobem manipulovány, mohou důsledky být v rozsahu od jednotlivce po systémový. Ve vysoce hodnotných scénářích potřebuje AI vhodné forenzní protokolování a protokolování zabezpečení, aby poskytovala integritu, transparentnost, odpovědnost a v některých případech důkazy, kdy může vzniknout občanskoprávní nebo trestní odpovědnost.

Základní služby AI potřebují na úrovni algoritmu auditování/trasování událostí, kde mohou vývojáři zkoumat zaznamenaný stav konkrétních klasifikátorů, což mohlo vést k nepřesným rozhodnutí. Tato funkce je potřebná napříč obory, aby bylo možné v případě zpochybnění rozhodnutí vygenerovaných umělou inteligencí prokázat jejich správnost a transparentnost.

Nástroje pro sledování událostí můžou začít korelací základních informací o rozhodování, mezi které patří:

  1. Časový rámec, kdy došlo k poslední události trénování

  2. Časové razítko nejnovější položky v sadě dat, která se použila k trénování

  3. Váhy a úrovně spolehlivosti klíčových klasifikátorů, na základě kterých se došlo k rozhodnutím s velkým dopadem

  4. Klasifikátory nebo komponenty, které se na rozhodnutí podílely

  5. Konečné rozhodnutí s velkým dopadem, ke kterému algoritmus dospěl

Takové trasování je nadměrné pro většinu rozhodování s asistencí algoritmů. Schopnost identifikovat datové body a metadata algoritmů, které vedou ke konkrétním výsledkům, jsou ale velmi přínosné při rozhodování s vysokou hodnotou. Tyto funkce nejen demonstrují důvěryhodnost a integritu prostřednictvím schopnosti algoritmu "ukázat svou práci", ale tato data by se dala také použít k vyladění.

Další forenzní funkcí, která je v AI/ML potřeba, je detekce úmyslného poškození. Stejně jako potřebujeme, aby naše umělá inteligence rozpoznávala předsudky a nepodléhala jim, měli bychom mít k dispozici forenzní funkce, které pomůžou našim technikům takové útoky detekovat a reagovat na ně. Tyto forenzní schopnosti mají obrovskou hodnotu, když jsou spárované s technikami vizualizace dat [10], což umožňuje auditování, ladění a ladění algoritmů pro efektivnější výsledky.

AI musí chránit citlivé informace i tehdy, kdy to lidé nedělají

Bohatá prostředí vyžadují formátovaná data. Lidé už teď dobrovolně poskytují obrovská množství dat, na kterých se může strojové učení trénovat. Patří mezi ně cokoli od obyčejného obsahu fronty streamování videa až po trendy v nákupech platební kartou nebo historie transakcí sloužící k odhalování podvodů. AI by měla mít v případě zpracování uživatelských dat v případě, že se jedná o zpracování uživatelských dat, vždy vymýšlivěna, aby je chránila i v případě, že se dobrovolně volně sdílí veřejnost.

Vzhledem k tomu, že umělá inteligence může mít ověřenou skupinu partnerských uzlů, se kterými komunikuje za účelem řešení komplexních úloh, musí si také uvědomovat nutnost omezovat, jaká data s těmito partnerskými uzly sdílí.

Prvotní pozorování v souvislosti s řešením problémů se zabezpečením AI

Navzdory naschválujícímu stavu tohoto projektu se domníváme, že důkazy zkompilované k datu ukazují hlubší zkoumání jednotlivých níže uvedených oblastí je klíčem k přesunu našeho odvětví směrem k důvěryhodnějším a bezpečnějším produktům a službám AI/ML. Následují naše prvotní pozorování a myšlenky ohledně věcí, které bychom v této oblasti rádi viděli.

  1. Mohlo by dojít k ustavení skupiny pro kontroly zabezpečení a penetrační testování zaměřené na AI/ML, aby se zajistilo, že naše budoucí AI bude sdílet naše hodnoty a bude v souladu s principy AI z konference Asilomar.

    1. Tato skupina by také mohla vyvíjet nástroje a architektury, které by mohl kdokoli napříč obory využívat k podpoře zabezpečení vlastních služeb založených na AI/ML.
    2. V průběhu času se tyto znalosti v rámci technických skupin rozšíří organicky, stejně jako k tomu během posledních 10 let došlo v případě znalostí tradičního zabezpečení.
  2. Mohlo by se vytvořit školení, které organizacím umožní dosáhnout cílů, jako je demokratizace AI, při současném omezení rizik souvisejících s výzvami popsanými v tomto dokumentu.

    1. Bezpečnostní školení zaměřené na AI zajistí, aby si technici uvědomovali rizika pro jejich AI a prostředky, které mají k dispozici. Tento materiál musí být dodán s aktuálním školením o ochraně zákaznických dat.
    2. Toho je možné dosáhnout bez toho, aby se ze všech odborníků na data museli stát odborníci na zabezpečení – prioritou je místo toho vzdělávání vývojářů v oblasti odolnosti a diskrétnosti ve vztahu k jejich případům použití AI.
    3. Vývojáři budou muset porozumět zabezpečeným "stavebním blokům" služeb AI, které se používají v rámci celého podniku. Bude potřeba zdůraznit návrh odolný proti chybám u subsystémů, které je možné snadno vypnout (například procesory obrázků, analyzátory textu).
  3. Mohly by se posílit klasifikátory strojového učení a jejich základní algoritmy, aby dokázaly detekovat škodlivá trénovací data, aniž by kontaminovala aktuálně používaní platná trénovací data nebo zkreslovala výsledky.

    1. Techniky, jako je odmítnutí negativního vstupu [5], potřebují k prozkoumání cyklů výzkumného pracovníka.

    2. Tato práce zahrnuje matematické ověření, testování konceptu v kódu a testování se škodlivými i neobvyklými, ale neškodnými daty.

    3. Tady by mohla být vhodná lidská kontrola nebo moderování, zejména pokud se objeví statistické anomálie.

    4. Mohly by se vytvořit „dozorčí klasifikátory“, které by měly všeobecnější přehled o hrozbách v různých AI. Tím by se výrazně zlepšilo zabezpečení celého systému, protože by útočníci ztratili možnost stáhnout jeden konkrétní model.

    5. Umělé inteligence by se mohly propojit, aby mohly identifikovat hrozby mezi svými systémy.

  4. Mohla by se vytvořit centralizovaná knihovna strojového učení pro auditování a forenzní vědy, která by nastavila standard transparentnosti a důvěryhodnosti AI.

    1. Mohly by se také vytvořit možnosti dotazování pro účely auditování a rekonstrukce rozhodnutí AI s velkým obchodním dopadem.
  5. AI by mohla průběžně inventarizovat a analyzovat dialekt, který používají nežádoucí osoby z různých kulturních skupin a sociálních médií, aby dokázala rozpoznat a reagovat na trollování, sarkasmus atd.

    1. Umělé inteligence musí být odolné vůči všem typům dialektu, ať už je etnický, regionální nebo specifický pro konkrétní fórum.

    2. Tento text znalostí se dá použít také při filtrování obsahu, označování popisků nebo blokování automatizace k řešení problémů se škálovatelností moderátoru.

    3. Tato globální databáze termínů by mohla být hostovaná ve vývojových knihovnách nebo zveřejněná přes rozhraní API cloudových služeb, aby ji mohly opakovaně využívat různé umělé inteligence a nové umělé inteligence mohly využívat kombinované znalosti těch starších.

  6. Mohla by se vytvořit architektura Machine Learning Fuzzing Framework, která by technikům umožňovala provádět různé typy útoků na testovací trénovací sady, které by pak AI vyhodnocovala.

    1. To se může zaměřit nejen na text vernakulární, ale i na data hlasu a gest a permutace těchto datových typů.

Závěr

Principy AI z konference Asilomar ukazují, jak složité je dosáhnout umělé inteligence, která by lidstvu trvale přinášela výhody. Budoucí umělé inteligence musí komunikovat s dalšími AI, aby poskytovaly bohaté a poutavé uživatelské prostředí. To znamená, že prostě není dost dobré, aby Microsoft "zpravoval AI" z hlediska zabezpečení – svět musí. Potřebujeme sladění odvětví a spolupráci s větší viditelností, které jsme v tomto dokumentu zviditelní, a to způsobem, který se podobá našemu celosvětovému nabízení pro digitální ženevskou úmluvu [8]. Když vyřešíme zde uvedené problémy, můžeme začít vést naše zákazníky a oborové partnery na cestě ke skutečně demokratické umělé inteligenci, která rozšíří inteligenci celého lidstva.

Bibliografie

[1] Taleb, Nassim Nicholas (2007), Black Swan: The Impact of the Highly Improbable, Random House, ISBN 978-1400063512

[2] Florian Tramèr, Fan Zhang, Ari Juels, Michael K. Reiter, Thomas Ristenpart,Stealing Machine Učení Models via Prediction API

[3] Satya Nadella: Partnerství budoucnosti

[4] Claburn, Thomas:Google troll-zničení AI nemůže vyrovnat s překlepy

[5] Marco Barreno, Blaine Nelson, Anthony D. Joseph, J.D. Tygar: Zabezpečení strojového učení

[6] Wolchover, Natalie:This Artificial Intelligence Pioneer má několik obav

[7] Conn, Ariel:How Do We Align Artificial Intelligence with Human Values?

[8] Smith, Brad: Potřeba naléhavé kolektivní akce, aby lidé zůstali v bezpečí online: Lekce z kybernetického útoku minulý týden

[9] Nicholas Carlini, Pratyush Mishra, Tavish Vaidya, Yuankai Zhang, Micah Sherr, Clay Shields, David Wagner, Wenchao Zhou:Hidden Voice Commands

[10] Fernanda Viégas, Martin Wattenberg, Daniel Smilkov, James Wexler, Jimbo Wilson, Nikhil Thorat, Charles Nicholson, Google Research:Big Picture