Mengamankan Masa Depan Kecerdasan Buatan dan Pembelajaran Mesin di Microsoft

Oleh Andrew Marshall, Raul Rojas, Jay Stokes dan Donald Brinkman

Terima kasih khusus untuk Mark Cartwright dan Graham Calladine

Ringkasan Eksekutif

Kecerdasan Buatan (AI) dan Pembelajaran Mesin (ML) sudah membuat dampak besar pada cara orang bekerja, bersosialisasi, dan menjalani kehidupan mereka. Ketika konsumsi produk dan layanan yang dibangun di sekitar AI/ML meningkat, tindakan khusus harus dilakukan untuk melindungi tidak hanya pelanggan dan data mereka, tetapi juga untuk melindungi AI dan algoritma Anda dari penyalahgunaan, pendaftaran, dan ekstraksi. Dokumen ini berbagi beberapa pelajaran keamanan Microsoft yang dipelajari dari merancang produk dan mengoperasikan layanan online dibangun di atas AI. Meskipun sulit untuk memprediksi bagaimana area ini terungkap, kami telah menyimpulkan bahwa ada masalah yang dapat ditindaklanjuti untuk ditangani sekarang. Selain itu, kami menemukan bahwa ada masalah strategis yang harus dialihkan oleh industri teknologi untuk memastikan keamanan dan keamanan pelanggan jangka panjang dari data mereka.

Dokumen ini bukan tentang serangan berbasis AI atau bahkan AI yang dimanfaatkan oleh musuh manusia. Sebaliknya, kami fokus pada masalah yang perlu diatasi oleh Microsoft dan mitra industri untuk melindungi produk dan layanan berbasis AI dari serangan yang sangat canggih, kreatif, dan berbahaya, baik yang dilakukan oleh troll individu atau seluruh paket serigala.

Dokumen ini sepenuhnya berfokus pada masalah rekayasa keamanan yang unik untuk ruang AI/ML, tetapi karena sifat luas domain InfoSec, dipahami bahwa masalah dan temuan yang dibahas di sini tumpang tindih dengan domain privasi dan etika. Karena dokumen ini menyoroti tantangan pentingnya strategis bagi industri teknologi, audiens target untuk dokumen ini adalah kepemimpinan teknik keamanan di seluruh industri.

Temuan awal kami menunjukkan bahwa:

  • Pivot khusus AI/ML ke praktik keamanan yang ada diperlukan untuk mengurangi jenis masalah keamanan yang dibahas dalam dokumen ini.

  • model Pembelajaran Mesin sebagian besar tidak dapat membedakan antara input berbahaya dan data anomali jinak. Sumber data pelatihan yang signifikan berasal dari himpunan data publik yang tidak terjaga, tidak dimoderasi, dan terbuka untuk kontribusi pihak ketiga. Penyerang tidak perlu membahayakan himpunan data saat mereka bebas berkontribusi pada himpunan data. Seiring waktu, data berbahaya dengan keyakinan rendah menjadi data tepercaya dengan keyakinan tinggi, jika struktur/pemformatan data tetap benar.

  • Mengingat banyaknya lapisan pengklasifikasi/neuron tersembunyi yang dapat digunakan dalam model pembelajaran mendalam, terlalu banyak kepercayaan ditempatkan pada output proses dan algoritma pengambilan keputusan AI/ML tanpa pemahaman kritis tentang bagaimana keputusan ini tercapai. Obfuscation ini menciptakan ketidakmampuan untuk "menunjukkan pekerjaan Anda" dan membuatnya sulit untuk membela temuan AI/ML ketika dipanggil ke dalam pertanyaan.

  • AI/ML semakin digunakan untuk mendukung proses pengambilan keputusan bernilai tinggi dalam kedokteran dan industri lain di mana keputusan yang salah dapat mengakibatkan cedera serius atau kematian. Kurangnya kemampuan pelaporan forensik di AI/ML mencegah kesimpulan bernilai tinggi ini tidak dapat dipertahankan di pengadilan dan pengadilan opini publik.

Tujuan dari dokumen ini adalah untuk (1) menyoroti masalah rekayasa keamanan, yang unik untuk ruang AI/ML, (2) memunculkan beberapa pemikiran awal dan pengamatan tentang ancaman yang muncul dan (3) berbagi pemikiran awal tentang potensi remediasi. Beberapa tantangan dalam dokumen ini adalah masalah yang perlu dihadapi industri dalam dua tahun ke depan, yang lain adalah masalah yang sudah dipaksakan untuk kita atasi hari ini. Tanpa penyelidikan yang lebih dalam ke area yang tercakup dalam dokumen ini, kami memperdalam AI di masa depan menjadi kotak hitam melalui ketidakmampuan kami untuk mempercayai atau memahami (dan memodifikasi jika perlu) proses pengambilan keputusan AI pada tingkat matematika [7]. Dari perspektif keamanan, ini secara efektif berarti hilangnya kontrol dan kepergian dari prinsip panduan Microsoft tentang Kecerdasan Buatan [3, 7].

Tantangan Rekayasa Keamanan Baru

Vektor serangan perangkat lunak tradisional masih penting untuk ditangani, tetapi tidak memberikan cakupan yang memadai dalam lanskap ancaman AI/ML. Industri teknologi harus menghindari memerangi masalah generasi berikutnya dengan solusi generasi terakhir dengan membangun kerangka kerja baru dan mengadopsi pendekatan baru yang mengatasi kesenjangan dalam desain dan pengoperasian layanan berbasis AI/ML:

  1. Seperti yang dibahas di bawah ini, fondasi pengembangan dan operasi yang aman harus menggabungkan konsep Ketahanan dan Kebijaksanaan saat melindungi AI dan data di bawah kendalinya. Pivot khusus AI diperlukan di bidang Autentikasi, Pemisahan Tugas, Validasi Input, dan Penolakan mitigasi Layanan. Tanpa investasi di bidang-bidang ini, layanan AI/ML terus berjuang melawan musuh dari semua tingkat keterampilan.

  2. AI harus dapat mengenali bias pada orang lain, tanpa bias dalam interaksinya sendiri dengan manusia. Mencapai hal ini membutuhkan pemahaman kolektif dan berkembang tentang bias, stereotip, vernakular, dan konstruksi budaya lainnya. Pemahaman seperti itu membantu melindungi AI dari rekayasa sosial dan serangan perubahan himpunan data. Sistem yang diimplementasikan dengan benar sebenarnya menjadi lebih kuat dari serangan tersebut dan dapat berbagi pemahamannya yang diperluas dengan AI lainnya.

  3. Pembelajaran Mesin algoritma harus mampu membedakan data yang diperkenalkan dengan berbahaya dari peristiwa "Black Swan" jinak [1] dengan menolak data pelatihan dengan dampak negatif pada hasil. Jika tidak, model pembelajaran selalu rentan terhadap game oleh penyerang dan troll.

  4. AI harus memiliki kemampuan forensik bawaan. Ini memungkinkan perusahaan untuk memberi pelanggan transparansi dan akuntabilitas AI mereka, memastikan tindakannya tidak hanya benar tetapi juga dapat dipertahankan secara hukum. Kemampuan ini juga berfungsi sebagai bentuk awal "deteksi intrusi AI", memungkinkan teknisi menentukan titik waktu yang tepat bahwa keputusan dibuat oleh pengklasifikasi, data apa yang memengaruhinya, dan apakah data tersebut dapat dipercaya atau tidak. Kemampuan visualisasi data di area ini maju dengan cepat dan menunjukkan janji untuk membantu teknisi mengidentifikasi dan menyelesaikan akar penyebab masalah kompleks ini [10].

  5. AI harus mengenali dan melindungi informasi sensitif, bahkan jika manusia tidak mengenalinya seperti itu. Pengalaman pengguna yang kaya di AI memerlukan sejumlah besar data mentah untuk dilatih, sehingga "berbagi berlebihan" oleh pelanggan harus direncanakan.

Masing-masing area ini, termasuk ancaman dan potensi mitigasi, dibahas secara rinci di bawah ini.

AI memerlukan pivot baru ke model desain aman/operasi aman tradisional: pengenalan Ketahanan dan Kebijaksanaan

Desainer AI perlu memastikan kerahasiaan, integritas, dan ketersediaan data sensitif, bahwa sistem AI bebas dari kerentanan yang diketahui, dan memberikan kontrol untuk perlindungan, deteksi, dan respons terhadap perilaku berbahaya terhadap sistem atau data pengguna.

Cara tradisional untuk bertahan dari serangan berbahaya tidak memberikan cakupan yang sama dalam paradigma baru ini, di mana serangan berbasis suara/video/gambar dapat menghindari filter dan pertahanan saat ini. Aspek pemodelan ancaman baru harus dieksploitasi untuk mencegah penyalahgunaan baru mengeksploitasi AI kami. Ini jauh melampaui identifikasi permukaan serangan tradisional melalui manipulasi fuzzing atau input (serangan tersebut juga memiliki pivot khusus AI mereka sendiri). Ini membutuhkan skenario penggabungan yang unik untuk ruang AI/ML. Kunci di antaranya adalah pengalaman pengguna AI seperti suara, video, dan gerakan. Ancaman yang terkait dengan pengalaman ini belum dimodelkan secara tradisional. Misalnya, konten video sekarang sedang disesuaikan untuk menginduksi efek fisik. Selain itu, penelitian menunjukkan bahwa perintah serangan berbasis audio dapat dibuat [9].

Ketidakpastian, kreativitas, dan kejahatan penjahat, kesulitan yang ditentukan, dan troll mengharuskan kita untuk menanamkan AI kita dengan nilai-nilai Ketahanan dan Kebijaksanaan:

Ketahanan: Sistem harus dapat mengidentifikasi perilaku abnormal dan mencegah manipulasi atau paksaan di luar batas normal perilaku yang dapat diterima sehubungan dengan sistem AI dan tugas tertentu. Ini adalah jenis serangan baru khusus untuk ruang AI/ML. Sistem harus dirancang untuk menolak input yang jika tidak akan bertentangan dengan hukum, etika, dan nilai lokal yang dipegang oleh komunitas dan pembuatnya. Ini berarti menyediakan AI dengan kemampuan untuk menentukan kapan interaksi akan "off script." Ini dapat dicapai dengan metode berikut:

  1. Tentukan pengguna individu yang menyimpang dari norma yang ditetapkan oleh berbagai kluster besar pengguna serupa misalnya, pengguna yang tampaknya mengetik terlalu cepat, merespons terlalu cepat, tidak tidur, atau memicu bagian dari sistem yang tidak dilakukan pengguna lain.

  2. Identifikasi pola perilaku yang diketahui sebagai indikator serangan pemeriksaan niat jahat dan dimulainya Network Intrusion Kill Chain.

  3. Kenali kapan saja ketika beberapa pengguna bertindak secara terkoordinasi; misalnya, beberapa pengguna semuanya mengeluarkan kueri yang tidak dapat dijelaskan namun sengaja dibuat, lonjakan tiba-tiba dalam jumlah pengguna atau lonjakan tiba-tiba dalam aktivasi bagian tertentu dari sistem AI.

Serangan jenis ini harus dipertimbangkan setara dengan serangan Penolakan Layanan karena AI mungkin memerlukan perbaikan bug dan pelatihan ulang agar tidak jatuh untuk trik yang sama lagi. Pentingnya adalah kemampuan untuk mengidentifikasi niat jahat dengan adanya penanggulangan seperti yang digunakan untuk mengalahkan API analisis sentimen [4].

Kebijaksanaan: AI harus menjadi penjaga yang bertanggung jawab dan dapat dipercaya dari setiap informasi yang dapat diaksesnya. Sebagai manusia, kami pasti menetapkan tingkat kepercayaan tertentu dalam hubungan AI kami. Pada titik tertentu, agen-agen ini akan berbicara dengan agen lain atau manusia lain atas nama kita. Kita harus dapat percaya bahwa sistem AI memiliki kebijaksanaan yang cukup untuk hanya berbagi dalam bentuk terbatas apa yang perlu dibagikan tentang kami sehingga agen lain dapat menyelesaikan tugas atas namanya. Selain itu, beberapa agen yang berinteraksi dengan data pribadi atas nama kami seharusnya tidak masing-masing membutuhkan akses global ke dalamnya. Setiap skenario akses data yang melibatkan beberapa AI atau agen bot harus membatasi masa pakai akses hingga batas minimum yang diperlukan. Pengguna juga harus dapat menolak data dan menolak autentikasi agen dari perusahaan atau lokal tertentu sama seperti browser web yang memungkinkan pemblokiran situs hari ini. Memecahkan masalah ini memerlukan pemikiran baru tentang autentikasi antar-agen dan hak istimewa akses data seperti investasi autentikasi pengguna berbasis cloud yang dilakukan pada tahun-tahun awal komputasi cloud.

AI harus dapat mengenali bias pada orang lain tanpa bias sendiri

Meskipun AI harus adil dan inklusif tanpa membeda-bedakan kelompok individu tertentu atau hasil yang valid, AI harus memiliki pemahaman bawaan tentang bias untuk mencapai hal ini. Tanpa dilatih untuk mengenali bias, trolling, atau sarkasma, AI mungkin ditipu oleh mereka yang mencari tawa murahan paling baik, atau menyebabkan bahaya bagi pelanggan dengan terburuk.

Mencapai tingkat kesadaran ini menyerukan "orang baik yang mengajarkan hal-hal buruk AI" karena secara efektif membutuhkan pemahaman yang komprehensif dan berkembang tentang bias budaya. AI harus dapat mengenali pengguna yang memiliki interaksi negatif dengan di masa lalu dan berhati-hati dengan tepat, mirip dengan bagaimana orang tua mengajarkan anak-anak mereka untuk waspada terhadap orang asing. Cara terbaik untuk mendekati ini adalah dengan hati-hati mengekspos AI ke troll dengan cara yang terkontrol/termoderasi/terbatas. Dengan cara ini AI dapat mempelajari perbedaan antara pengguna jinak "menendang ban" dan keburukan/trolling aktual. Troll menyediakan aliran data pelatihan yang berharga untuk AI, membuatnya lebih tangguh terhadap serangan di masa mendatang.

AI juga harus dapat mengenali bias dalam himpunan data yang dilatihnya. Ini bisa berupa budaya atau regional, yang berisi vernakular yang digunakan oleh sekelompok orang tertentu, atau topik/sudut pandang minat tertentu untuk satu kelompok. Seperti halnya data pelatihan yang diperkenalkan dengan berbahaya, AI harus tahan terhadap efek data ini pada inferensi dan pengurangannya sendiri. Pada intinya, ini adalah masalah validasi input canggih dengan kesamaan dengan pemeriksaan batas. Alih-alih berurusan dengan panjang dan offset buffer, pemeriksaan buffer dan batas adalah kata-kata berbendera merah dari berbagai sumber. Riwayat percakapan dan konteks di mana kata-kata yang digunakan juga merupakan kunci. Sama seperti praktik pertahanan mendalam digunakan untuk melapisi perlindungan di atas frontend API Layanan Web tradisional, beberapa lapisan perlindungan harus dimanfaatkan dalam teknik pengenalan dan penghindarian bias.

Pembelajaran Mesin Algoritma harus mampu membedakan data yang diperkenalkan dengan berbahaya dari peristiwa "Black Swan" jinak

Banyak whitepaper diterbitkan pada potensi teoritis model ML/pengklasifikasi perusakan dan ekstraksi/pencurian dari layanan di mana penyerang memiliki akses ke himpunan data pelatihan dan pemahaman terinformasi tentang model yang digunakan [2, 3, 6, 7]. Masalah pengarsipan berlebihan di sini adalah bahwa semua pengklasifikasi ML dapat ditipu oleh penyerang yang memiliki kontrol atas data set pelatihan. Penyerang bahkan tidak memerlukan kemampuan untuk memodifikasi data set pelatihan yang ada, mereka hanya perlu dapat menambahkannya dan meminta input mereka menjadi "tepercaya" dari waktu ke waktu melalui ketidakmampuan pengklasifikasi ML untuk membedakan data berbahaya dari data anomali asli.

Masalah rantai pasokan data pelatihan ini memperkenalkan kami pada konsep "Integritas Keputusan" - kemampuan untuk mengidentifikasi dan menolak data pelatihan atau input pengguna yang diperkenalkan secara berbahaya sebelum berdampak negatif pada perilaku pengklasifikasi. Alasannya adalah bahwa data pelatihan yang dapat dipercaya memiliki probabilitas yang lebih tinggi untuk menghasilkan hasil/keputusan yang dapat dipercaya. Meskipun masih penting untuk melatih dan tahan terhadap data yang tidak tepercaya, sifat berbahaya dari data tersebut harus dianalisis sebelum menjadi bagian dari badan kepercayaan tinggi data pelatihan. Tanpa langkah-langkah seperti itu, AI dapat dipaksa untuk bereaksi berlebihan terhadap trolling dan menolak layanan kepada pengguna yang sah.

Ini adalah kekhawatiran khusus di mana algoritma pembelajaran yang tidak diawasi melatih himpunan data yang tidak terpercaya atau tidak tepercaya. Ini berarti bahwa penyerang dapat memperkenalkan data apa pun yang mereka inginkan asalkan formatnya valid dan algoritma dilatih di atasnya, secara efektif mempercayai bahwa data menunjuk sama dengan sisa set pelatihan. Dengan input yang cukup dibuat dari penyerang, algoritma pelatihan kehilangan kemampuan untuk membedakan kebisingan dan anomali dari data keyakinan tinggi.

Sebagai contoh ancaman ini, bayangkan database tanda berhenti di seluruh dunia, dalam setiap bahasa. Itu akan sangat menantang untuk dikurasi karena jumlah gambar dan bahasa yang terlibat. Kontribusi berbahaya pada himpunan data tersebut sebagian besar tidak diperhatikan sampai mobil yang mengemudi sendiri tidak lagi mengenali tanda berhenti. Ketahanan data dan mitigasi integritas keputusan harus bergandengan tangan di sini untuk mengidentifikasi dan menghilangkan kerusakan pelatihan yang dilakukan oleh data berbahaya untuk mencegahnya menjadi bagian inti dari model pembelajaran.

AI harus memiliki forensik bawaan dan pengelogan keamanan untuk memberikan transparansi dan akuntabilitas

AI pada akhirnya akan mampu bertindak dalam kapasitas profesional sebagai agen atas nama kami, membantu kami dengan pengambilan keputusan berdampak tinggi. Contohnya bisa menjadi AI yang membantu pemrosesan transaksi keuangan. Jika AI dieksploitasi, dan transaksi dimanipulasi dalam beberapa cara, konsekuensinya dapat berkisar dari individu hingga sistemik. Dalam skenario bernilai tinggi, AI memerlukan pencatatan forensik dan keamanan yang sesuai untuk memberikan integritas, transparansi, akuntabilitas, dan dalam beberapa kasus, bukti di mana tanggung jawab sipil atau pidana dapat muncul.

Layanan AI penting memerlukan fasilitas audit/pelacakan peristiwa pada tingkat algoritma di mana pengembang dapat memeriksa status pengklasifikasi tertentu yang dicatat, yang mungkin menyebabkan keputusan yang tidak akurat. Kemampuan ini diperlukan di seluruh industri untuk membuktikan kebenaran dan transparansi keputusan yang dihasilkan AI setiap kali dipanggil ke dalam pertanyaan.

Fasilitas pelacakan peristiwa dapat dimulai dengan korelasi informasi pengambilan keputusan dasar seperti:

  1. Jangka waktu di mana peristiwa pelatihan terakhir terjadi

  2. Tanda waktu entri himpunan data terbaru yang dilatih

  3. Bobot dan tingkat keyakinan pengklasifikasi utama yang digunakan untuk sampai pada keputusan berdampak tinggi

  4. Pengklasifikasi atau komponen yang terlibat dalam keputusan

  5. Keputusan bernilai tinggi akhir yang dicapai oleh algoritma

Pelacakan tersebut berlebihan untuk sebagian besar pengambilan keputusan yang dibantu algoritma. Namun, memiliki kemampuan untuk mengidentifikasi titik data dan metadata algoritma yang mengarah ke hasil tertentu sangat menguntungkan dalam pengambilan keputusan bernilai tinggi. Kemampuan tersebut tidak hanya menunjukkan kepercayaan dan integritas melalui kemampuan algoritma untuk "menunjukkan pekerjaannya", tetapi data ini juga dapat digunakan untuk penyempurnaan.

Kemampuan forensik lain yang diperlukan dalam AI/ML adalah deteksi perubahan. Sama seperti kita membutuhkan AI kita untuk mengenali bias dan tidak rentan terhadapnya, kita harus memiliki kemampuan forensik yang tersedia untuk membantu teknisi kita dalam mendeteksi dan merespons serangan tersebut. Kemampuan forensik tersebut bernilai luar biasa ketika dipasangkan dengan teknik visualisasi data [10] memungkinkan audit, penelusuran kesalahan, dan penyetelan algoritma untuk hasil yang lebih efektif.

AI harus melindungi informasi sensitif, meskipun manusia tidak

Pengalaman kaya membutuhkan data yang kaya. Manusia sudah menjadi sukarelawan sejumlah besar data untuk dilatih ML. Hal ini berkisar dari konten antrean streaming video biasa hingga tren dalam pembelian kartu kredit/riwayat transaksi yang digunakan untuk mendeteksi penipuan. AI harus memiliki rasa kebijaksanaan yang tertanam dalam hal menangani data pengguna, selalu bertindak untuk melindunginya bahkan ketika sukarela secara bebas oleh publik yang berbagi berlebihan.

Karena AI dapat memiliki sekelompok "rekan" yang diautentikasi yang dibicarakannya untuk menyelesaikan tugas yang kompleks, AI juga harus mengenali kebutuhan untuk membatasi data yang dibagikannya dengan rekan-rekan tersebut.

Pengamatan Awal tentang Mengatasi Masalah Keamanan AI

Terlepas dari keadaan terbaru proyek ini, kami percaya bukti yang dikompilasi hingga saat ini menunjukkan penyelidikan yang lebih mendalam ke masing-masing area di bawah ini adalah kunci dalam memindahkan industri kami ke produk/layanan AI/ML yang lebih dapat dipercaya dan aman. Berikut ini adalah pengamatan awal dan pemikiran kami tentang apa yang ingin kita lihat dilakukan di ruang ini.

  1. Badan pengujian penetrasi dan peninjauan keamanan yang berfokus pada AI/ML dapat ditetapkan untuk memastikan bahwa AI masa depan kita berbagi nilai-nilai kita dan selaras dengan Prinsip-Prinsip AI Asilomar.

    1. Grup semacam itu juga dapat mengembangkan alat dan kerangka kerja yang dapat dikonsumsi di seluruh industri untuk mendukung pengamanan layanan berbasis AI/ML mereka.
    2. Seiring waktu, keahlian ini akan dibangun dalam kelompok teknik secara organik, seperti halnya dengan keahlian keamanan tradisional selama 10 tahun terakhir.
  2. Pelatihan dapat dikembangkan yang memberdayakan perusahaan untuk memberikan tujuan seperti demokratisasi AI sambil mengurangi tantangan yang dibahas dalam dokumen ini.

    1. Pelatihan keamanan khusus AI memastikan bahwa teknisi mengetahui risiko yang ditimbulkan pada AI mereka dan sumber daya yang mereka miliki. Materi ini perlu dikirimkan dengan pelatihan saat ini tentang melindungi data pelanggan.
    2. Ini dapat dicapai tanpa mengharuskan setiap ilmuwan data untuk menjadi pakar keamanan - sebaliknya, fokus ditempatkan pada mendidik pengembang tentang Ketahanan dan Kebijaksanaan seperti yang diterapkan pada kasus penggunaan AI mereka.
    3. Pengembang harus memahami "blok penyusun" aman layanan AI yang digunakan kembali di seluruh perusahaan mereka. Perlu ada penekanan pada desain toleran terhadap kesalahan dengan subsistem, yang dapat dengan mudah dimatikan (misalnya, prosesor gambar, pengurai teks).
  3. Pengklasifikasi ML dan algoritma dasarnya dapat diperkuat dan mampu mendeteksi data pelatihan berbahaya tanpa mencemari data pelatihan yang valid yang saat ini digunakan atau condong hasilnya.

    1. Teknik seperti Tolak pada Input Negatif [5] membutuhkan siklus peneliti untuk menyelidiki.

    2. Pekerjaan ini melibatkan verifikasi matematika, bukti konsep dalam kode, dan pengujian terhadap data anomali berbahaya dan jinak.

    3. Pemeriksaan/moderasi spot manusia mungkin bermanfaat di sini, terutama di mana anomali statistik ada.

    4. "Pengklasifikasi overseer" dapat dibangun untuk memiliki pemahaman ancaman yang lebih universal di beberapa AI. Ini sangat meningkatkan keamanan sistem karena penyerang tidak dapat lagi menyelundupkan satu model tertentu.

    5. AIs dapat ditautkan bersama untuk mengidentifikasi ancaman dalam sistem satu sama lain

  4. Pustaka audit/forensik ML terpusat dapat dibangun yang menetapkan standar untuk transparansi dan kepercayaan AI.

    1. Kemampuan kueri juga dapat dibangun untuk audit dan rekonstruksi keputusan dampak bisnis yang tinggi oleh AI.
  5. Vernacular yang digunakan oleh lawan di berbagai kelompok budaya dan media sosial dapat terus diinventarisasi dan dianalisis oleh AI untuk mendeteksi dan menanggapi trolling, sarkasme, dll.

    1. AIs harus tangguh dalam menghadapi semua jenis vernakular, baik teknis, regional, atau khusus forum.

    2. Isi pengetahuan ini juga dapat digunakan dalam pemfilteran konten/pelabelan/pemblokiran otomatisasi untuk mengatasi masalah skalabilitas moderator.

    3. Database global istilah ini dapat dihosting di pustaka pengembangan atau bahkan diekspos melalui API layanan cloud untuk digunakan kembali oleh AI yang berbeda, memastikan AI baru mendapat manfaat dari kebijaksanaan gabungan yang lebih lama.

  6. "Pembelajaran Mesin Fuzzing Framework" dapat dibuat yang memberi teknisi kemampuan untuk menyuntikkan berbagai jenis serangan ke dalam set pelatihan pengujian untuk dievaluasi AI.

    1. Ini dapat berfokus pada tidak hanya teks vernakular, tetapi data gambar, suara dan gerakan dan permutasi dari jenis data tersebut.

Kesimpulan

Prinsip AI Asilomar menggambarkan kompleksitas pengiriman pada AI dengan cara yang secara konsisten menguntungkan kemanusiaan. AI di masa mendatang perlu berinteraksi dengan AI lain untuk memberikan pengalaman pengguna yang kaya dan menarik. Itu berarti tidak cukup baik bagi Microsoft untuk "mendapatkan hak AI" dari perspektif keamanan - dunia harus. Kami membutuhkan keselarasan industri dan kolaborasi dengan visibilitas yang lebih besar membawa ke masalah dalam dokumen ini dengan cara yang mirip dengan dorongan kami di seluruh dunia untuk Konvensi Jenewa Digital [8]. Dengan mengatasi masalah yang disajikan di sini, kami dapat mulai membimbing pelanggan dan mitra industri kami ke jalur di mana AI benar-benar demokratisasi dan meningkatkan kecerdasan semua umat manusia.

Bibliografi

[1] Taleb, Nassim Nicholas (2007), The Black Swan: The Impact of the Highly Improbable, Random House, ISBN 978-1400063512

[2] Florian Tramèr, Fan Zhang, Ari Juels, Michael K. Reiter, Thomas Ristenpart, Mencuri Model Pembelajaran Mesin melalui API Prediksi

[3] Satya Nadella:Kemitraan Masa Depan

[4] Claburn, Thomas:AI yang menghancurkan troll Google tidak dapat mengatasi kesalahan ketik

[5] Marco Barreno, Blaine Nelson, Anthony D. Joseph, J.D. Tygar:Keamanan pembelajaran mesin

[6] Wolchover, Natalie:Pelopor Kecerdasan Buatan Ini Memiliki Beberapa Kekhawatiran

[7] Conn, Ariel:Bagaimana Kita Menyelaraskan Kecerdasan Buatan dengan Nilai-Nilai Manusia?

[8] Smith, Brad:Kebutuhan akan tindakan kolektif mendesak untuk menjaga orang-orang tetap aman online: Pelajaran dari serangan cyber minggu lalu

[9] Nicholas Carlini, Pratyush Mishra, Tavish Vaidya, Yuankai Zhang, Mikha Sherr, Clay Shields, David Wagner, Wenchao Zhou:Hidden Voice Commands

[10] Fernanda Viégas, Martin Wattenberg, Daniel Smilkov, James Wexler, Jimbo Wilson, Nikhil Thorat, Charles Nicholson, Google Research:Big Picture