Bagikan melalui


Mengamankan Masa Depan Kecerdasan Buatan dan Pembelajaran Mesin di Microsoft

Oleh Andrew Marshall, Raul Rojas, Jay Stokes dan Donald Brinkman

Terima kasih khusus untuk Mark Cartwright dan Graham Calladine

Ringkasan Eksekutif

Kecerdasan Buatan (AI) dan Pembelajaran Mesin (ML) sudah membuat dampak besar pada cara orang bekerja, bersosialisasi, dan menjalani kehidupan mereka. Ketika konsumsi produk dan layanan yang dibangun di sekitar AI/ML meningkat, tindakan khusus harus dilakukan untuk melindungi tidak hanya pelanggan dan data mereka, tetapi juga untuk melindungi AI dan algoritma Anda dari penyalahgunaan, pendaftaran, dan ekstraksi. Dokumen ini berbagi beberapa pelajaran keamanan Microsoft yang dipelajari dari merancang produk dan mengoperasikan layanan online dibangun di atas AI. Meskipun sulit untuk memprediksi bagaimana perkembangan area ini, kami telah menyimpulkan bahwa ada masalah yang dapat ditindaklanjuti dan ditangani sekarang. Selain itu, kami menemukan bahwa ada masalah strategis yang harus diantisipasi oleh industri teknologi untuk memastikan keselamatan pelanggan jangka panjang dan keamanan data mereka.

Dokumen ini bukan tentang serangan berbasis AI atau bahkan AI yang dimanfaatkan oleh musuh manusia. Sebaliknya, kami fokus pada masalah yang perlu diatasi oleh Microsoft dan mitra industri untuk melindungi produk dan layanan berbasis AI dari serangan yang sangat canggih, kreatif, dan berbahaya, baik yang dilakukan oleh troll individu atau seluruh paket serigala.

Dokumen ini sepenuhnya berfokus pada masalah rekayasa keamanan yang unik untuk ruang AI/ML, tetapi karena sifat luas domain InfoSec, dipahami bahwa masalah dan temuan yang dibahas di sini tumpang tindih dengan domain privasi dan etika. Karena dokumen ini menyoroti tantangan pentingnya strategis bagi industri teknologi, audiens target untuk dokumen ini adalah kepemimpinan teknik keamanan di seluruh industri.

Temuan awal kami menunjukkan bahwa:

  • Pivot khusus AI/ML ke praktik keamanan yang ada diperlukan untuk mengurangi jenis masalah keamanan yang dibahas dalam dokumen ini.

  • model Pembelajaran Mesin sebagian besar tidak dapat membedakan antara input berbahaya dan data anomali jinak. Sumber data pelatihan yang signifikan berasal dari himpunan data publik yang tidak terjaga, tidak dimoderasi, dan terbuka untuk kontribusi pihak ketiga. Penyerang tidak perlu membahayakan himpunan data saat mereka bebas berkontribusi pada himpunan data. Seiring waktu, data berbahaya dengan keyakinan rendah menjadi data tepercaya dengan keyakinan tinggi, jika struktur/pemformatan data tetap benar.

  • Mengingat banyaknya lapisan pengklasifikasi/neuron tersembunyi yang dapat digunakan dalam model pembelajaran mendalam, terlalu banyak kepercayaan ditempatkan pada output proses dan algoritma pengambilan keputusan AI/ML tanpa pemahaman kritis tentang bagaimana keputusan ini tercapai. Obfuscation ini menciptakan ketidakmampuan untuk "menunjukkan hasil kerja Anda" dan membuatnya sulit untuk secara meyakinkan membela temuan AI/ML ketika dipertanyakan.

  • AI/ML semakin digunakan untuk mendukung proses pengambilan keputusan bernilai tinggi dalam kedokteran dan industri lain di mana keputusan yang salah dapat mengakibatkan cedera serius atau kematian. Kurangnya kemampuan pelaporan forensik pada AI/ML mencegah kesimpulan bernilai tinggi ini dapat dipertahankan baik di pengadilan hukum maupun di pengadilan opini publik.

Tujuan dari dokumen ini adalah untuk (1) menyoroti masalah rekayasa keamanan, yang unik untuk ruang AI/ML, (2) memunculkan beberapa pemikiran awal dan pengamatan tentang ancaman yang muncul dan (3) berbagi pemikiran awal tentang potensi remediasi. Beberapa tantangan dalam dokumen ini adalah masalah yang perlu dihadapi industri dalam dua tahun ke depan, yang lain adalah masalah yang sudah dipaksakan untuk kita atasi hari ini. Tanpa penyelidikan yang lebih dalam ke area yang tercakup dalam dokumen ini, kami berisiko AI di masa depan menjadi kotak hitam karena ketidakmampuan untuk mempercayai atau memahami (dan memodifikasi jika perlu) proses pengambilan keputusan AI pada level matematis [7]. Dari perspektif keamanan, ini secara efektif berarti hilangnya kontrol dan kepergian dari prinsip panduan Microsoft tentang Kecerdasan Buatan [3, 7].

Tantangan Rekayasa Keamanan Baru

Vektor serangan perangkat lunak tradisional masih penting untuk ditangani, tetapi tidak memberikan cakupan yang memadai dalam lanskap ancaman AI/ML. Industri teknologi harus menghindari memerangi masalah generasi berikutnya dengan solusi generasi terakhir dengan membangun kerangka kerja baru dan mengadopsi pendekatan baru yang mengatasi kesenjangan dalam desain dan pengoperasian layanan berbasis AI/ML:

  1. Seperti yang dibahas di bawah ini, fondasi pengembangan dan operasi yang aman harus menggabungkan konsep Ketahanan dan Kebijaksanaan saat melindungi AI dan data di bawah kendalinya. Pivot khusus AI diperlukan di bidang Autentikasi, Pemisahan Tugas, Validasi Input, dan mitigasi Penolakan Layanan. Tanpa investasi di bidang-bidang ini, layanan AI/ML terus berjuang melawan musuh dari semua tingkat keterampilan.

  2. AI harus dapat mengenali bias pada orang lain, tanpa bias dalam interaksinya sendiri dengan manusia. Mencapai hal ini membutuhkan pemahaman kolektif dan berkembang tentang bias, stereotip, vernakular, dan konstruksi budaya lainnya. Pemahaman seperti itu membantu melindungi AI dari rekayasa sosial dan serangan perubahan himpunan data. Sistem yang diimplementasikan dengan benar sebenarnya menjadi lebih kuat dari serangan tersebut dan dapat berbagi pemahamannya yang diperluas dengan AI lainnya.

  3. Algoritma Pembelajaran Mesin harus mampu membedakan data yang dimasukkan secara berbahaya dari peristiwa "Black Swan" yang jinak [1] dengan menyaring data pelatihan yang dapat berdampak negatif pada hasil. Jika tidak, model pembelajaran selalu rentan terhadap game oleh penyerang dan troll.

  4. AI harus memiliki kemampuan forensik bawaan. Ini memungkinkan perusahaan untuk memberi pelanggan transparansi dan akuntabilitas AI mereka, memastikan tindakannya tidak hanya benar tetapi juga dapat dipertahankan secara hukum. Kemampuan ini juga berfungsi sebagai bentuk awal "deteksi intrusi AI", memungkinkan teknisi menentukan titik waktu yang tepat bahwa keputusan dibuat oleh pengklasifikasi, data apa yang memengaruhinya, dan apakah data tersebut dapat dipercaya atau tidak. Kemampuan visualisasi data di area ini maju dengan cepat dan menunjukkan janji untuk membantu teknisi mengidentifikasi dan menyelesaikan akar penyebab masalah kompleks ini [10].

  5. AI harus mengenali dan melindungi informasi sensitif, bahkan jika manusia tidak mengenalinya seperti itu. Pengalaman pengguna yang optimal dalam AI memerlukan sejumlah besar data mentah untuk keperluan pelatihan, sehingga pembagian informasi yang berlebihan oleh pelanggan harus direncanakan.

Masing-masing area ini, termasuk ancaman dan potensi mitigasi, dibahas secara rinci di bawah ini.

AI membutuhkan perubahan baru dalam model desain aman/operasi aman tradisional: pengenalan ketahanan dan kebijaksanaan

Desainer AI perlu memastikan kerahasiaan, integritas, dan ketersediaan data sensitif, bahwa sistem AI bebas dari kerentanan yang diketahui, dan memberikan kontrol untuk perlindungan, deteksi, dan respons terhadap perilaku berbahaya terhadap sistem atau data pengguna.

Cara tradisional untuk bertahan dari serangan berbahaya tidak memberikan cakupan yang sama dalam paradigma baru ini, di mana serangan berbasis suara/video/gambar dapat menghindari filter dan pertahanan saat ini. Aspek pemodelan ancaman baru harus dieksplorasi untuk mencegah penyalahgunaan baru yang mengeksploitasi AI kami. Ini melampaui sekadar mengidentifikasi permukaan serangan tradisional melalui fuzzing atau manipulasi input (serangan ini juga memiliki pivot khusus AI mereka sendiri). Ini memerlukan pengintegrasian skenario yang unik untuk ruang AI/ML. Kunci di antaranya adalah pengalaman pengguna AI seperti suara, video, dan gerakan. Ancaman yang terkait dengan pengalaman ini belum dimodelkan secara tradisional. Misalnya, konten video sekarang sedang disesuaikan untuk menginduksi efek fisik. Selain itu, penelitian menunjukkan bahwa perintah serangan berbasis audio dapat dibuat [9].

Ketidakpastian tindakan, kreativitas, dan niat jahat dari para penjahat, lawan yang bertekad, dan troll mengharuskan kita untuk menanamkan AI kita dengan nilai-nilai Ketahanan dan Kebijaksanaan:

Ketahanan: Sistem harus dapat mengidentifikasi perilaku abnormal dan mencegah manipulasi atau paksaan di luar batas normal perilaku yang dapat diterima sehubungan dengan sistem AI dan tugas tertentu. Ini adalah jenis serangan baru khusus untuk ruang AI/ML. Sistem harus dirancang untuk menolak input yang jika tidak akan bertentangan dengan hukum, etika, dan nilai lokal yang dipegang oleh komunitas dan pembuatnya. Ini berarti menyediakan AI dengan kemampuan untuk menentukan kapan interaksi akan "off script." Ini dapat dicapai dengan metode berikut:

  1. Tentukan pengguna individu yang menyimpang dari norma yang ditetapkan oleh berbagai kluster besar pengguna serupa misalnya, pengguna yang tampaknya mengetik terlalu cepat, merespons terlalu cepat, tidak tidur, atau memicu bagian dari sistem yang tidak dilakukan pengguna lain.

  2. Identifikasi pola perilaku yang diketahui sebagai indikator serangan pemeriksaan niat jahat dan dimulainya Network Intrusion Kill Chain.

  3. Kenali kapan saja ketika beberapa pengguna bertindak secara terkoordinasi; misalnya, beberapa pengguna semuanya mengeluarkan kueri yang tidak dapat dijelaskan namun sengaja dibuat, lonjakan tiba-tiba dalam jumlah pengguna atau lonjakan tiba-tiba dalam aktivasi bagian tertentu dari sistem AI.

Serangan jenis ini harus dipertimbangkan setara dengan serangan Penolakan Layanan karena AI mungkin memerlukan perbaikan bug dan pelatihan ulang agar tidak jatuh untuk trik yang sama lagi. Pentingnya adalah kemampuan untuk mengidentifikasi niat jahat dengan adanya penanggulangan seperti yang digunakan untuk mengalahkan API analisis sentimen [4].

Kebijaksanaan: AI harus menjadi penjaga yang bertanggung jawab dan dapat dipercaya dari setiap informasi yang dapat diaksesnya. Sebagai manusia, kami pasti menetapkan tingkat kepercayaan tertentu dalam hubungan AI kami. Pada titik tertentu, agen-agen ini akan berbicara dengan agen lain atau manusia lain atas nama kita. Kita harus dapat percaya bahwa sistem AI memiliki kebijaksanaan yang cukup untuk hanya berbagi dalam bentuk terbatas apa yang perlu dibagikan tentang kami sehingga agen lain dapat menyelesaikan tugas atas namanya. Selain itu, beberapa agen yang berinteraksi dengan data pribadi atas nama kami seharusnya tidak masing-masing membutuhkan akses global ke dalamnya. Setiap skenario akses data yang melibatkan beberapa AI atau agen bot harus membatasi masa pakai akses hingga batas minimum yang diperlukan. Pengguna juga harus dapat menolak data dan menolak autentikasi agen dari perusahaan atau lokal tertentu sama seperti browser web yang memungkinkan pemblokiran situs hari ini. Memecahkan masalah ini memerlukan pemikiran baru tentang autentikasi antar-agen dan hak istimewa akses data seperti investasi autentikasi pengguna berbasis cloud yang dilakukan pada tahun-tahun awal komputasi cloud.

AI harus dapat mengenali bias pada orang lain tanpa memiliki bias dalam dirinya sendiri.

Meskipun AI harus adil dan inklusif tanpa membeda-bedakan kelompok individu tertentu atau hasil yang valid, AI harus memiliki pemahaman bawaan tentang bias untuk mencapai hal ini. Tanpa dilatih untuk mengenali bias, trolling, atau sarkasme, AI mungkin bisa ditipu oleh mereka yang hanya mencari tawa murahan, atau dalam kasus terburuk, bisa menyebabkan bahaya bagi pelanggan.

Untuk mencapai tingkat kesadaran ini, dibutuhkan "orang baik yang mengajarkan hal-hal buruk kepada AI" karena hal ini secara efektif membutuhkan pemahaman yang komprehensif dan terus berkembang mengenai bias budaya. AI harus dapat mengenali pengguna yang memiliki interaksi negatif dengan di masa lalu dan berhati-hati dengan tepat, mirip dengan bagaimana orang tua mengajarkan anak-anak mereka untuk waspada terhadap orang asing. Cara terbaik untuk mendekati ini adalah dengan hati-hati mengekspos AI ke troll dengan cara yang terkontrol/termoderasi/terbatas. Dengan cara ini AI dapat mempelajari perbedaan antara pengguna jinak yang sekadar mencoba dan keburukan/trolling aktual. Troll menyediakan aliran data pelatihan yang berharga untuk AI, membuatnya lebih tangguh terhadap serangan di masa mendatang.

AI juga harus dapat mengenali bias dalam himpunan data yang dilatihnya. Ini bisa berupa budaya atau regional, yang berisi vernakular yang digunakan oleh sekelompok orang tertentu, atau topik/sudut pandang minat tertentu untuk satu kelompok. Seperti halnya data pelatihan yang diperkenalkan dengan berbahaya, AI harus tangguh terhadap dampak data ini pada inferensi dan penalarannya sendiri. Pada intinya, ini adalah masalah validasi input canggih dengan kesamaan dengan pemeriksaan batas. Alih-alih berurusan dengan panjang dan offset buffer, pemeriksaan buffer dan batas adalah kata-kata berbendera merah dari berbagai sumber. Riwayat percakapan dan konteks di mana kata-kata yang digunakan juga merupakan kunci. Sama seperti praktik pertahanan mendalam digunakan untuk melapisi perlindungan di atas frontend API Layanan Web tradisional, beberapa lapisan perlindungan harus dimanfaatkan dalam teknik pengenalan dan penghindarian bias.

Algoritma Pembelajaran Mesin harus mampu membedakan data yang dimasukkan secara berbahaya dari peristiwa "Black Swan" yang jinak

Banyak makalah diterbitkan mengenai potensi teoritis pengrusakan dan ekstraksi/pencurian model atau pengklasifikasi dari layanan di mana penyerang memiliki akses ke set data pelatihan dan pemahaman mendalam tentang model yang digunakan [2, 3, 6, 7]. Masalah mendasar di sini adalah bahwa semua pengklasifikasi ML dapat ditipu oleh penyerang yang memiliki kontrol atas set data pelatihan. Penyerang bahkan tidak memerlukan kemampuan untuk memodifikasi data set pelatihan yang ada, mereka hanya perlu dapat menambahkannya dan membuat input mereka menjadi "tepercaya" dari waktu ke waktu melalui ketidakmampuan sistem pengklasifikasian ML untuk membedakan data berbahaya dari data anomali yang sebenarnya.

Masalah rantai pasokan data pelatihan ini memperkenalkan kami pada konsep "Integritas Keputusan" - kemampuan untuk mengidentifikasi dan menolak data pelatihan atau input pengguna yang diperkenalkan secara berbahaya sebelum berdampak negatif pada perilaku pengklasifikasi. Alasannya adalah bahwa data pelatihan yang dapat dipercaya memiliki probabilitas yang lebih tinggi untuk menghasilkan hasil/keputusan yang dapat dipercaya. Meskipun penting untuk tetap melatih dan tahan terhadap data yang tidak tepercaya, sifat berbahaya dari data tersebut harus dianalisis sebelum menjadi bagian dari sebagian besar data pelatihan yang memiliki tingkat kepercayaan tinggi. Tanpa langkah-langkah seperti itu, AI dapat dipaksa untuk bereaksi berlebihan terhadap trolling dan menolak layanan kepada pengguna yang sah.

Ini adalah kekhawatiran khusus saat algoritma pembelajaran yang tidak diawasi menggunakan himpunan data yang tidak tepercaya. Ini berarti bahwa penyerang dapat memperkenalkan data apa pun yang mereka inginkan asalkan formatnya valid dan algoritma dilatih dengan data tersebut, mempercayai poin data tersebut sama seperti dengan seluruh data dalam set pelatihan. Dengan input yang cukup dibuat oleh penyerang, algoritma pelatihan kehilangan kemampuan untuk membedakan kebisingan dan anomali dari data dengan tingkat keyakinan tinggi.

Sebagai contoh ancaman ini, bayangkan database tanda berhenti di seluruh dunia, dalam setiap bahasa. Itu akan sangat menantang untuk dikurasi karena jumlah gambar dan bahasa yang terlibat. Kontribusi berbahaya pada himpunan data tersebut sebagian besar tidak diperhatikan sampai mobil yang mengemudi sendiri tidak lagi mengenali tanda berhenti. Ketahanan data dan mitigasi integritas keputusan harus bergandengan tangan di sini untuk mengidentifikasi dan menghilangkan kerusakan pelatihan yang dilakukan oleh data berbahaya untuk mencegahnya menjadi bagian inti dari model pembelajaran.

AI harus memiliki forensik bawaan dan pengelogan keamanan untuk memberikan transparansi dan akuntabilitas

AI pada akhirnya akan mampu bertindak dalam kapasitas profesional sebagai agen atas nama kami, membantu kami dengan pengambilan keputusan berdampak tinggi. Contohnya bisa menjadi AI yang membantu pemrosesan transaksi keuangan. Jika AI dieksploitasi, dan transaksi dimanipulasi dalam beberapa cara, konsekuensinya dapat berkisar dari individu hingga sistemik. Dalam skenario bernilai tinggi, AI memerlukan pencatatan forensik dan keamanan yang sesuai untuk memberikan integritas, transparansi, akuntabilitas, dan dalam beberapa kasus, bukti di mana tanggung jawab sipil atau pidana dapat muncul.

Layanan AI penting memerlukan fasilitas audit/pelacakan peristiwa pada tingkat algoritma di mana pengembang dapat memeriksa status pengklasifikasi tertentu yang dicatat, yang mungkin menyebabkan keputusan yang tidak akurat. Kemampuan ini diperlukan di seluruh industri untuk membuktikan kebenaran dan transparansi keputusan yang dihasilkan AI setiap kali dipanggil ke dalam pertanyaan.

Fasilitas pelacakan peristiwa dapat dimulai dengan korelasi informasi pengambilan keputusan dasar seperti:

  1. Jangka waktu di mana peristiwa pelatihan terakhir terjadi

  2. Tanda waktu entri himpunan data terbaru yang dilatih

  3. Bobot dan tingkat keyakinan dari klasifikasi kunci yang digunakan untuk mencapai keputusan berdampak tinggi

  4. Pengklasifikasi atau komponen yang terlibat dalam keputusan

  5. Keputusan bernilai tinggi akhir yang dicapai oleh algoritma

Pelacakan semacam itu terlalu berlebihan untuk sebagian besar pengambilan keputusan berbantuan algoritma. Namun, memiliki kemampuan untuk mengidentifikasi titik data dan metadata algoritma yang mengarah ke hasil tertentu sangat menguntungkan dalam pengambilan keputusan bernilai tinggi. Kemampuan tersebut tidak hanya menunjukkan kepercayaan dan integritas melalui kemampuan algoritma untuk "menunjukkan pekerjaannya", tetapi data ini juga dapat digunakan untuk penyempurnaan.

Kemampuan forensik lain yang diperlukan dalam AI/ML adalah deteksi gangguan. Sama seperti kita membutuhkan AI kita untuk mengenali bias dan tidak rentan terhadapnya, kita harus memiliki kemampuan forensik yang tersedia untuk membantu teknisi kita dalam mendeteksi dan merespons serangan tersebut. Kemampuan forensik tersebut bernilai luar biasa ketika dipasangkan dengan teknik visualisasi data [10] memungkinkan audit, penelusuran kesalahan, dan penyetelan algoritma untuk hasil yang lebih efektif.

AI harus melindungi informasi sensitif, meskipun manusia tidak

Pengalaman kaya membutuhkan data yang kaya. Manusia sudah secara sukarela memberikan sejumlah besar data untuk melatih model ML. Hal ini berkisar dari konten antrean streaming video biasa hingga tren dalam pembelian kartu kredit/riwayat transaksi yang digunakan untuk mendeteksi penipuan. AI harus memiliki rasa kebijaksanaan yang kuat dalam menangani data pengguna, selalu bertindak untuk melindunginya bahkan ketika data dibagikan secara sukarela oleh publik yang cenderung berbagi berlebihan.

Karena AI dapat memiliki sekelompok "rekan" yang diautentikasi yang dibicarakannya untuk menyelesaikan tugas yang kompleks, AI juga harus mengenali kebutuhan untuk membatasi data yang dibagikannya dengan rekan-rekan tersebut.

Pengamatan Awal tentang Mengatasi Masalah Keamanan AI

Terlepas dari keadaan terbaru proyek ini, kami percaya bukti yang dikompilasi hingga saat ini menunjukkan penyelidikan yang lebih mendalam ke masing-masing area di bawah ini adalah kunci dalam memindahkan industri kami ke produk/layanan AI/ML yang lebih dapat dipercaya dan aman. Berikut ini adalah pengamatan awal dan pemikiran kami tentang apa yang ingin kita lihat dilakukan di ruang ini.

  1. Badan pengujian penetrasi dan peninjauan keamanan yang berfokus pada AI/ML dapat ditetapkan untuk memastikan bahwa AI masa depan kita berbagi nilai-nilai kita dan selaras dengan Prinsip-Prinsip AI Asilomar.

    1. Grup semacam itu juga dapat mengembangkan alat dan kerangka kerja yang dapat dikonsumsi di seluruh industri untuk mendukung pengamanan layanan berbasis AI/ML mereka.
    2. Seiring waktu, keahlian ini akan dibangun dalam kelompok teknik secara organik, seperti halnya dengan keahlian keamanan tradisional selama 10 tahun terakhir.
  2. Pelatihan dapat dikembangkan yang memberdayakan perusahaan untuk memberikan tujuan seperti demokratisasi AI sambil mengurangi tantangan yang dibahas dalam dokumen ini.

    1. Pelatihan keamanan khusus AI memastikan bahwa teknisi mengetahui risiko yang ditimbulkan pada AI mereka dan sumber daya yang mereka miliki. Materi ini perlu dikirimkan dengan pelatihan saat ini tentang melindungi data pelanggan.
    2. Ini dapat dicapai tanpa mengharuskan setiap ilmuwan data untuk menjadi pakar keamanan - sebaliknya, fokus ditempatkan pada mendidik pengembang tentang Ketahanan dan Kebijaksanaan seperti yang diterapkan pada kasus penggunaan AI mereka.
    3. Pengembang harus memahami "blok penyusun" layanan AI yang aman yang digunakan ulang di seluruh perusahaan mereka. Perlu ada penekanan pada desain toleran terhadap kesalahan dengan subsistem, yang dapat dengan mudah dimatikan (misalnya, prosesor gambar, pengurai teks).
  3. Klasifikasi ML dan algoritma dasarnya dapat diperkuat dan mampu mendeteksi data pelatihan berbahaya tanpa mengkontaminasi data pelatihan yang valid yang saat ini digunakan atau membuat hasilnya bias.

    1. Teknik seperti Tolak pada Input Negatif [5] membutuhkan siklus peneliti untuk menyelidiki.

    2. Pekerjaan ini melibatkan verifikasi matematika, bukti konsep dalam kode, dan pengujian terhadap data anomali berbahaya dan jinak.

    3. Peninjauan/pemoderasian manual mungkin bermanfaat di sini, terutama ketika terdapat anomali statistik.

    4. Pengklasifikasi pengawas dapat dibangun untuk memiliki pemahaman ancaman-ancaman yang lebih universal di berbagai AI. Ini sangat meningkatkan keamanan sistem karena penyerang tidak dapat lagi menyelundupkan satu model tertentu.

    5. AIs dapat ditautkan bersama untuk mengidentifikasi ancaman dalam sistem satu sama lain

  4. Pustaka audit/forensik ML terpusat dapat dibangun yang menetapkan standar untuk transparansi dan kepercayaan AI.

    1. Kemampuan kueri juga dapat dibangun untuk audit dan rekonstruksi keputusan dampak bisnis yang tinggi oleh AI.
  5. Vernakular yang digunakan oleh pihak lawan di berbagai kelompok budaya yang berbeda dan media sosial dapat terus-menerus diinventarisasi dan dianalisis oleh AI untuk mendeteksi dan menanggapi trolling, sarkasme, dan lain-lain.

    1. Kecerdasan Buatan harus memiliki kemampuan untuk menghadapi semua jenis bahasa, baik teknis, regional, maupun khusus forum.

    2. Isi pengetahuan ini juga dapat digunakan dalam pemfilteran konten/pelabelan/pemblokiran otomatisasi untuk mengatasi masalah skalabilitas moderator.

    3. Database istilah global ini dapat dihosting dalam pustaka pengembangan atau bahkan diekspos melalui API layanan cloud untuk digunakan kembali oleh berbagai AI, memastikan AI baru dapat memanfaatkan kebijaksanaan gabungan dari AI yang lebih lama.

  6. Framework Fuzzing Pembelajaran Mesin dapat dibuat untuk memberikan teknisi kemampuan menyuntikkan berbagai jenis serangan ke dalam set pelatihan pengujian yang dievaluasi oleh AI.

    1. Ini dapat berfokus pada tidak hanya teks vernakular, tetapi data gambar, suara dan gerakan dan permutasi dari jenis data tersebut.

Kesimpulan

Prinsip AI Asilomar menggambarkan kerumitan dalam menerapkan AI dengan cara yang secara konsisten menguntungkan kemanusiaan. AI di masa mendatang perlu berinteraksi dengan AI lain untuk memberikan pengalaman pengguna yang kaya dan menarik. Itu berarti tidak cukup bagi Microsoft untuk "melakukan AI dengan benar" dari perspektif keamanan - seluruh dunia harus melakukannya. Kami membutuhkan keselarasan industri dan kolaborasi dengan menyoroti isu-isu dalam dokumen ini dengan cara yang mirip dengan upaya global kami untuk Konvensi Jenewa Digital [8]. Dengan mengatasi masalah yang disajikan di sini, kami dapat mulai membimbing pelanggan dan mitra industri kami ke jalur di mana AI benar-benar demokratisasi dan meningkatkan kecerdasan semua umat manusia.

Bibliografi

[1] Taleb, Nassim Nicholas (2007), The Black Swan: The Impact of the Highly Improbable, Random House, ISBN 978-1400063512

[2] Florian Tramèr, Fan Zhang, Ari Juels, Michael K. Reiter, Thomas Ristenpart,Mencuri Model Pembelajaran Mesin melalui API Prediksi

[3] Satya Nadella:Kemitraan Masa Depan

[4] Claburn, Thomas:AI google yang menghancurkan troll tidak dapat mengatasi kesalahan ketik

[5] Marco Barreno, Blaine Nelson, Anthony D. Joseph, J.D. Tygar:Keamanan pembelajaran mesin

[6] Wolchover, Natalie:Pelopor Kecerdasan Buatan Ini Memiliki Beberapa Kekhawatiran

[7] Conn, Ariel:Bagaimana Kita Menyelaraskan Kecerdasan Buatan dengan Nilai-Nilai Manusia?

[8] Smith, Brad:Kebutuhan akan tindakan kolektif mendesak untuk menjaga orang-orang tetap aman online: Pelajaran dari serangan cyber minggu lalu

[9] Nicholas Carlini, Pratyush Mishra, Tavish Vaidya, Yuankai Zhang, Mikha Sherr, Clay Shields, David Wagner, Wenchao Zhou:Perintah Suara Tersembunyi

[10] Fernanda Viégas, Martin Wattenberg, Daniel Smilkov, James Wexler, Jimbo Wilson, Nikhil Thorat, Charles Nicholson, Google Research:Big Picture