Aracılığıyla paylaş


Yapay zeka için güçlü bir güvenlik duruşu oluşturma

Yapay zeka güvenlik duruşunuz, genel güvenlik stratejinizin önemli bir parçasıdır. Yapay zeka, veri koruma gibi siber güvenlik stratejisinin belirli öğelerine öncelik verir. Bu makale, yapay zekanın güvenliğini sağlamaya yönelik stratejinizi ve önceliklerinizi geliştirmenize yardımcı olur. Bu koleksiyondaki sonraki makaleler yapay zeka eşlikçileri, araçları ve yeni uygulamaları benimsedikçe siber güvenliğin önceliklerini belirlemeye yönelik belirli öğeleri belirlemenize yardımcı olur.

Güvenlik duruşunuz, kuruluşunuzun genel siber güvenlik savunma yeteneği ve devam eden siber güvenlik tehditleriyle başa çıkmak için hazırlık ve operasyonel durum düzeyi olarak tanımlanır. Bu duruş, kuruluşunuzun operasyonel durumu veya refahı ile ilgili diğer tüm önemli ölçümlere benzer şekilde ölçülebilir ve ölçülebilir olmalıdır.

Kuruluşun güvenlik duruşunu gösteren diyagram.

Yapay zeka için güçlü bir güvenlik duruşu oluşturmak, bir strateji ve bir dizi öncelik ve hedef geliştirmek için kuruluşunuzda, özellikle de kuruluşunuzdaki liderler üzerinde çalışmayı içerir. Ardından, hedeflere ulaşmak için gereken teknik çalışmaları belirler ve bunları gerçekleştirmek için çeşitli ekiplere yol gösterirsiniz. Bu kitaplıktaki makaleler, yapay zekaya özgü rehberlik içeren bir metodoloji sağlar:

  • Temel güvenlik korumaları ile ortamınızı hazırlayın. Bu korumaların birçoğuna zaten sahipsinizdir.
  • Uygulamaların kullandığı veri türleri de dahil olmak üzere kuruluşunuzda kullanılan yapay zeka uygulamalarını keşfedin.
  • Kuruluşunuzda yapay zeka araçlarının kullanımını koruyun. Bu, yapay zekaya özgü veri koruma özelliklerini ve kuruluşunuzun güçlü tehdit koruması uyguladığını sağlamayı içerir.
  • Yönet Uyumluluk için yapay zeka.

Yapay zeka için güvenlik uygulama işlemini gösteren diyagram.

Bu kitaplığı Microsoft Learn'de aşağıdaki çerçevelerle birlikte kullanın:

Yapay zeka için güvenlik çerçevesini gösteren diyagram.

Görüntüde:

  • Ortamınızda yapay zeka uygulamalarının ve verilerinin güvenliğini sağlama özelliklerini nasıl uygulayacağınızı öğrenmek için bu kitaplığı (Yapay zeka kitaplığı için güvenlik) kullanın. Bu korumalar Sıfır Güven temelinizi oluşturmanıza yardımcı olur.
  • Uçtan uca güvenlikle ilgili ilerlemeye devam etmek için Sıfır Güven benimseme çerçevesini kullanın. Sıfır Güven iş senaryolarının her biri, yapay zeka uygulamaları ve verileri için güvenliğinizi de artırır.
  • Yapay zekanın benimsenmesi için uçtan uca yol haritanızı geliştirmek için yapay zeka için Bulut Benimseme Çerçevesi'ni kullanın( üretken ve üretken olmayan yapay zeka dahil). Bu kitaplık yapay zeka teknolojilerini seçmeye yönelik stratejileri, yapay zekanın güvenliğini sağlamaya ve yönetmeye yönelik süreçleri ve yapay zeka tasarımı ve uygulamasına yönelik kaynakları içerir.

İş liderlerinizin motivasyonlarını anlama

Güçlü bir yapay zeka güvenlik duruşu yeniliğe olanak tanır; kuruluşların yapay zekayı güvenle ve çeviklikle oluşturup dağıtmasına olanak tanır. Amaç, kuruluşa güven, uyumluluk veya operasyonel kararlılığı zedeleyebilecek risklere karşı koruma sağlarken yapay zeka sistemlerini güvenle oluşturma, dağıtma ve ölçeklendirme yetkisi vermektir. Kuruluşlar, güvenliği yapay zeka girişimlerinin temeline ekleyerek yapay zekanın tüm potansiyelini sorumlu bir şekilde ortaya çıkararak istenmeyen bir zarar kaynağı yerine stratejik bir varlık olarak kalmasını sağlayabilir.

İş liderlerinizle uyum sağlayarak stratejinizi ve önceliklerinizi geliştirmeye başlayın. Liderlerinizi motive eden nedir ve yapay zeka için güvenlik duruşunuzu neden önemserler? Aşağıdaki tabloda örnek perspektifler sağlanmaktadır, ancak bu liderlerin ve ekiplerin her biriyle bir araya gelmeniz ve birbirinizin motivasyonları hakkında ortak bir anlayışa sahip olmanız önemlidir.

Rol Yapay zeka için güçlü bir güvenlik duruşu oluşturmak neden önemlidir?
İcra Kurulu Başkanı (CEO) Yapay zeka sistemleri, stratejik kararları ve müşteri etkileşimlerini giderek daha fazla şekillendirmektedir. Yapay zekanın ihlali veya manipülasyonu kötü kararlara, mevzuat incelemelerine, itibar zararlarına ve güven kaybına yol açabilir. Güçlü yapay zeka güvenliği, kuruluşun şirketin itibarını korumak, yasal uyumluluk sağlamak ve başarılı bir yapay zeka dönüşümü sağlamak için çok önemlidir.
Pazarlama Müdürü (CMO) Yapay zeka araçları müşteri içgörülerini, hedeflemeyi ve kişiselleştirmeyi yönlendirir. Gizliliği ihlal edilirse, bu araçlar uygunsuz içerik veya hedefleme nedeniyle veri sızıntılarına, taraflı çıkışlara veya marka hasarlarına yol açabilir. Yapay zekanın güvenliğini sağlamak, müşteri katılımında güven sağlamayı, marka bütünlüğünü korumayı, halkla ilişkiler felaketlerini önlemeyi ve şirketin müşteri gizliliğini koruma taahhüdünü göstermeyi sağlar.
Enformasyon Müdürü (CIO) Sistem güvenilirliğini sağlamak, yetkisiz erişimi önlemek ve operasyonel dayanıklılığı korumak için güvenli bir yapay zeka ortamı gereklidir. Bu sayede CIO'lar, işletmeyi gereksiz risklere maruz bırakmadan işletmeyi geliştiren yapay zeka teknolojilerini güvenle tümleştirebilir.
Bilgi Güvenliği Müdürü (CISO) Yapay zeka yeni saldırı yüzeyleri ve yeni riskler getirirken mevcut riskleri de geliştirir. Yeni saldırı yüzeyleri istemler, yanıtlar, modeller, RAG verileri, model bağlam protokolü (MCP), eğitim verileri ve veri zehirlenmesi, jailbreak saldırıları, veri güvenliği ve daha fazlasını içerir. CISO, kurumsal güvenlik duruşunu korumak için tehdit modelleme ve yapay zeka işlem hatlarının güvenliğini sağlama konusunda çaba göstermelidir. Sağlam yapay zeka güvenliği, kuruluşun varlıklarını korumak, güvenlik çerçevelerine uymak ve akıllı sistemlerin çağında müşteri ve paydaş güvenini korumak için genel siber savunma stratejisinin bir uzantısıdır.
Teknoloji Müdürü (CTO) Güçlü bir yapay zeka güvenlik duruşu, kuruluşun teknolojik varlıklarını korumak ve yapay zeka sistemlerinin istenen şekilde güvenilir bir şekilde çalıştığından emin olmak için CTO'lar için kritik öneme sahiptir. CTO, yapay zeka geliştirme yaşam döngüsüne güvenlik ekleyerek hassas algoritmaların ihlal edilmesini önlemeye ve yapay zeka temelli ürünlerde yüksek kalite ve güven sağlamaya yardımcı olur. Bu, yeniliğin gereksiz risk olmadan devam etmelerini sağlar.
Operasyon Direktörü (COO) Yapay zeka tedarik zinciri, lojistik ve operasyonlardaki kritik süreçleri otomatikleştirir. Yapay zeka sistemlerine yönelik saldırılar hizmetleri kesintiye uğratabilir, operasyonel riski artırabilir ve yüksek maliyetli gecikmelere neden olabilir. Güçlü bir yapay zeka güvenlik duruşu, iş sürekliliği ve verimliliği sağlar.
Finans Müdürü (CFO) CFO'lar, sağlam bir yapay zeka güvenlik duruşunu kuruluşun korunması için gerekli olarak görür. Öngörülemeyen mali kayıpların önlenmesine yardımcı olur ve yasalara ve raporlama yükümlülüklerine uyum sağlar.

Yapay zeka için gelişen tehdit ortamını ele alma

GenAI, risk ortamını etkili bir şekilde değiştirerek yeni saldırı yüzeylerini kullanıma sunmaktadır. Geleneksel tehdit vektörlerini yönetmeye ek olarak, güvenlik ve risk liderlerinin veri sızıntısı ve veri aşırı paylaşımı gibi daha büyük riskleri ve istem eklemeleri, yanlış bilgiler, model güvenlik açıkları ve yanlış bilgiler gibi yeni riskleri ele almaları gerekir. Gelişen tehdit ortamını ele almak, güvenilir yapay zekayı etkinleştirme açısından çok önemlidir.

GenAI'nin yeni risklere girişini gösteren diyagram.

Çizimde:

  • GenAI saldırı yüzeyleri yeni ve daha büyük riskler getirir.
  • Değişmeden kalan tehdit vektörleri uygulamalarınızı, kimliklerinizi, uç noktalarınızı, ağınızı, verilerinizi ve bulut kaynaklarınızı içerir.
  • GenAI; istemler, yanıtlar, yapay zeka düzenlemesi, eğitim verileri, RAG verileri (Retrieval-Augmented Oluşturma verileri, verilerinizin veya diğer dış verilerin dil modelleriyle etkileşimlerinden kaynaklanan veriler), yapay zeka modelleri ve yapay zeka eklentileri gibi yeni saldırı yüzeylerini kullanıma sunar.
  • GenAI, veri sızıntısı, jailbreak (aksi takdirde güvenliği sağlanmış cihazların güvenliğinin aşılması), dolaylı istem ekleme ve model güvenlik açığı gibi yeni ve yükseltilmiş riskler sunar.

Şu anda yapay zekadaki en yaygın güvenlik olayları şunlardır:

  • Veri sızıntısı ve aşırı paylaşım— Kullanıcılar gizli yapay zeka uygulamalarına (BT ekibiniz tarafından onaylanmamış uygulamalar) hassas veriler sızdırabilir. Kullanıcılar yapay zeka uygulamalarını kullanarak hassas verilere de erişebilir.
  • Güvenlik açıkları ve yeni ortaya çıkan tehditler— Kötü aktörler, değerli kaynaklara erişmek için yapay zeka uygulamalarındaki güvenlik açıklarından yararlanabilir.
  • Uyumsuzluk— Yeni ortaya çıkan yapay zeka düzenlemeleri de dahil olmak üzere düzenlemeler belirsizliği artırabilir. Uyumsuz yapay zeka benimsemesi sorumluluğu artırabilir.

Aşağıdaki iki örnek senaryoda yapay zeka için güçlü bir güvenlik duruşu oluşturma gereksinimi vurgulanır.

Aşırı paylaşım ve veri sızıntısı nasıl gerçekleşir?

Bu örnekte Contoso çalışanı Adele, çeşitli yapay zeka uygulamalarıyla hassas verileri bulur ve kullanır.

Adım Açıklama Aralıksız riskler
1 Adele, Project Obsidian'dan bahseden bir ekip üyesini kulak misafiri oluyor. Bu konuda daha fazla bilgi edinmek için Microsoft 365 Copilot kullanıyor. Copilot, ona bir özet ve belgelerin bağlantısını sağlar. Copilot, hassas verileri sınırlama olmadan işleyebilir. Hassas veriler, erişimi olmaması gerekenler de dahil olmak üzere çalışanlara fazla sunulur.
2 Adele, Project Obsidian hakkında daha fazla bilgi bulmak ve toplamak için Copilot kullanmaya devam ediyor. Yapay zeka uygulamalarında anomalileri algılamak için denetim yoktur.
3 Meraktan dolayı Adele, ChatGPT'nin neleri özetlediğini görmek istiyor, bu nedenle dosyanın içeriğini ChatGTP'ye yapıştırıyor. Tüketici yapay zeka uygulamalarına veri sızıntısını önlemek için veri kaybı önleme (DLP) yoktur.
4 Proje ayrıntıları erken ortaya çıkarılmış ve veri ihlallerine yol açılmıştır. Bu nedenle Contoso, iş yerindeki tüm yapay zeka uygulamalarını yasakladı. Tüketici yapay zekasını hemen yasaklama, koyu kullanımın artmasına neden olabilir.

Contoso yapay zeka uygulaması kullanımını hazırlama, keşfetme ve koruma çalışmalarını yaparak bu riskleri azaltmış olabilir.

Aşama Açıklama
Hazırlamak Çalışanların kaynaklara erişimini doğru boyutlandırmak için Entra ve SharePoint Gelişmiş Yönetimi'ni kullanın.
Hassas verileri sınıflandırmak ve etiketlemek için Purview Information Protection'ı kullanın.
Keşfet Veri risklerini keşfetmek için yapay zeka için Purview DSPM'yi kullanın.
Fazla paylaşım risklerini değerlendirmek için bir fazla paylaşım değerlendirme raporu kullanın.
Korumak Copilot'un hassas verileri özetlemesini önlemek için Microsoft 365 Copilot için Purview DLP'yi zorunlu kılın.
Anomali etkinliklerini algılamak ve araştırmak için Purview Insider Risk Management'ı kullanın. Yüksek riskli kullanıcıların erişimini dinamik olarak kısıtlamak için Uyarlamalı Koruma kullanın.
Yüksek riskli uygulamaları engellemek için Cloud Apps için Defender'ı kullanın.
ChatGPT'ye erişim vermeden önce Adele'in Kullanım Koşullarını kabul etmelerini istemek için Entra Koşullu Erişim'i kullanın.
Hassas verilerin tüketici yapay zeka uygulamalarına yapıştırılmalarını engellemek için Purview uç noktası DLP'sini kullanın.

Yapay zeka uyumluluk riskine nasıl neden olabilir?

Bu sonraki örnekte Jane, Contoso için yapay zeka idaresine liderlik etmek üzere atanmıştır.

Adım Açıklama Aralıksız riskler
1 Jane, BT ekiplerinin uygulaması için mevzuat gereksinimlerini eyleme dönüştürülebilir denetimlere yorumlamakta zorlanmaktadır. Hem mevzuat gereksinimleri hem de teknoloji konusunda deneyimli uzman eksikliği.
2 Jane risk değerlendirmelerine hazırlanmaya başlar ancak Contoso'da oluşturulan ve kullanılan yapay zeka sistemlerinin farkında değildir. Ayrıca kullanımı ve olası uyumluluk risklerini de göremez. Ortamda dağıtılan yapay zeka sistemleriyle ilgili hiçbir görünürlük yoktur. Yapay zeka kullanımı idaresi yoktur.
3 Çeşitli iç görüşmelerden sonra Jane geliştiricilerin aynı anda yaklaşık 14 yapay zeka uygulaması oluşturduğunu ve çeşitli güvenlik, güvenlik ve gizlilik denetimleri standartlarının uygulandığını fark etti. Geliştiriciler tarafından yerleşik yapay zeka sistemlerindeki denetimlere ilişkin görünürlük yoktur.
4 Bazı yapay zeka uygulamaları, riskleri değerlendirmek için standart korumaları olmayan kişisel verileri kullanır. Risk değerlendirmesi yapılmaz.
5 Müşteriler Contoso AI'nin zararlı ve arka plansız içerik oluşturması konusunda şikayette bulunuyor. Yapay zeka çıkışları için denetim eksikliği.

Yapay zeka düzenlemeleri, yapay zeka idaresi sorumlu liderlerine belirsizlik ve aşırı sorumluluk riski getirir. Contoso, herhangi bir değişiklik yapılmadan yapay zeka mevzuat gereksinimlerini ihlal etme riskiyle karşı karşıya kalarak cezalar ve itibar zararları ile karşı karşıya kalmaktadır.

Contoso yapay zeka uygulaması kullanımını hazırlama, keşfetme ve koruma çalışmalarını yaparak bu riskleri azaltmış olabilir.

Aşama Açıklama
Hazırlamak Uyumluluk gereksinimlerini karşılamaya yardımcı olabilecek denetimleri uygulama konusunda rehberlik almak için Purview Uyumluluk Yöneticisi'ni kullanın.
Keşfet Bulut ortamlarında dağıtılan yapay zeka kaynaklarını keşfetmek için Bulut için Defender'ı kullanın. Kullanımda olan SaaS AI uygulamalarını keşfetmek için Bulut Uygulamaları için Defender'ı kullanın.
İdare Microsoft Purview Denetimi, Veri Yaşam Döngüsü Yönetimi, İletişim Uyumluluğu ve eKeşif ile yapay zeka kullanımını idare edin.
Geliştiricilerin yapay zeka projesi ayrıntılarını belgeleyebilmek için Azure AI Foundry'de yapay zeka raporlarını kullanın.
Her yapay zeka projesinin gizlilik risklerini proaktif olarak değerlendirmek için Priva Gizlilik Değerlendirmeleri'ni kullanın.
Zararlı veya yerlenmemiş içerik risklerini azaltmak için Azure AI İçerik Güvenliği'ni kullanın.

İdare özelliklerinin proaktif kullanımıyla kuruluşlar yapay zekayı benimserken riski değerlendirebilir ve ele alabilir.

Yapay zeka için etkili güvenlik uygulamak için beş adım

GenAI'nin hızlı uygulanmasıyla ilgili risklerin farkındalığı arttıkça, birçok kuruluş güvenlik önlemlerini geliştirmek için önemli kaynaklar ayırarak proaktif bir şekilde yanıt veriyor. Güvenlik ve risk liderleri, güvenli ve güvenli yapay zeka yeniliklerine doğru bir yol oluşturmak için birkaç eyleme dönüştürülebilir adım atabilir.

Bu önerilen uygulamalar, işbirliğine dayalı bir ortamı teşvik etme ve kurumsal çıkarları korurken GenAI ilerlemelerini destekleyecek etkili güvenlik önlemleri uygulamaya odaklanır.

1. Adım: Yapay zeka için güvenlik ekibi oluşturma

Şirketlerin çoğu yapay zekanın getirdiği benzersiz güvenlik zorluklarını yönetmek için ayrılmış, işlevsel ekipler oluşturma gereksinimini kabul eder. Özel güvenlik ekipleri yapay zeka sistemlerinin titizlikle test edilmesini, güvenlik açıklarının hızla tanımlanmasını ve azaltılmasını ve güvenlik protokollerinin gelişen tehditlere ayak uydurmak için sürekli güncelleştirilmesini sağlar.

Ankete katılanların %80'i şu anda (45%) veya yapay zeka güvenliğini ele almak için ayrılmış bir ekiliğe (35%) sahip olmak ister. 10'da 6'dan fazlası, ekiplerinin yalnızca dikkatli bir gözetim değil, aynı zamanda yapay zekayla ilgili riskleri ele alma konusunda stratejik vizyon ve liderlik sağlama amacıyla bir güvenlik karar alıcısına rapor vereceklerini söyledi.

Özellikle, bu ayrılmış güvenlik ekiplerinin ortanca ekip boyutu veya hedeflenen ekip boyutu 24 çalışandı ve şirketlerin yapay zeka girişimlerini korumayı taahhüt ettikleri önemli kaynakların altını çiziyor. Şirketin boyutu dikkate alındığı zaman takım boyutları farklılık gösterir.

Kuruluşların yapay zeka için etkili bir işlevsel güvenlik ekibi oluşturmak için kullanabileceği en iyi uygulamalardan birkaçı aşağıdadır.

Departmanlar arasında işbirliğini teşvik etmek için bir yapay zeka komitesi oluşturma

Yapay zeka güvenliği, BT departmanının ötesine geçen toplu bir çabadır. Kapsamlı güvenlik stratejileri oluşturmak için güvenlik, BT, yasal, uyumluluk ve risk yönetimi gibi ekipler arasında işbirliğini teşvik edin. Farklı perspektiflere ve uzmanlığa sahip olmak, güvenlik protokollerinin verimliliğini artıracaktır.

Çeşitli beceri kümelerini işe alma

Yapay zeka için başarılı bir güvenlik ekibi oluşturmak için beceri dengesi gerekir. Veri bilimi, siber güvenlik, yazılım mühendisliği ve makine öğrenmesi konusunda uzman ekip üyelerini arayın. Bu çeşitlilik, teknik geliştirmeden tehdit önlemeye kadar güvenliğin çeşitli yönlerinin ele alınmasını sağlar.

Net roller ve sorumluluklar oluşturma

Etkili üretkenlik için her ekip üyesinin rolünü açıkça tanımlayın. Herkesin sorumluluklarını anladığınızdan emin olun. Bu da sorumlulukların yükseltilmesini sağlar ve çabalarda çakışma olmasını önler.

Sürekli eğitim ve geliştirmeye yatırım yapma

Yapay zeka teknolojilerinin hızlı gelişimi, güvenlik ekipleri için sürekli eğitime izin verir. Uygulamalara, yeni ortaya çıkan tehditlere ve yapay zeka güvenliğiyle ilgili etik konulara odaklanan eğitim programlarına ve atölyelere erişim sağlayın. Bu yatırım yalnızca ekip üyelerini güçlendirmekle kalmaz, aynı zamanda kuruluşun olası güvenlik açıklarından önde kalmasını da sağlar.

2. Adım— GenAI'nin güvenliğini sağlamak için kaynakları iyileştirme

Kuruluşlarda yapay zeka uygulamalarının kullanıma sunulması yalnızca operasyonlarda devrim oluşturmakla kalmaz, aynı zamanda özellikle BT güvenliğinde kaynak ve bütçe ayırmada önemli değişiklikler yapılmasını gerektirir.

Güvenlik ve risk liderlerinin (78%) önemli bir çoğunluğu, yapay zekanın getirdiği benzersiz zorlukları ve fırsatları karşılamak için BT güvenlik bütçelerinin artacağına inanıyor. Bu ayarlama çeşitli nedenlerle çok önemlidir. Yapay zeka sistemlerinin güvenli bir şekilde çalışması için sağlam bir güvenlik altyapısı gerekir. Bu, mevcut güvenlik sistemlerini yükseltmeyi, daha sıkı erişim denetimleri uygulamayı ve veri güvenliğini ve idareyi geliştirmeyi içerebilir. Yeni yapay zeka mevzuat gereksinimlerini karşılamak için başka kaynaklar da gerekebilir.

Bu makalenin önceki bölümlerinde Microsoft, kuruluşunuzdaki iş liderlerinin ve farklı iş birimlerinin motivasyonlarını anlamak için çalışmayı önerir. En önemli endişeleri ve paylaşılan iş hedeflerini belirlemek, hedeflere ulaşmak için kaynakların müzakere edilmesine yönelik önemli bir adımdır.

Uyumluluk değerlendirmeleri, yasal danışmanlıklar ve denetimler için fon ayırma, bir kuruluşun yapay zeka stratejisini bir endüstri çerçevesiyle uyumlu hale getirmek ve daha güvenli, güvenli ve uyumlu yapay zeka kullanımı ve sistemleri sağlamak için gerekli hale gelir. Yapay zeka için güvenlik araçları, risk yönetimi stratejileri ve yapay zeka kullanımıyla ilgili etik konuları kapsayacak şekilde sürekli çalışan eğitimi ve beceri geliştirmesi için fonlara öncelik vermek, bütçe ve kaynak ayırma sırasında dikkate alınması da önemlidir.

3. Adım—Sıfır Güven yaklaşımını benimser

Yapay zeka benimsemeye hazırlanırken Sıfır Güven stratejisi, güvenlik ve risk liderlerine veri aşırı paylaşımı veya aşırı kullanım ve gölge BT gibi en önemli endişelerini gidermeye yardımcı olan bir dizi ilke sağlar. Sıfır Güven yaklaşımı, ağ odaklı bir odaktan varlığa ve veri odaklı odaklara geçer ve kaynağı ne olursa olsun her erişim isteğini olası bir tehdit olarak kabul eder.

Sıfır Güven, her kullanıcı ve cihazın kimliklerini sürekli olarak doğrular ve yalnızca açık izinleri olan kişilerin hassas bilgilere ulaşabilmesini sağlar. Sıfır Güven, güvenlik önlemlerini gerçek zamanlı değerlendirmelere göre dinamik olarak ayarlayarak veri sızıntısı riskini en aza indirir ve bir kuruluşu hem iç hem de dış tehditlere karşı korur. Sürekli doğrulama, en az ayrıcalık erişimi ve dinamik risk yönetimi bu yaklaşımın temel taşlarıdır ve kuruluşun uçtan uca güvenliğinin başarısını destekleyen sağlam ve uyarlanabilir bir güvenlik çerçevesi sağlar.

Kuruluşlar Sıfır Güven'i benimseyerek yapay zeka dağıtımlarının güvenliğini sağlayabilir ve güvenliklerinin sürekli doğrulandığını ve korunduğunu bilir. Sıfır Güven, kuruluşların yapay zekayı güvenle benimsemesini sağlayarak yapay zekanın güçlü özelliklerinin güvenli ve etkili bir şekilde kullanılmasını sağlar.

Microsoft tarafından sağlanan tüm yapay zeka güvenlik yönergeleri Sıfır Güven ilkelerine bağlıdır. GenAI için önerilen güvenlik yönergelerini izleyerek güçlü bir Sıfır Güven temeli oluşturacaksınız.

4. Adım: Güvendiğiniz iş ortaklarıyla paylaşılan sorumluluklara yatırım yapın

Genellikle strateji ve öncelikleri bilgilendirmeye yardımcı olmak için kullanılan bir kaynak, paylaşılan sorumluluk modelidir. Kuruluşunuzda yapay zeka kullanımının güvenliğini sağlama sorumluluğunuz, kullanılan uygulamaların türüne bağlıdır. Yatırım yaptığınız iş ortakları sorumluluğu sizinle paylaşır.

Paylaşılan sorumluluk modeli, güvenlik ekiplerinin kuruluşlarını şu seçimlerde yönlendirmesine yardımcı olur:

  • Kuruluşları için sorumluluğu azaltan GenAI uygulamaları.
  • Güvenlerini kazanan iş ortakları.

Yapay zeka paylaşılan sorumluluklar modelini gösteren diyagram.

Bu diyagramda hem siz hem de Microsoft için sorumluluklar dengesi özetlenmektedir. Birçok kuruluş, SaaS uygulamalarının güvenilir sağlayıcılarla ortak kullanımına öncelik vermek ve özel olarak oluşturulmuş uygulamaların sayısını azaltmak için paylaşılan sorumluluk modelini kullanır.

Daha fazla bilgi için bkz. Yapay zeka paylaşılan sorumluluk modeli - Microsoft Azure.

Güveninizi kazanan iş ortaklarına yatırım yapmanın yanı sıra, birçok güvenlik uzmanı güvenlik araçlarını ve satıcılarını birleştirmeyi önerir. Microsoft, birlikte çalışan araçlarla yapay zeka için kapsamlı bir güvenlik çözümü seçerek güvenlik ekipleri için tümleştirme çalışmalarının hacmini büyük ölçüde azaltır.

5. Adım: Yapay zeka için kapsamlı bir güvenlik çözümü benimseme

Yapay zeka, geleneksel güvenlik önlemlerinin tam olarak ele almayabileceği belirli riskler getirir. Yapay zeka güvenliği, bu riskleri azaltmak için tasarlanmıştır.

Şirketlerin önemli bir çoğunluğu yapay zeka uygulamalarının hem kullanımını hem de geliştirilmesini güvence altına almak için özel araçlar ve platformlar sağlamayı planlıyor. Ankete katılanların çoğu (72%) kuruluşlarında yapay zeka uygulamalarının kullanımını ve geliştirilmesini nasıl güvenli hale getirmeyi ve korumayı planladıkları sorulduğunda yapay zeka kullanımını ve geliştirilmesini güvence altına almak için yeni bir ayrılmış güvenlik çözümü sağlamayı planlarken, 64% yapay zekanın güvenliğini sağlamak için mevcut güvenlik çözümlerini kullanmayı planladıklarını belirtti.

BT ve güvenlik liderleri, yapay zekanın korunması ve idaresi için yeni çözümlere birincil bütçe katkıda bulunanlarının BT departmanları (63%) ve bilgi güvenliği/ siber güvenlik departmanları (57%) olacağına inanıyor. Bu bulgular, kuruluşların mevcut güvenlik çözümlerini kullanmaya devam etmelerine ek olarak yapay zekanın artan ve ortaya çıkan risklerini gidermeye yardımcı olabilecek yeni çözümler arama gereksinimini gördüklerini göstermektedir.

Microsoft'un uçtan uca güvenlik platformuna ek olarak, Microsoft yapay zeka araçlarının ve verilerinin bulunmasından yapay zeka tehditlerini azaltmak için özel olarak tasarlanmış korumalara kadar yapay zekanın güvenliğini sağlamak için kapsamlı güvenlik araçları sağlar. Bu araçlar karmaşık panolar ve uyumluluk kaynaklarını içerir, riskleri ve mevzuat yükümlülüklerini yönetmenize yardımcı olur.

Microsoft özellikleri, yapay zeka uygulamalarınız ve verileriniz için tam kapsamlı koruma sağlar.

Aşağıdaki görüntü, Microsoft'un yapay zekayı benimsemeyi korumak için sağladığı tüm özelliklerin özet bir görünümüdür. Bu özellikler aşağıdaki tabloda da listelenmiştir.

Yapay zeka güvenliğine yardımcı olan Microsoft ürünlerinin diyagramı.

En önemli müşteri endişesi Yetenekler
Veri sızıntısını ve fazla paylaşımı önleme - Erişim ve uç nokta denetimleri — Microsoft Entra & Intune
- Yapay zeka için Veri Güvenliği Duruş Yönetimi — Microsoft Purview
- Veri sınıflandırma, etiketleme ve koruma — Microsoft Purview
- Veri Kaybı Önleme — Microsoft Purview
- Anomali ve riskli etkinlikleri algılama ve yanıtlama — Microsoft Purview
- SaaS uygulama güvenliği — Microsoft Defender
Yapay zekayı güvenlik açıklarına ve yeni ortaya çıkan tehditlere karşı koruma - Veri güvenliği ve idaresi — Microsoft Purview
- Kalite, güvenlik ve güvenlik denetimleri değerlendirmesi — Azure AI Foundry
- Yapay zeka varlıkları (uygulamalar, modeller, düzenleyiciler, SDK'lar) için güvenlik duruşu yönetimi — Microsoft Defender
- Model idare ilkesi — Azure Portal
- İçerik güvenliği istem kalkanı — Azure AI
- Yapay zeka iş yükleri için tehdit koruması — Microsoft Defender
Mevzuat gereksinimlerine uymak için yapay zekayı idare etme - Yapay zeka düzenlemelerine ve standartlarına göre uyumluluk değerlendirmeleri — Microsoft Purview
- Yapay zeka bulma ve katalog — Microsoft Defender
- İstem ve yanıt denetimleri, yaşam döngüsü yönetimi, eBulma, iletişim uyumluluğu — Microsoft Purview
- Geliştiricilerin proje ayrıntılarını ve denetimlerini günlüğe kaydetmesine yönelik yapay zeka raporları — Azure AI Foundry
- Gizlilik etkisi değerlendirmesi — Microsoft Priva
- Zararlı içerik, yanlış bilgiler ve korumalı malzemeler için azaltma — Azure AI İçerik Güvenliği

Yapay zekanın güvenliğini sağlamak için sonraki adımlar

Bu kitaplık, yapay zeka için güvenliği aşamalı bir yaklaşımla uygulama sürecinde size yol gösterir.

Yapay zeka için güvenlik uygulama işlemini gösteren diyagram.

Yapay zekanın güvenliğini sağlama hakkında daha fazla bilgi edinmek ve kuruluşunuzun hedeflerine ulaşmak için özellikleri belirleyip uygulamak için bu makale serisindeki yönergeleri izleyin.

Genel güvenlik duruşunuzu ve Sıfır Güven'i iyileştirme hakkında daha fazla bilgi edinmek için bkz. Güvenlik duruşunuzu hızlı bir şekilde modernleştirme.

Yapay zeka yardımcıları için önerilen güvenlik korumalarını kullanmaya başlamak için bkz. Microsoft Copilots da dahil olmak üzere yapay zeka yardımcılarına hazırlanmak için Sıfır Güven güvenliğini kullanma.