แชร์ผ่าน


ใช้หลักการ AI ที่รับผิดชอบ

ระบบ AI ไม่เพียงรวมถึงเทคโนโลยีเท่านั้น แต่ยังรวมถึงผู้คนที่ใช้งาน ผู้คนที่ได้รับผลกระทบจากเทคโนโลยี และสภาพแวดล้อมที่มีการนำไปใช้ ตัวแทนต้องปฏิบัติตามหลักการ AI ที่มีความรับผิดชอบเพื่อให้มั่นใจถึงความยุติธรรม ความรับผิดชอบ ความโปร่งใส และพฤติกรรมที่มีจริยธรรม

ออกแบบระบบ AI เพื่อปฏิบัติต่อผู้ใช้ทุกคนอย่างเป็นธรรม ให้นักพัฒนาและผู้ใช้รับผิดชอบต่อประสิทธิภาพการทำงาน รับประกันความโปร่งใสในการดำเนินงานของ AI และปฏิบัติตามมาตรฐานทางจริยธรรม

ที่ Microsoft เรามุ่งมั่นที่จะพัฒนา AI ที่ขับเคลื่อนด้วยหลักการที่ให้ความสำคัญกับผู้คนเป็นอันดับแรก โมเดลสร้างสรรค์มีประโยชน์อย่างมาก แต่หากไม่มีการออกแบบอย่างรอบคอบและการบรรเทาผลกระทบอย่างรอบคอบ โมเดลดังกล่าวมีศักยภาพในการสร้างเนื้อหาที่ไม่ถูกต้องหรือเป็นอันตราย Microsoft ได้ลงทุนจำนวนมากเพื่อช่วยป้องกันการละเมิดและอันตรายที่ไม่ได้ตั้งใจ ซึ่งรวมถึงการรวม หลักการสำหรับการใช้ AI อย่างรับผิดชอบ การนำ จรรยาบรรณ มาใช้ การสร้างตัวกรองเนื้อหาเพื่อสนับสนุนลูกค้า และการให้ ข้อมูลและคำแนะนำ ของ AI ที่รับผิดชอบซึ่งลูกค้าควรพิจารณาเมื่อใช้ AI สร้างสรรค์

Copilot Studio และฟีเจอร์ Generative AI เป็นไปตามชุดแนวทางปฏิบัติด้านความปลอดภัยและความเป็นส่วนตัวหลัก และมาตรฐาน Microsoft Responsible AI

เรียนรู้เพิ่มเติม:

หลักการสำคัญของ AI ที่รับผิดชอบ

หลักการสำคัญของ AI ที่รับผิดชอบ ได้แก่ ความเป็นธรรม ความรับผิดชอบ ความโปร่งใส และจริยธรรม การทําให้แน่ใจว่าเอเจนต์ที่สร้างด้วย Copilot Studio ปฏิบัติตามหลักการหลักเหล่านี้เกี่ยวข้องกับแนวทางปฏิบัติหลักหลายประการ:

  • ความเป็นธรรม: ใช้ข้อมูลการฝึกอบรมที่หลากหลายและเป็นตัวแทนเพื่อลดอคติ ปรับปรุงข้อมูลการฝึกอย่างสม่ำเสมอและกำหนดผู้ตรวจสอบเพื่อตรวจสอบความเป็นธรรมและความเสมอภาค
  • ความรับผิดชอบ: กำหนดบทบาทและความรับผิดชอบที่ชัดเจนสำหรับสมาชิกในทีมที่เกี่ยวข้องกับโครงการ AI กำหนดและปฏิบัติตามมาตรฐานทางจริยธรรมที่ให้ความสำคัญกับความเป็นธรรมและความรับผิดชอบ
  • ความโปร่งใส: ตรวจสอบให้แน่ใจว่าผู้ใช้รู้ว่าพวกเขากําลังใช้ตัวแทนที่ใช้ความสามารถ Generative AI สื่อสารอย่างชัดเจนว่าเหตุใดจึงเลือกโซลูชัน AI วิธีการออกแบบ และวิธีการตรวจสอบและอัปเดต
  • จริยธรรม: ส่งเสริมพนักงานอย่างเท่าเทียมและแสวงหาข้อมูลจากชุมชนที่หลากหลายตั้งแต่เนิ่นๆ ในกระบวนการพัฒนา ประเมินและทดสอบโมเดลอย่างสม่ำเสมอสำหรับข้อกังวลด้านจริยธรรมและความแตกต่างในการปฏิบัติงาน กำหนดกรอบการกำกับดูแลที่มีการตรวจสอบอย่างสม่ำเสมอ

รวมแนวทางปฏิบัติเหล่านี้เข้ากับกระบวนการพัฒนาและการปรับใช้ของคุณเพื่อสร้างตัวแทนที่ยึดมั่นในหลักการหลักของ AI ที่มีความรับผิดชอบ

ความเป็นส่วนตัวและความปลอดภัยของข้อมูล

การรับรองความเป็นส่วนตัวของข้อมูลเป็นสิ่งสําคัญ โดยเฉพาะอย่างยิ่งเมื่อตัวแทนอาจจัดการกับข้อมูลที่ละเอียดอ่อน เมื่อวางแผนตัวแทนด้วย Copilot Studio สิ่งสําคัญคือต้องจัดการกับความเสี่ยงหลักหลายประการและใช้กลยุทธ์การบรรเทาผลกระทบที่มีประสิทธิภาพ:

  • คุณสลักษณะของแพลตฟอร์ม: ทำความเข้าใจการควบคุมแบบเนทีฟและคุณลักษณะของแพลตฟอร์มที่ปกป้องข้อมูลของคุณ ตรวจสอบคําถามที่พบบ่อยเกี่ยวกับ AI ที่มีความรับผิดชอบสําหรับ Copilot Studio เพื่อทําความเข้าใจระบบและคุณลักษณะ AI เฉพาะที่ Microsoft พัฒนาให้ดียิ่งขึ้น
  • การเข้ารหัสลับข้อมูล: เทคโนโลยีด้านการบริการจะเข้ารหัสลับเนื้อหาองค์กรขณะอยู่ในที่เก็บและระหว่างการจัดส่งเพื่อการรักษาความปลอดภัยที่มีประสิทธิภาพ การเชื่อมต่อได้รับการป้องกันด้วย Transport Layer Security (TLS) และการถ่ายโอนข้อมูลระหว่าง Dynamics 365, Power Platform และ Azure OpenAI ดำเนินการบนเครือข่ายแกนหลักของ Microsoft เพื่อให้มั่นใจในความน่าเชื่อถือและความปลอดภัย เรียนรู้เพิ่มเติมเกี่ยวกับ การเข้ารหัสลับใน Microsoft Cloud
  • การควบคุมการเข้าถึง: ข้อมูลจะถูกมอบให้กับตัวแทนตามระดับการเข้าถึงของผู้ใช้ปัจจุบัน ใช้การควบคุมการเข้าถึงตามบทบาท (RBAC) โดยใช้ Microsoft Entra ID เพื่อให้แน่ใจว่าเฉพาะผู้ใช้ที่ได้รับอนุญาตเท่านั้นที่สามารถเข้าถึงข้อมูลได้ ใช้หลักการของสิทธิพิเศษน้อยที่สุดเพื่อจำกัดการเข้าถึงเฉพาะสิ่งที่จำเป็นเท่านั้น ตรวจสอบคําแนะนําเกี่ยวกับวิธีการรักษาความปลอดภัยโปรเจ็กต์ Copilot Studio และแนวคิดหลักด้านความปลอดภัยและการกํากับดูแล Copilot Studio ของคุณ
  • การตรวจสอบและการตรวจสอบ: ตรวจจับและตอบสนองต่อเหตุการณ์ด้านความปลอดภัยที่อาจเกิดขึ้นโดยการตรวจสอบการเข้าถึงและการใช้งานของตัวแทนอย่างสม่ําเสมอ เก็บรักษาบันทึกการตรวจสอบโดยละเอียดเพื่อติดตามการเข้าถึงและการแก้ไขข้อมูล
  • การปฏิบัติตามข้อกำหนดและการกำกับดูแล: ตรวจสอบให้แน่ใจว่ามีการปฏิบัติตามข้อกำหนดด้านกฎระเบียบความเป็นส่วนตัวของข้อมูลที่เกี่ยวข้อง เช่น GDPR (ข้อบังคับทั่วไปเกี่ยวกับการคุ้มครองข้อมูล), HIPAA (พระราชบัญญัติการเคลื่อนย้ายและความรับผิดชอบในการประกันสุขภาพ) และ CCPA (กฎหมายคุ้มครองความเป็นส่วนตัวของผู้บริโภคแห่งรัฐแคลิฟอร์เนีย) ใช้แนวทางปฏิบัติด้าน AI อย่างมีจริยธรรมเพื่อหลีกเลี่ยงอคติและรับประกันความเป็นธรรมในผลลัพธ์ของ AI
  • การศึกษาผู้ใช้และการฝึกฝน: ฝึกฝนผู้ใช้เกี่ยวกับแนวทางปฏิบัติด้านความปลอดภัยและความสำคัญของความเป็นส่วนตัวของข้อมูล แจ้งให้ผู้ใช้ทราบเกี่ยวกับการอัปเดตและการเปลี่ยนแปลงนโยบายและขั้นตอนด้านความปลอดภัย

การรับรู้และการลดอคติ

ตระหนักถึงความสำคัญของการจัดการกับอคติในระบบและรับประกันความเป็นธรรมเพื่อหลีกเลี่ยงอคติในการตอบของ AI

  • ข้อมูลที่หลากหลายและเป็นตัวแทน: ตรวจสอบให้แน่ใจว่าข้อมูลการฝึกมีความหลากหลายและเป็นตัวแทนของกลุ่มประชากรที่แตกต่างกันเพื่อลดอคติโดยธรรมชาติ ตรวจสอบข้อมูลอย่างสม่ำเสมอเพื่อหาอคติและความไม่สมดุล และดำเนินการแก้ไขตามความจำเป็น
  • เครื่องมือตรวจจับและลดอคติ:: ใช้เครื่องมือและเทคนิคเพื่อตรวจจับอคติในโมเดล AI เช่น การวิเคราะห์ทางสถิติและเมตริกความเป็นธรรม ใช้เทคนิคการลดอคติ รวมถึงการสุ่มตัวอย่างใหม่ การถ่วงน้ำหนัก หรือการขจัดอคติของฝ่ายตรงข้าม เพื่อลดอคติในโมเดล
  • รวมมนุษย์อยู่ในวงจร: รวมการตรวจสอบโดยมนุษย์และวงจรป้อนกลับเพื่อระบุและแก้ไขอคติที่ AI อาจมี จัดตั้งคณะกรรมการจริยธรรมหรือคณะกรรมการกำกับดูแลเพื่อดูแลการพัฒนาและการปรับใช้ AI เพื่อให้มั่นใจว่าเป็นไปตามมาตรฐานทางจริยธรรม
  • ความโปร่งใสและความน่าเชื่อถือ: ตรวจสอบให้แน่ใจว่าผู้ใช้รู้ว่าพวกเขากําลังใช้ตัวแทนที่ใช้ความสามารถของ Generative AI สื่อสารอย่างชัดเจนว่าเหตุใดจึงเลือกโซลูชัน AI และให้ข้อมูลเกี่ยวกับวิธีการออกแบบและวิธีการตรวจสอบและอัปเดต
  • การตรวจสอบและการปรับปรุงอย่างต่อเนื่อง: ตรวจสอบระบบ AI อย่างต่อเนื่องเพื่อหาอคติและปัญหาด้านประสิทธิภาพ และอัปเดตโมเดลตามความจำเป็น ตรวจสอบให้แน่ใจว่าโมเดลยังคงยุติธรรมและเป็นกลางโดยการฝึกโมเดลใหม่เป็นประจำด้วยข้อมูลที่อัปเดตและหลากหลายมากขึ้น

การติดตามและประเมินผลอย่างต่อเนื่อง

ปรับปรุงตัวแทนของคุณต่อไป สร้างกรอบการทํางานสําหรับ การติดตามและประเมินผลอย่างต่อเนื่อง และรวมความคิดเห็นของผู้ใช้และการพัฒนามาตรฐานทางจริยธรรมเข้ากับการอัปเดต

  • ลูปการป้อนกลับ: สร้างกลไกป้อนกลับที่ผู้ใช้สามารถรายงานความไม่ถูกต้อง ซึ่งสามารถใช้เพื่อปรับแต่งและปรับปรุงโมเดลได้
  • การติดตามและการตรวจสอบ: ตรวจจับและตอบสนองต่อเหตุการณ์ด้านความปลอดภัยที่อาจเกิดขึ้นโดยการตรวจสอบการเข้าถึงและการใช้งานระบบ AI อย่างสม่ำเสมอ เก็บรักษาบันทึกการตรวจสอบโดยละเอียดเพื่อติดตามการเข้าถึงและการแก้ไขข้อมูล

ขั้นตอนถัดไป

ใช้รายการตรวจสอบสรุปเพื่อตรวจสอบว่าโครงการของคุณพร้อมที่จะดําเนินการหรือไม่ และใช้ไฮไลต์แนวทางปฏิบัติที่ดีที่สุดเพื่อปรับแต่งแนวทางโครงการของคุณก่อนที่จะเปลี่ยนไปสู่ขั้นตอนการนําไปใช้