Câu hỏi thường gặp về quyền riêng tư và bảo mật dữ liệu Copilot dành cho Dynamics 365 và Power Platform

Copilot for Dynamics 365 và Power Platform các tính năng tuân theo một bộ các biện pháp bảo mật và quyền riêng tư cốt lõi cũng như Tiêu chuẩn AI có trách nhiệm của Microsoft. Dữ liệu Dynamics 365 và Power Platform được bảo vệ bằng các biện pháp kiểm soát quyền riêng tư, bảo mật và tuân thủ toàn diện, đầu ngành.

Copilot được xây dựng trên Microsoft Azure OpenAI Dịch vụ và chạy hoàn toàn trong đám mây Azure. Azure OpenAI khả dụng tùy theo khu vực, đồng thời cung cấp tính năng lọc nội dung từ AI có trách nhiệm. Phi công phụ sử dụng OpenAI các mô hình có tất cả khả năng bảo mật của Microsoft Azure. OpenAI là tổ chức độc lập. Chúng tôi không chia sẻ dữ liệu của bạn với OpenAI.

Không phải khu vực địa lý và ngôn ngữ Azure nào cũng có các tính năng của Copilot. Bạn có thể cần cho phép di chuyển dữ liệu giữa các khu vực địa lý để sử dụng các tính năng này, tùy vào nơi lưu trữ môi trường của bạn. Để biết thêm thông tin, hãy xem các bài viết được liệt kê trong Di chuyển dữ liệu giữa các khu vực địa lý.

Điều gì xảy ra với dữ liệu của tôi khi tôi sử dụng Copilot?

Bạn có khả năng kiểm soát dữ liệu của mình. Trừ khi đã được bạn cho phép, Microsoft không chia sẻ dữ liệu của bạn với bên thứ ba. Hơn nữa, trừ khi nhận được sự chấp thuận từ bạn, chúng tôi không sử dụng dữ liệu của khách hàng để đào tạo Copilot hoặc các tính năng AI của Copilot. Copilot tuân thủ các quyền và chính sách dữ liệu hiện có và chỉ phản hồi bạn dựa trên dữ liệu mà bản thân bạn có thể truy cập. Để biết thêm thông tin về cách bạn có thể kiểm soát dữ liệu và cách xử lý dữ liệu của mình, hãy xem các bài viết được liệt kê trong Copilot trong ứng dụng Dynamics 365 và Power Platform.

Copilot sử dụng quy trình xử lý tạm thời để giám sát hành vi sử dụng dịch vụ lạm dụng hoặc gây hại. Chúng tôi không giám sát hành vi lạm dụng bằng cách lưu trữ hoặc đánh giá trực tiếp đầu vào và đầu ra của Copilot.

Copilot sử dụng dữ liệu của tôi như thế nào? 

Mỗi dịch vụ hoặc tính năng sử dụng Copilot sẽ dựa trên dữ liệu bạn cung cấp hoặc thiết lập để Copilot xử lý.

Yêu cầu bạn đưa ra (đầu vào) và phản hồi của Copilot (đầu ra hoặc kết quả):

  • KHÔNG được cung cấp cho các khách hàng khác.

  • KHÔNG được sử dụng để đào tạo hoặc cải tiến bất kỳ sản phẩm hoặc dịch vụ nào của bên thứ ba (chẳng hạn như các mô hình OpenAI).

  • KHÔNG được sử dụng để đào tạo hoặc cải thiện các mô hình trí tuệ nhân tạo của Microsoft, trừ khi quản trị viên đối tượng thuê của bạn chọn chia sẻ dữ liệu với chúng tôi.

Tìm hiểu thêm về Azure OpenAI Quyền riêng tư và bảo mật dữ liệu của dịch vụ. Để tìm hiểu thêm về cách Microsoft bảo vệ và sử dụng dữ liệu của bạn một cách tổng quát hơn, hãy đọc Tuyên bố về quyền riêng tư của chúng tôi.

Dữ liệu của tôi sẽ đi đến đâu?

Microsoft hoạt động dựa trên sự tin cậy. Chúng tôi cam kết đảm bảo bảo mật, quyền riêng tư và tuân thủ trong mọi việc chúng tôi làm và chúng tôi cũng áp dụng nguyên tắc này với AI. Dữ liệu khách hàng, bao gồm cả đầu vào và đầu ra Copilot, được lưu trữ trong ranh giới tin cậy của Microsoft Cloud.

Dữ liệu khách hàng có thể được truyền ra ngoài ranh giới tin cậy của Microsoft Cloud trong một số trường hợp, chẳng hạn như các tính năng được Bing hỗ trợ và phần bổ trợ copilot bên thứ ba.

Copilot có thể truy cập nội dung được mã hóa không?

Dữ liệu được cung cấp cho Copilot dựa trên cấp độ truy cập của người dùng hiện tại. Nếu người dùng có quyền truy cập vào dữ liệu được mã hóa trong Dynamics 365 và Power Platform và người dùng cung cấp dữ liệu này cho Copilot, thì Copilot có thể truy cập dữ liệu đó.

Copilot bảo vệ dữ liệu của khách hàng như thế nào?

Microsoft có một vị thế đặc biệt để cung cấp dịch vụ AI phù hợp cho doanh nghiệp. Copilot được hỗ trợ bởi Azure OpenAI Service và tuân thủ các cam kết đối với khách hàng về quy định, bảo mật và quyền riêng tư hiện có.

  • Được xây dựng dựa trên cách tiếp cận toàn diện của Microsoft về bảo mật, quyền riêng tư và tuân thủ. Copilot được tích hợp trong các dịch vụ Microsoft như Dynamics 365 và Power Platform, đồng thời kế thừa các quy trình cũng như chính sách về bảo mật, quyền riêng tư và tuân thủ của các sản phẩm này, chẳng hạn như xác thực đa yếu tố và ranh giới tuân thủ.

  • Nhiều hình thức bảo vệ bảo vệ dữ liệu của tổ chức. Các công nghệ phía dịch vụ mã hóa nội dung của tổ chức khi lưu trữ cũng như khi truyền tải, bảo đảm bảo mật chắc chắn. Các kết nối được bảo vệ bằng giao thức Transport Layer Security (TLS) và quá trình truyền dữ liệu giữa Dynamics 365, Power Platform và Azure OpenAI diễn ra thông qua hệ thống mạng lõi của Microsoft, đảm bảo độ tin cậy và tính an toàn. Tìm hiểu thêm về mã hóa trong Microsoft Cloud.

  • Được thiết kế để bảo vệ dữ liệu của bạn ở cả cấp độ đối tượng thuê và môi trường. Chúng tôi hiểu rò rỉ dữ liệu là vấn đề mà khách hàng quan ngại. Trừ khi quản trị viên đối tượng thuê của bạn chọn chia sẻ dữ liệu với chúng tôi, các mô hình AI của Microsoft không được huấn luyện và cũng không học hỏi từ dữ liệu đối tượng thuê hoặc yêu cầu của bạn. Bạn có thể kiểm soát truy cập thông qua các quyền mà bạn thiết lập trong môi trường của mình. Cơ chế xác thực và ủy quyền phân tách các yêu cầu đối với mô hình dùng chung giữa các đối tượng thuê. Copilot sử dụng dữ liệu mà chỉ bạn mới có thể truy cập bằng cách sử dụng cùng một công nghệ mà chúng tôi đã dùng trong nhiều năm để bảo mật dữ liệu khách hàng.

Các phản hồi của Copilot có phải luôn dựa trên sự thật không?

Như với bất kỳ generative AI nào, phản hồi của Copilot không được đảm bảo là đúng sự thật 100%. Mặc dù chúng tôi liên tục cải thiện phản hồi cho các câu hỏi dựa trên thực tế, nhưng bạn vẫn nên tự suy xét và xem lại kết quả đầu ra trước khi gửi cho người khác. Copilot cung cấp bản nháp và tóm tắt hữu ích giúp bạn làm được nhiều việc hơn, nhưng việc này diễn ra hoàn toàn tự động. Bạn luôn có thể xem lại nội dung mà AI tạo ra.

Các nhóm của chúng tôi đang nỗ lực chủ động giải quyết các vấn đề như thông tin sai lệch và thông tin xuyên tạc, chặn nội dung, an toàn dữ liệu và quảng bá nội dung có hại hoặc phân biệt đối xử, phù hợp với các nguyên tắc AI có trách nhiệm của chúng tôi.

Chúng tôi cũng đưa ra hướng dẫn về trải nghiệm người dùng để củng cố việc sử dụng có trách nhiệm các hành động đề xuất và nội dung do AI tạo.

  • Hướng dẫn và nhắc nhở. Khi bạn sử dụng Copilot, yêu cầu và các chi tiết chỉ dẫn khác nhắc bạn xem xét và chỉnh sửa phản hồi nếu cần, cũng như kiểm tra độ chính xác của dữ kiện, dữ liệu và văn bản theo cách thủ công trước khi sử dụng nội dung do AI tạo.

  • Nguồn thông tin được trích dẫn. Copilot trích dẫn các nguồn thông tin của mình khi có thể, dù là thông tin công khai hay nội bộ, để bạn có thể tự mình xem xét nhằm xác nhận phản hồi.

Vui lòng tham khảo Câu hỏi thường gặp về AI có trách nhiệm cho sản phẩm của bạn trên Microsoft Learn để biết thêm thông tin.

Copilot có chặn kỹ thuật Prompt Injection, tạm dịch là “câu lệnh nhiễm độc”, (tấn công bẻ khóa) không?

Các cuộc tấn công bẻ khóa là lời nhắc của người dùng được thiết kế để kích thích mô hình AI tổng hợp hành xử theo cách mà nó đã được đào tạo để không làm hoặc vi phạm các quy tắc mà nó được yêu cầu tuân theo. Bảo vệ chống câu lệnh nhiễm độc là bắt buộc đối với mọi dịch vụ của Dynamics 365 và Power Platform. Tìm hiểu thêm về các cuộc tấn công bẻ khóa và cách sử dụng Azure AI Content Safety để phát hiện chúng.

Microsoft kiểm tra và xác thực chất lượng Copilot, bao gồm bảo vệ chống câu lệnh nhiễm độc và phản hồi có căn cứ như thế nào?

Trước khi khởi chạy, mỗi lần lặp lại mô hình sản phẩm và ngôn ngữ Copilot mới đều phải trải qua quy trình đánh giá nội bộ về AI có trách nhiệm. Nhằm đánh giá các rủi ro tiềm ẩn về nội dung có hại, kịch bản bẻ khóa và phản hồi có căn cứ trước khi phát hành, chúng tôi sử dụng quy trình có tên là "đội đỏ" (trong đó một nhóm mô phỏng cuộc tấn công của kẻ thù, tìm và khai thác các điểm yếu để giúp tổ chức cải thiện khả năng phòng thủ). Sau khi phát hành, chúng tôi sử dụng công cụ kiểm thử tự động và công cụ đánh giá tự động cũng như thủ công để đánh giá chất lượng phản hồi Copilot.

Microsoft củng cố mô hình nền tảng và đo lường những cải tiến trong phản hồi có căn cứ như thế nào?

Trong bối cảnh AI, đặc biệt là AI xử lý các mô hình ngôn ngữ giống như mô hình mà Copilot dựa trên, nền tảng giúp AI tạo ra các phản hồi phù hợp hơn và có ý nghĩa hơn trong thế giới thực. Xác định cơ sở giúp đảm bảo các phản hồi của AI dựa trên thông tin đáng tin cậy, chính xác và phù hợp nhất có thể. Các chỉ số phản hồi có căn cứ đánh giá mức độ hiển thị chính xác trong phản hồi cuối cùng của các dữ kiện được nêu trong nội dung xác định cơ sở được cung cấp cho mô hình.

Kỹ thuật Tạo truy xuất tăng cường (RAG) được dùng để nâng cao các mô hình nền tảng như GPT-4. Với các kỹ thuật này, mô hình có thể sử dụng nhiều thông tin hơn mức đã được huấn luyện để hiểu tình huống của người dùng. RAG hoạt động bằng cách xác định dữ liệu có liên quan đến tình huống trước tiên, tương tự như cách công cụ tìm kiếm xác định các trang web có liên quan đến cụm từ tìm kiếm của người dùng. Để xác định nội dung có liên quan đến yêu cầu của người dùng và nên được sử dụng để làm căn cứ đưa ra phản hồi, RAG sử dụng nhiều phương pháp khác nhau. Các phương pháp này gồm tìm kiếm dựa trên các loại chỉ mục khác nhau, chẳng hạn như chỉ mục đảo ngược sử dụng các kỹ thuật truy xuất thông tin như khớp thuật ngữ hoặc chỉ mục véc-tơ tìm ra sự tương đồng về ngữ nghĩa bằng cách sử dụng so sánh khoảng cách véc-tơ. RAG chuyển dữ liệu đến mô hình cùng với cuộc hội thoại hiện tại sau khi xác định được các tài liệu liên quan. Điều này giúp mô hình hiểu rõ hơn thông tin mô hình đã có và tạo phản hồi dựa trên cơ sở thực tế nhờ có thêm ngữ cảnh. Cuối cùng, RAG kiểm tra phản hồi để đảm bảo phản hồi được hỗ trợ bởi nội dung nguồn được cung cấp cho mô hình. Các tính năng generative AI của Copilot kết hợp RAG theo nhiều cách. Một trong những cách đó sử dụng dữ liệu để trò chuyện, trong đó chatbot dựa trên nguồn dữ liệu của chính khách hàng.

Một phương pháp khác để nâng cao các mô hình nền tảng được gọi là tinh chỉnh. Mô hình nền tảng được hiển thị tập dữ liệu lớn gồm các cặp truy vấn-phản hồi nhằm tăng cường quá trình huấn luyện ban đầu của mô hình đó bằng các mẫu mới nhắm đến một kịch bản cụ thể. Sau đó, có thể triển khai mô hình này dưới dạng mô hình riêng biệt – mô hình được tinh chỉnh cho kịch bản đó. Trong khi mục tiêu của mô hình nền tảng là làm cho kiến thức của AI trở nên thực tế thì mô hình tinh chỉnh giúp cho kiến thức của AI cụ thể hơn đối với một nhiệm vụ hoặc lĩnh vực cụ thể. Microsoft áp dụng nhiều cách để tinh chỉnh. Ví dụ: chúng tôi sử dụng tính năng tạo dòng quy trình trong Power Automate từ các mô tả ngôn ngữ tự nhiên do người dùng cung cấp.

Copilot chặn nội dung độc hại như thế nào?

Azure OpenAI Service có hệ thống lọc nội dung hoạt động cùng với các mô hình cốt lõi. Các mô hình lọc nội dung cho các danh mục Thù ghét và Công bằng, Tình dục, Bạo lực và Tự hại đã được huấn luyện và kiểm thử cụ thể bằng nhiều ngôn ngữ khác nhau. Hệ thống này hoạt động bằng cách chạy cả yêu cầu đầu vào và phản hồi thông qua các mô hình phân loại được thiết kế để nhận diện và chặn đầu ra nội dung độc hại.

Nội dung độc hại liên quan đến thù ghét và công bằng đề cập đến nội dung sử dụng ngôn ngữ miệt thị hoặc phân biệt đối xử dựa trên các đặc điểm như chủng tộc, dân tộc, quốc tịch, bản dạng giới và thể hiện giới, khuynh hướng tình dục, tôn giáo, tình trạng nhập cư, tình trạng khuyết tật, ngoại hình cá nhân và kích thước cơ thể. Sự công bằng quan tâm đến việc đảm bảo rằng các hệ thống AI đối xử công bằng với tất cả các nhóm người mà không góp phần vào sự bất bình đẳng xã hội hiện có. Nội dung tình dục bao gồm các cuộc thảo luận về cơ quan sinh sản của con người, các mối quan hệ lãng mạn, các hành vi được mô tả bằng thuật ngữ khiêu dâm hoặc trìu mến, mang thai, các hành vi tình dục thể chất, bao gồm cả những hành vi được mô tả là hành vi tấn công hoặc cưỡng bức bạo lực tình dục, mại dâm, nội dung khiêu dâm và lạm dụng. Bạo lực mô tả ngôn ngữ liên quan đến hành động thể chất nhằm mục đích gây hại hoặc giết người, bao gồm hành động, vũ khí và các thực thể liên quan. Ngôn ngữ tự làm hại bản thân đề cập đến những hành động có chủ ý nhằm gây thương tích hoặc giết chết bản thân.

Tìm hiểu thêm về Azure OpenAI lọc nội dung.

Copilot có đáp ứng các yêu cầu về tuân thủ theo quy định không?

Microsoft Copilot thuộc hệ sinh thái Dynamics 365 và Power Platform và đáp ứng các yêu cầu tương tự về tuân thủ theo quy định. Để biết thêm thông tin về các chứng nhận theo quy định của dịch vụ Microsoft, hãy truy cập Cổng tin cậy dịch vụ. Ngoài ra, Copilot tuân thủ cam kết của chúng tôi về AI có trách nhiệm, được thực hiện thông qua Tiêu chuẩn AI có trách nhiệm của chúng tôi. Khi quy định trong lĩnh vực AI thay đổi, Microsoft tiếp tục điều chỉnh và thích ứng để tuân thủ các yêu cầu mới.

Tìm hiểu thêm về tính khả dụng của Dynamics 365, Power Platform và Copilot, vị trí dữ liệu khách hàng cũng như việc tuân thủ các yêu cầu cụ thể của ngành, khu vực và toàn cầu để quản lý dữ liệu.

Tìm hiểu thêm

Copilot trong các ứng dụng Dynamics 365 và Power Platform

Sản phẩm Tính năng Bắt buộc phải có Môi trường được quản lý? Cách tắt tính năng này
AI Builder Kịch bản trong bản xem trước Không Kịch bản trong bản xem trước
Dynamics 365 Customer Insights - Data Tạo phân đoạn bằng Copilot cho Customer Insights - Data (xem trước) Không Customer Insights - Data có cờ riêng cho tất cả các tính năng Copilot của Azure OpenAI.

Tìm hiểu thêm: Đồng ý sử dụng Copilot trong Customer Insights - Data
Dynamics 365 Customer Insights - Data Tổng quan về báo cáo chuẩn bị dữ liệu (xem trước) Không Customer Insights - Data có cờ riêng cho tất cả các tính năng Copilot của Azure OpenAI.

Tìm hiểu thêm: Đồng ý sử dụng Copilot trong Customer Insights - Data
Dynamics 365 Customer Insights - Data Nhận câu trả lời cho câu hỏi về khả năng từ Copilot (xem trước) Không Customer Insights - Data có cờ riêng cho tất cả các tính năng Copilot của Azure OpenAI.

Tìm hiểu thêm: Đồng ý sử dụng Copilot trong Customer Insights - Data
Dynamics 365 Customer Insights (Dữ liệu) Có hộp thoại với dữ liệu bằng Copilot trong Customer Insights Không Customer Insights - Data có cờ riêng cho tất cả các tính năng Copilot của Azure OpenAI.

Tìm hiểu thêm: Đồng ý sử dụng Copilot trong Customer Insights - Data
Dynamics 365 Customer Insights - Data Xem cấu hình hệ thống Không Customer Insights - Data có cờ riêng cho tất cả các tính năng Copilot của Azure OpenAI.

Tìm hiểu thêm: Đồng ý sử dụng Copilot trong Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Copilot giúp bạn học hỏi và làm được nhiều việc hơn (đánh giá) Không Thiết đặt quản trị viên trong Power Platform sẽ xác định bạn có dùng được copilot này trong môi trường của mình hay không. Tìm hiểu cách thêm Copilot cho các ứng dụng dựa trên mô hình.


Khả năng này là "ứng dụng đồng điều khiển trong Customer Insights - Journeys" và đó là lý do tại sao nó được kích hoạt trong Power Platform trung tâm quản trị. Tìm hiểu thêm: Câu hỏi thường gặp về AI có trách nhiệm
Dynamics 365 Customer Insights - Journeys Tạo hành trình sử dụng sự hỗ trợ của AI Không Customer Insights - Journeys có cờ riêng cho các tính năng Copilot.

Tìm hiểu thêm: Đồng ý sử dụng Copilot trong Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Làm mới và hoàn thiện thông điệp của bạn Không Customer Insights - Journeys có cờ riêng cho các tính năng Copilot.

Tìm hiểu thêm: Đồng ý sử dụng Copilot trong Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Tạo phong cách cho email của bạn bằng các chủ đề được hỗ trợ bởi AI Không Customer Insights - Journeys có cờ riêng cho các tính năng Copilot.

Tìm hiểu thêm: Đồng ý sử dụng Copilot trong Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Nhắm mục tiêu đúng khách hàng bằng cách sử dụng hỗ trợ truy vấn

Không Customer Insights - Journeys có cờ riêng cho các tính năng Copilot.

Tìm hiểu thêm: Đồng ý sử dụng Copilot trong Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Sử dụng AI để khởi động quá trình tạo email Không Customer Insights - Journeys có cờ riêng cho các tính năng Copilot.

Tìm hiểu thêm: Đồng ý sử dụng Copilot trong Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Sử dụng hình ảnh trong nội dung của bạn Không Customer Insights - Journeys có cờ riêng cho các tính năng Copilot.

Tìm hiểu thêm: Đồng ý sử dụng Copilot trong Customer Insights - Journeys
Power Apps Xây dựng ứng dụng thông qua cuộc trò chuyện Không Quản lý cài đặt tính năng
Power Apps Hỗ trợ phi công phụ để điền biểu mẫu trong các ứng dụng dựa trên mô hình Không Quản lý cài đặt tính năng
Power Apps Soạn thảo văn bản được viết tốt, nhập liệu bằng Copilot Không, giấy phép người dùng cao cấp Soạn thảo văn bản được viết tốt, nhập liệu bằng Copilot
Power Apps Excel vào bảng Không Quản lý cài đặt tính năng
Power Apps Sử dụng ngôn ngữ tự nhiên để chỉnh sửa ứng dụng bằng bảng Copilot No Quản lý cài đặt tính năng
Power Automate Copilot trong các luồng đám mây trên Trang chủ và trong công cụ thiết kế (Xem Bắt đầu với Copilot trong các luồng đám mây để biết chi tiết.) No Liên hệ với bộ phận hỗ trợ để chạy tập lệnh PowerShell.
Power Pages Tất cả (Xem Tổng quan về phi công phụ trong Power Pages để biết chi tiết.) No Tắt Copilot trong Power Pages

Mức độ khả dụng theo khu vực và ngôn ngữ

Copilot sẵn có quốc tế

Di chuyển dữ liệu trên các khu vực địa lý

Bảo mật tại Microsoft

Quyền riêng tư tại Microsoft

Tuyên bố về quyền riêng tư của Microsoft

AI có trách nhiệm