Câu hỏi thường gặp về quyền riêng tư và bảo mật dữ liệu của Copilot cho Dynamics 365 và Power Platform

Các tính năng của Copilot dành cho Dynamics 365 và Power Platform tuân theo một bộ thông lệ quyền riêng tư và bảo mật cốt lõi, cũng như Tiêu chuẩn AI có trách nhiệm của Microsoft. Dữ liệu Dynamics 365 và Power Platform được bảo vệ bằng các biện pháp kiểm soát quyền riêng tư, bảo mật và tuân thủ toàn diện, đầu ngành.

Copilot được xây dựng trên Microsoft Azure OpenAI Service và chạy hoàn toàn trong đám mây Azure. Azure OpenAI khả dụng tùy theo khu vực, đồng thời cung cấp tính năng lọc nội dung từ AI có trách nhiệm. Copilot sử dụng các mô hình OpenAI có toàn bộ các khả năng bảo mật của Microsoft Azure. OpenAI là tổ chức độc lập. Chúng tôi không chia sẻ dữ liệu của bạn với OpenAI.

Không phải khu vực địa lý và ngôn ngữ Azure nào cũng có các tính năng của Copilot. Bạn có thể cần cho phép di chuyển dữ liệu giữa các khu vực địa lý để sử dụng các tính năng này, tùy vào nơi lưu trữ môi trường của bạn. Vui lòng tham khảo các bài viết được nêu trong Di chuyển dữ liệu giữa các khu vực địa lý để biết thêm thông tin.

Điều gì xảy ra với dữ liệu của tôi khi tôi sử dụng Copilot?

Bạn có khả năng kiểm soát dữ liệu của mình. Trừ khi đã được bạn cho phép, Microsoft không chia sẻ dữ liệu của bạn với bên thứ ba. Hơn nữa, trừ khi nhận được sự chấp thuận từ bạn, chúng tôi không sử dụng dữ liệu của khách hàng để đào tạo Copilot hoặc các tính năng AI của Copilot. Copilot tuân thủ các quyền và chính sách dữ liệu hiện có và chỉ phản hồi bạn dựa trên dữ liệu mà bản thân bạn có thể truy cập. Vui lòng tham khảo các bài viết được nêu trong Copilot các ứng dụng Dynamics 365 và Power Platform để biết thêm thông tin về cách bạn có thể kiểm soát dữ liệu và cách dữ liệu của bạn được xử lý.

Copilot sử dụng quy trình xử lý tạm thời để giám sát hành vi sử dụng dịch vụ lạm dụng hoặc gây hại. Chúng tôi không giám sát hành vi lạm dụng bằng cách lưu trữ hoặc đánh giá trực tiếp đầu vào và đầu ra của Copilot.

Copilot sử dụng dữ liệu của tôi như thế nào?

Mỗi dịch vụ hoặc tính năng sử dụng Copilot sẽ dựa trên dữ liệu bạn cung cấp hoặc thiết lập để Copilot xử lý.

Yêu cầu bạn đưa ra (đầu vào) và phản hồi của Copilot (đầu ra hoặc kết quả):

Tìm hiểu thêm về quyền riêng tư và bảo mật dữ liệu của Azure OpenAI Service. Vui lòng đọc Tuyên bố về quyền riêng tư của chúng tôi để tìm hiểu tổng quát hơn về cách Microsoft bảo vệ và sử dụng dữ liệu của bạn.

Dữ liệu của tôi sẽ đi đến đâu?

Microsoft hoạt động dựa trên sự tin cậy. Chúng tôi cam kết đảm bảo bảo mật, quyền riêng tư và tuân thủ trong mọi việc chúng tôi làm và chúng tôi cũng áp dụng nguyên tắc này với AI. Dữ liệu khách hàng, bao gồm cả đầu vào và đầu ra Copilot, được lưu trữ trong ranh giới tin cậy của Microsoft Cloud.

Dữ liệu khách hàng có thể được truyền ra ngoài ranh giới tin cậy của Microsoft Cloud trong một số trường hợp, chẳng hạn như các tính năng được Bing hỗ trợ và phần bổ trợ copilot bên thứ ba.

Copilot có thể truy cập nội dung được mã hóa không?

Dữ liệu được cung cấp cho Copilot dựa trên cấp độ truy cập của người dùng hiện tại. Nếu người dùng có quyền truy cập vào dữ liệu được mã hóa trong Dynamics 365 và Power Platform và người dùng cung cấp dữ liệu này cho Copilot, thì Copilot có thể truy cập dữ liệu đó.

Copilot bảo vệ dữ liệu của khách hàng như thế nào?

Microsoft có một vị thế đặc biệt để cung cấp dịch vụ AI phù hợp cho doanh nghiệp. Copilot được hỗ trợ bởi Azure OpenAI Service và tuân thủ các cam kết đối với khách hàng về quy định, bảo mật và quyền riêng tư hiện có.

  • Được xây dựng dựa trên phương pháp tiếp cận toàn diện của Microsoft về bảo mật, quyền riêng tư và tuân thủ. Copilot được tích hợp trong các dịch vụ Microsoft như Dynamics 365 và Power Platform, đồng thời kế thừa các quy trình cũng như chính sách về bảo mật, quyền riêng tư và tuân thủ của các sản phẩm này, chẳng hạn như xác thực đa yếu tố và ranh giới tuân thủ.

  • Nhiều cách thức bảo vệ khác nhau để bảo đảm an toàn cho dữ liệu của tổ chức. Các công nghệ phía dịch vụ mã hóa nội dung của tổ chức khi lưu trữ cũng như khi truyền tải, bảo đảm bảo mật chắc chắn. Các kết nối được bảo vệ bằng giao thức Transport Layer Security (TLS) và quá trình truyền dữ liệu giữa Dynamics 365, Power Platform và Azure OpenAI diễn ra thông qua hệ thống mạng lõi của Microsoft, đảm bảo độ tin cậy và tính an toàn. Tìm hiểu thêm về quy trình mã hóa trong Microsoft Cloud.

  • Được thiết kế để bảo vệ dữ liệu của bạn ở cả cấp đối tượng thuê và môi trường. Chúng tôi hiểu rò rỉ dữ liệu là vấn đề mà khách hàng quan ngại. Trừ khi quản trị viên đối tượng thuê của bạn chọn chia sẻ dữ liệu với chúng tôi, các mô hình AI của Microsoft không được huấn luyện và cũng không học hỏi từ dữ liệu đối tượng thuê hoặc yêu cầu của bạn. Bạn có thể kiểm soát truy cập thông qua các quyền mà bạn thiết lập trong môi trường của mình. Cơ chế xác thực và ủy quyền phân tách các yêu cầu đối với mô hình dùng chung giữa các đối tượng thuê. Copilot sử dụng dữ liệu mà chỉ bạn mới có thể truy cập bằng cách sử dụng cùng một công nghệ mà chúng tôi đã dùng trong nhiều năm để bảo mật dữ liệu khách hàng.

Các phản hồi của Copilot có phải luôn dựa trên sự thật không?

Như với bất kỳ generative AI nào, phản hồi của Copilot không được đảm bảo là đúng sự thật 100%. Mặc dù chúng tôi liên tục cải thiện phản hồi cho các câu hỏi dựa trên thực tế, nhưng bạn vẫn nên tự suy xét và xem lại kết quả đầu ra trước khi gửi cho người khác. Copilot cung cấp bản nháp và tóm tắt hữu ích giúp bạn làm được nhiều việc hơn, nhưng việc này diễn ra hoàn toàn tự động. Bạn luôn có thể xem lại nội dung mà AI tạo ra.

Các nhóm của chúng tôi đang tìm cách chủ động giải quyết những vấn đề như thông tin sai lệch, thông tin gây hiểu nhầm, vấn đề chặn nội dung, an toàn dữ liệu và quảng bá nội dung có hại hay phân biệt đối xử theo nguyên tắc AI có trách nhiệm mà chúng tôi đặt ra.

Chúng tôi cũng đưa ra hướng dẫn về trải nghiệm người dùng để củng cố việc sử dụng có trách nhiệm các hành động đề xuất và nội dung do AI tạo.

  • Chỉ dẫn và yêu cầu. Khi bạn sử dụng Copilot, yêu cầu và các chi tiết chỉ dẫn khác nhắc bạn xem xét và chỉnh sửa phản hồi nếu cần, cũng như kiểm tra độ chính xác của dữ kiện, dữ liệu và văn bản theo cách thủ công trước khi sử dụng nội dung do AI tạo.

  • Nguồn thông tin được trích dẫn. Copilot trích dẫn các nguồn thông tin của mình khi có thể, dù là thông tin công khai hay nội bộ, để bạn có thể tự mình xem xét nhằm xác nhận phản hồi.

Vui lòng tham khảo Câu hỏi thường gặp về AI có trách nhiệm cho sản phẩm của bạn trên Microsoft Learn để biết thêm thông tin.

Copilot chặn nội dung độc hại như thế nào?

Azure OpenAI Service có hệ thống lọc nội dung hoạt động cùng với các mô hình cốt lõi. Các mô hình lọc nội dung cho các danh mục Thù ghét và Công bằng, Tình dục, Bạo lực và Tự hại đã được huấn luyện và kiểm thử cụ thể bằng nhiều ngôn ngữ khác nhau. Hệ thống này hoạt động bằng cách chạy cả yêu cầu đầu vào và phản hồi thông qua các mô hình phân loại được thiết kế để nhận diện và chặn đầu ra nội dung độc hại.

Nội dung độc hại liên quan đến thù ghét và công bằng đề cập đến nội dung sử dụng ngôn ngữ miệt thị hoặc phân biệt đối xử dựa trên các đặc điểm như chủng tộc, dân tộc, quốc tịch, bản dạng giới và thể hiện giới, khuynh hướng tình dục, tôn giáo, tình trạng nhập cư, tình trạng khuyết tật, ngoại hình cá nhân và kích thước cơ thể. Công bằng liên quan đến việc đảm bảo các hệ thống AI đối xử công bằng với mọi nhóm người mà không góp phần tạo nên tình trạng bất bình đẳng xã hội đang hiện hữu. Nội dung tình dục liên quan đến nội dung thảo luận về cơ quan sinh sản của con người, các mối quan hệ lãng mạn, các hành vi được mô tả bằng thuật ngữ khiêu dâm hoặc âu yếm, tình trạng mang thai, hành vi tình dục thực tế, bao gồm cả hành vi được mô tả là tấn công hoặc cưỡng ép bạo lực, mại dâm, khiêu dâm và lạm dụng tình dục. Bạo lực mô tả ngôn ngữ liên quan đến các hành động thể chất nhằm mục đích làm hại hoặc giết hại, bao gồm hành động, vũ khí và các thực thể liên quan. Ngôn ngữ tự hại đề cập đến những hành động có chủ ý nhằm gây thương tích hoặc tự tử.

Tìm hiểu thêm về tính năng lọc nội dung của Azure OpenAI.

Copilot có chặn kỹ thuật Prompt Injection, tạm dịch là “câu lệnh nhiễm độc”, (tấn công bẻ khóa) không?

Tấn công bẻ khóa là những câu lệnh/yêu cầu của người dùng được thiết kế để kích thích mô hình Generative AI có các hành vi mà mô hình đã được huấn luyện để tránh hoặc phá vỡ các quy tắc mà mô hình được huấn luyện phải tuân thủ. Bảo vệ chống câu lệnh nhiễm độc là bắt buộc đối với mọi dịch vụ của Dynamics 365 và Power Platform. Tìm hiểu thêm về tấn công bẻ khóa và cách sử dụng Azure AI Content Safety để phát hiện các cuộc tấn công này.

Copilot có chặn kỹ thuật câu lệnh gián tiếp (tấn công gián tiếp) không?

Tấn công gián tiếp, còn được gọi là tấn công bằng câu lệnh gián tiếp hoặc tấn công chèn câu lệnh chéo miền, là một lỗ hổng tiềm ẩn trong đó bên thứ ba đặt hướng dẫn độc hại vào các tài liệu mà hệ thống generative AI có thể truy cập và xử lý. Bảo vệ chống chèn câu lệnh gián tiếp là bắt buộc đối với mọi dịch vụ của Dynamics 365 và Power Platform. Tìm hiểu thêm về tấn công gián tiếp và cách sử dụng Azure AI Content Safety để phát hiện các cuộc tấn công này.

Microsoft kiểm tra và xác thực chất lượng Copilot, bao gồm bảo vệ chống câu lệnh nhiễm độc và phản hồi có căn cứ như thế nào?

Trước khi khởi chạy, mỗi lần lặp lại mô hình sản phẩm và ngôn ngữ Copilot mới đều phải trải qua quy trình đánh giá nội bộ về AI có trách nhiệm. Nhằm đánh giá các rủi ro tiềm ẩn về nội dung có hại, kịch bản bẻ khóa và phản hồi có căn cứ trước khi phát hành, chúng tôi sử dụng quy trình có tên là "đội đỏ" (trong đó một nhóm mô phỏng cuộc tấn công của kẻ thù, tìm và khai thác các điểm yếu để giúp tổ chức cải thiện khả năng phòng thủ). Sau khi phát hành, chúng tôi sử dụng công cụ kiểm thử tự động và công cụ đánh giá tự động cũng như thủ công để đánh giá chất lượng phản hồi Copilot.

Microsoft củng cố mô hình nền tảng và đo lường những cải tiến trong phản hồi có căn cứ như thế nào?

Trong bối cảnh AI, đặc biệt là AI xử lý các mô hình ngôn ngữ giống như mô hình mà Copilot sử dụng, xác định cơ sở hỗ trợ AI tạo các phản hồi phù hợp hơn, có ý nghĩa hơn và thực tế hơn. Xác định cơ sở giúp đảm bảo các phản hồi của AI dựa trên thông tin đáng tin cậy, chính xác và phù hợp nhất có thể. Các chỉ số phản hồi có căn cứ đánh giá mức độ hiển thị chính xác trong phản hồi cuối cùng của các dữ kiện được nêu trong nội dung xác định cơ sở được cung cấp cho mô hình.

Kỹ thuật Tạo truy xuất tăng cường (RAG) được dùng để nâng cao các mô hình nền tảng như GPT-4. Với các kỹ thuật này, mô hình có thể sử dụng nhiều thông tin hơn mức đã được huấn luyện để hiểu tình huống của người dùng. RAG hoạt động bằng cách xác định dữ liệu có liên quan đến tình huống trước tiên, tương tự như cách công cụ tìm kiếm xác định các trang web có liên quan đến cụm từ tìm kiếm của người dùng. Để xác định nội dung có liên quan đến yêu cầu của người dùng và nên được sử dụng để làm căn cứ đưa ra phản hồi, RAG sử dụng nhiều phương pháp khác nhau. Các phương pháp này gồm tìm kiếm dựa trên các loại chỉ mục khác nhau, chẳng hạn như chỉ mục đảo ngược sử dụng các kỹ thuật truy xuất thông tin như khớp thuật ngữ hoặc chỉ mục véc-tơ tìm ra sự tương đồng về ngữ nghĩa bằng cách sử dụng so sánh khoảng cách véc-tơ. RAG chuyển dữ liệu đến mô hình cùng với cuộc hội thoại hiện tại sau khi xác định được các tài liệu liên quan. Điều này giúp mô hình hiểu rõ hơn thông tin mô hình đã có và tạo phản hồi dựa trên cơ sở thực tế nhờ có thêm ngữ cảnh. Cuối cùng, RAG kiểm tra phản hồi để đảm bảo phản hồi được hỗ trợ bởi nội dung nguồn được cung cấp cho mô hình. Các tính năng generative AI của Copilot kết hợp RAG theo nhiều cách. Một trong những cách đó sử dụng dữ liệu để trò chuyện, trong đó chatbot dựa trên nguồn dữ liệu của chính khách hàng.

Tinh chỉnh là một phương pháp khác được dùng để tăng cường các mô hình nền tảng. Mô hình nền tảng được hiển thị tập dữ liệu lớn gồm các cặp truy vấn-phản hồi nhằm tăng cường quá trình huấn luyện ban đầu của mô hình đó bằng các mẫu mới nhắm đến một kịch bản cụ thể. Sau đó, có thể triển khai mô hình này dưới dạng mô hình riêng biệt – mô hình được tinh chỉnh cho kịch bản đó. Trong khi mục tiêu của mô hình nền tảng là làm cho kiến thức của AI trở nên thực tế thì mô hình tinh chỉnh giúp cho kiến thức của AI cụ thể hơn đối với một nhiệm vụ hoặc lĩnh vực cụ thể. Microsoft áp dụng nhiều cách để tinh chỉnh. Ví dụ: chúng tôi sử dụng tính năng tạo dòng quy trình trong Power Automate từ các mô tả ngôn ngữ tự nhiên do người dùng cung cấp.

Copilot có đáp ứng các yêu cầu về tuân thủ theo quy định không?

Microsoft Copilot thuộc hệ sinh thái Dynamics 365 và Power Platform và đáp ứng các yêu cầu tương tự về tuân thủ theo quy định. Để biết thêm thông tin về các chứng nhận theo quy định của dịch vụ Microsoft, hãy truy cập vào Service Trust Portal. Ngoài ra, Copilot tuân thủ cam kết của chúng tôi về AI có trách nhiệm. Cam kết này được thực hiện thông qua Tiêu chuẩn về AI có trách nhiệm của chúng tôi. Khi quy định trong lĩnh vực AI thay đổi, Microsoft tiếp tục điều chỉnh và thích ứng để tuân thủ các yêu cầu mới.

Tìm hiểu thêm về Dynamics 365, Power Platform và phạm vi cung cấp của Copilot, vị trí của dữ liệu khách hàng, cũng như mức độ tuân thủ các yêu cầu cụ thể của ngành, khu vực và toàn cầu đối với quản lý dữ liệu.

Tìm hiểu thêm

Copilot trong các ứng dụng Dynamics 365 và Power Platform

Sản phẩm Đặc điểm Bắt buộc phải có Môi trường được quản lý? Cách tắt tính năng này
AI Builder Tình huống trong bản xem trước Không Tình huống trong bản xem trước
Dynamics 365 Business Central Tất cả (Xem toàn bộ danh sách tại aka.ms/bcAI.) Không Bật tính năng
Dynamics 365 Customer Insights - Data Dùng Copilot để tạo phân khúc cho Customer Insights - Data (bản xem trước) Không Customer Insights - Data có cờ riêng cho tất cả các tính năng Copilot của Azure OpenAI.

Tìm hiểu thêm: Cấp quyền sử dụng Copilot trong Customer Insights - Data
Dynamics 365 Customer Insights - Data Tổng quan về báo cáo chuẩn bị dữ liệu (bản xem trước) Không Customer Insights - Data có cờ riêng cho tất cả các tính năng Copilot của Azure OpenAI.

Tìm hiểu thêm: Cấp quyền sử dụng Copilot trong Customer Insights - Data
Dynamics 365 Customer Insights - Data Nhận câu trả lời cho các câu hỏi về khả năng mà Copilot cung cấp (bản xem trước) Không Customer Insights - Data có cờ riêng cho tất cả các tính năng Copilot của Azure OpenAI.

Tìm hiểu thêm: Cấp quyền sử dụng Copilot trong Customer Insights - Data
Dynamics 365 Customer Insights (Dữ liệu) Có hộp thoại với dữ liệu bằng Copilot trong Customer Insights Không Customer Insights - Data có cờ riêng cho tất cả các tính năng Copilot của Azure OpenAI.

Tìm hiểu thêm: Cấp quyền sử dụng Copilot trong Customer Insights - Data
Dynamics 365 Customer Insights - Data Xem cấu hình hệ thống Không Customer Insights - Data có cờ riêng cho tất cả các tính năng Copilot của Azure OpenAI.

Tìm hiểu thêm: Cấp quyền sử dụng Copilot trong Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Copilot giúp bạn học hỏi và làm được nhiều việc hơn (đánh giá) Không Việc copilot này có sẵn trong môi trường của bạn hay không được xác định bởi thiết đặt Power Platform của quản trị viên. Tìm hiểu cách thêm Copilot cho ứng dụng dựa trên mô hình.


Khả năng này là "copilot ứng dụng trong Customer Insights - Journeys" và đó là lý do nó được kích hoạt trong trung tâm quản trị Power Platform. Tìm hiểu thêm: Câu hỏi thường gặp về AI có trách nhiệm
Dynamics 365 Customer Insights - Journeys Tạo hành trình với sự hỗ trợ của AI Không Customer Insights - Journeys có cờ riêng cho các tính năng Copilot.

Tìm hiểu thêm: Cấp quyền sử dụng Copilot trong Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Làm mới và hoàn thiện thư của bạn Không Customer Insights - Journeys có cờ riêng cho các tính năng Copilot.

Tìm hiểu thêm: Cấp quyền sử dụng Copilot trong Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Tạo kiểu cho email bằng các chủ đề được AI hỗ trợ Không Customer Insights - Journeys có cờ riêng cho các tính năng Copilot.

Tìm hiểu thêm: Cấp quyền sử dụng Copilot trong Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Nhắm đúng đối tượng khách hàng bằng cách sử dụng hỗ trợ truy vấn

Không Customer Insights - Journeys có cờ riêng cho các tính năng Copilot.

Tìm hiểu thêm: Cấp quyền sử dụng Copilot trong Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Sử dụng AI để khởi động quá trình tạo email Không Customer Insights - Journeys có cờ riêng cho các tính năng Copilot.

Tìm hiểu thêm: Cấp quyền sử dụng Copilot trong Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Sử dụng hình ảnh trong nội dung của bạn Không Customer Insights - Journeys có cờ riêng cho các tính năng Copilot.

Tìm hiểu thêm: Cấp quyền sử dụng Copilot trong Customer Insights - Journeys
Power Apps Xây dựng ứng dụng thông qua cuộc hội thoại Không Quản lý thiết đặt tính năng
Power Apps Hỗ trợ Copilot điền biểu mẫu trong các ứng dụng dựa trên mô hình Không Quản lý thiết đặt tính năng
Power Apps Soạn thảo văn bản đầu vào bằng Copilot với nội dung được soạn thảo chuẩn chỉnh Không, giấy phép người dùng cao cấp Soạn thảo văn bản đầu vào bằng Copilot với nội dung được soạn thảo chuẩn chỉnh
Power Apps Excel vào bảng Không Quản lý thiết đặt tính năng
Power Apps Sử dụng ngôn ngữ tự nhiên để chỉnh sửa ứng dụng bằng bảng Copilot Không Quản lý thiết đặt tính năng
Power Automate Copilot trong các dòng đám mây trên Trang chủ và trong công cụ thiết kế (Xem Bắt đầu với Copilot trong dòng đám mây để biết chi tiết.) Không Liên hệ với bộ phận hỗ trợ để chạy tập lệnh PowerShell.
Power Pages Tất cả (Xem Tổng quan về Copilot trong Power Pages để biết chi tiết.) Không Tắt Copilot trong Power Pages

Tìm hiểu thêm tại Câu hỏi thường gặp liên quan đến việc chia sẻ dữ liệu tùy chọn cho tính năng Copilot AI trong Dynamics 365 và Power Platform.

Mức độ khả dụng theo khu vực và ngôn ngữ

Phạm vi sử dụng quốc tế của Copilot

Di chuyển dữ liệu trên các khu vực địa lý

Bảo mật tại Microsoft

Quyền riêng tư tại Microsoft

Tuyên bố về quyền riêng tư của Microsoft

AI có trách nhiệm