Eventos
Aceite o Desafio do Microsoft Learn
19 de nov., 23 - 10 de jan., 23
Ignite Edition - Desenvolva habilidades em produtos de segurança da Microsoft e ganhe um selo digital até 10 de janeiro!
Registrar agoraNão há mais suporte para esse navegador.
Atualize o Microsoft Edge para aproveitar os recursos, o suporte técnico e as atualizações de segurança mais recentes.
Orientações de licenciamento do Microsoft 365 para conformidade com & de segurança
Utilize o Microsoft Purview para mitigar e gerir os riscos associados à utilização de IA e implementar controlos de proteção e governação correspondentes.
A Gestão da Postura de Segurança de Dados do Microsoft Purview para IA fornece ferramentas gráficas e relatórios fáceis de utilizar para obter rapidamente informações sobre a utilização de IA na sua organização. As políticas com um clique ajudam-no a proteger os seus dados e a cumprir os requisitos regulamentares.
Utilize a Gestão da Postura de Segurança de Dados para IA em conjunto com outras capacidades do Microsoft Purview para reforçar a segurança e conformidade dos seus dados para Microsoft 365 Copilot e Microsoft Copilot:
Observação
Para marcar se os planos de licenciamento da sua organização suportam estas capacidades, consulte a ligação de orientação de licenciamento na parte superior da página. Para obter informações de licenciamento para Microsoft 365 Copilot em si, veja a descrição do serviço para Microsoft 365 Copilot.
Utilize as secções seguintes para saber mais sobre a Gestão da Postura de Segurança de Dados para IA e as capacidades do Microsoft Purview que fornecem controlos de conformidade e segurança de dados adicionais para acelerar a adoção da sua organização de Microsoft 365 Copilot e outras aplicações de IA geradoras. Se não estiver familiarizado com o Microsoft Purview, também poderá encontrar uma descrição geral do produto útil: Saiba mais sobre o Microsoft Purview.
Para obter informações mais gerais sobre os requisitos de segurança e conformidade para Microsoft 365 Copilot, consulte Dados, Privacidade e Segurança para Microsoft 365 Copilot. Para Microsoft Copilot, consulte Privacidade e proteções do Copilot.
A Gestão da Postura de Segurança de Dados do Microsoft Purview para IA (DSPM para IA) a partir do portal do Microsoft Purview ou do portal de conformidade do Microsoft Purview fornece uma localização de gestão central para o ajudar a proteger rapidamente os dados das aplicações de IA e a monitorizar proativamente a utilização de IA. Estas aplicações incluem Microsoft 365 Copilot, outros copilots da Microsoft e aplicações de IA de módulos de linguagem grandes (LLMs) de terceiros.
A Gestão da Postura de Segurança de Dados para IA oferece um conjunto de capacidades para que possa adotar a IA em segurança sem ter de escolher entre produtividade e proteção:
Informações e análises sobre a atividade de IA na sua organização
Políticas prontas a utilizar para proteger dados e evitar a perda de dados em pedidos de IA
Avaliações de dados para identificar, remediar e monitorizar potenciais partilhas de dados.
Controlos de conformidade para aplicar políticas de armazenamento e processamento de dados ideais
Para obter uma lista de sites de IA de terceiros suportados, como os utilizados para Gemini e ChatGPT, consulte Sites de IA suportados pelo Microsoft Purview para obter proteções de conformidade e segurança de dados.
Para o ajudar a obter informações mais rapidamente sobre a utilização de IA e proteger os seus dados, a Gestão da Postura de Segurança de Dados para IA fornece algumas políticas pré-configuradas recomendadas que pode ativar com um único clique. Aguarde, pelo menos, 24 horas para que estas novas políticas recolham dados para apresentar os resultados na Gestão da Postura de Segurança de Dados para IA ou reflita quaisquer alterações efetuadas às predefinições.
Sem necessidade de ativação e agora em pré-visualização, a Gestão da Postura de Segurança de Dados para IA executa automaticamente uma avaliação de dados semanal para os 100 principais sites do SharePoint utilizados pelo Microsoft Copilot. Pode complementá-lo com as suas próprias avaliações de dados personalizadas. Estas avaliações foram concebidas especificamente para ajudar a identificar, remediar e monitorizar potenciais partilhas de dados, para que possa implementar Microsoft 365 Copilot com maior confiança.
Para começar a utilizar a Gestão da Postura de Segurança de Dados para IA, pode utilizar o portal do Microsoft Purview ou o portal de conformidade do Microsoft Purview. Precisa de uma conta que tenha as permissões adequadas para a gestão de conformidade, como uma conta que seja membro da função de grupo Administrador de Conformidade do Microsoft Entra.
Dependendo do portal que estiver usando, navegue até um dos seguintes locais:
Iniciar sessão no portal> do Microsoft PurviewSoluções>DSPM para IA.
Inicie sessão no portal de conformidade do Microsoft Purview>DSPM para IA.
Na Descrição geral, reveja a secção Introdução para saber mais sobre a Gestão da Postura de Segurança de Dados para IA e as ações imediatas que pode efetuar. Selecione cada um deles para apresentar o painel de lista de opções para saber mais, tomar medidas e verificar a sua status atual.
Ação | Mais informações |
---|---|
Ativar Auditoria do Microsoft Purview | A auditoria está ativada por predefinição para novos inquilinos, pelo que poderá já cumprir este pré-requisito. Se o fizer e os utilizadores já tiverem licenças atribuídas para a Copilot, começa a ver informações sobre as atividades do Copilot na secção Relatórios mais abaixo na página. |
Instalar a extensão do browser Microsoft Purview | Um pré-requisito para sites de IA de terceiros. |
Integrar dispositivos no Microsoft Purview | Também um pré-requisito para sites de IA de terceiros. |
Expandir as suas informações para deteção de dados | Políticas de um clique para recolher informações sobre utilizadores que visitam sites de IA geradores de terceiros e enviam informações confidenciais aos mesmos. A opção é a mesma que o botão Expandir as suas informações na secção Análise de dados de IA mais abaixo na página. |
Para obter mais informações sobre os pré-requisitos, veja Pré-requisitos da Gestão da Postura de Segurança de Dados para IA.
Para obter mais informações sobre as políticas pré-configuradas que pode ativar, consulte Políticas com um clique a partir da Gestão da Postura de Segurança de Dados para IA.
Em seguida, reveja a secção Recomendações e decida se pretende implementar opções relevantes para o seu inquilino. Veja cada recomendação para compreender como são relevantes para os seus dados e saiba mais.
Estas opções incluem executar uma avaliação de dados em sites do SharePoint, criar etiquetas de confidencialidade e políticas para proteger os seus dados e criar algumas políticas predefinidas para o ajudar a detetar e proteger dados confidenciais enviados para sites de IA geradores. Exemplos de recomendações:
Pode utilizar a ligação Ver todas as recomendações ou Recomendações no painel de navegação para ver todas as recomendações disponíveis para o seu inquilino e as respetivas status. Quando uma recomendação é concluída ou dispensada, já não a vê na página Descrição geral .
Utilize a secção Relatórios ou a página Relatórios do painel de navegação para ver os resultados das políticas predefinidas criadas. Tem de esperar pelo menos um dia para que os relatórios sejam preenchidos. Selecione as categorias de experiências de Microsoft Copilot, aplicações de IA Empresarial e Outras aplicações de IA para o ajudar a identificar a aplicação de IA geradora específica.
Utilize a página Políticas para monitorizar a status das políticas de um clique predefinidas criadas e políticas relacionadas com IA de outras soluções do Microsoft Purview. Para editar as políticas, utilize a solução de gestão correspondente no portal. Por exemplo, para o DSPM para IA – Comportamento não ético no Copilot, pode rever e remediar as correspondências da solução de Conformidade de Comunicações .
Observação
Se tiver as políticas de retenção mais antigas para a localização chats do Teams e interações do Copilot, estas não serão incluídas nesta página. Saiba como criar políticas de retenção separadas para experiências Microsoft Copilot que incluam Microsoft 365 Copilot e serão apresentadas nesta página política.
Selecione Explorador de atividades para ver os detalhes dos dados recolhidos das suas políticas.
Estas informações mais detalhadas incluem o tipo de atividade e o utilizador, data e hora, categoria e aplicação da aplicação de IA, aplicação acedida no, quaisquer tipos de informações confidenciais, ficheiros referenciados e ficheiros confidenciais referenciados.
Exemplos de atividades incluem interação de IA, tipos de informações confidenciais e visita ao site de IA. Os pedidos e as respostas do Copilot são incluídos nos eventos de interação de IA quando tem as permisisons certas. Para obter mais informações sobre os eventos, veja Eventos do explorador de atividades.
À semelhança das categorias de relatórios, as cargas de trabalho incluem Microsoft Copilot Experiências, aplicações de IA Empresarial e Outras aplicações de IA. Exemplos de um ID de aplicação e um anfitrião de aplicações para experiências de Microsoft Copilot incluem Copilots do Microsoft 365 e Word respetivamente.
Selecione Avaliações de dados (pré-visualização) para identificar e corrigir potenciais riscos de partilha de dados na sua organização. Uma avaliação de dados predefinida é executada automaticamente semanalmente para os 100 principais sites do SharePoint utilizados pela Copilot na sua organização e poderá já ter executado uma avaliação personalizada como uma das recomendações. No entanto, volte regularmente a esta opção para marcar os resultados semanais da avaliação predefinida e executar avaliações personalizadas quando quiser marcar para diferentes utilizadores ou sites específicos.
Devido à potência e à velocidade, a IA pode apresentar proativamente conteúdos que podem ser obsoletos, com permissões excessivas ou sem controlos de governação, a IA geradora amplifica o problema da partilha excessiva de dados. Utilize avaliações de dados para identificar e remediar problemas.
Para ver a avaliação de dados criada automaticamente para o seu inquilino, na categoria Avaliações predefinidas , selecione Avaliação de Partilha Excedida para a semana do <mês, ano> a partir da lista. Nas colunas de cada site comunicado, verá informações como o número total de itens encontrados, quantos foram acedidos e com que frequência e quantos tipos de informações confidenciais foram encontrados e acedidos.
Na lista, selecione cada site para aceder ao painel de lista de opções que tem separadores para Descrição Geral, Proteger e Monitorizar. Utilize as informações em cada separador para saber mais e efetue as ações recomendadas. Por exemplo:
Utilize o separador Proteger para selecionar opções para remediar a partilha excessiva, que incluem:
Utilize o separador Monitorizar para ver o número de itens no site partilhados com qualquer pessoa, partilhados com todas as pessoas na organização, partilhados com pessoas específicas e partilhados externamente. Selecione Iniciar uma revisão de acesso a sites do SharePoint para obter informações sobre como utilizar os relatórios de governação de acesso a dados do SharePoint.
Captura de ecrã de exemplo, depois de uma avaliação de dados ter sido executada, a mostrar o separador Proteger com resoluções para problemas encontrados:
Para criar a sua própria avaliação de dados personalizada, selecione Criar avaliação para identificar potenciais problemas de partilha excedida para todos os utilizadores ou utilizadores selecionados, as origens de dados a analisar (atualmente suportadas apenas para o SharePoint) e execute a avaliação.
Se selecionar todos os sites, não precisa de ser membro dos sites, mas tem de ser membro para selecionar sites específicos.
Esta avaliação de dados é criada na categoria Avaliações personalizadas . Aguarde que a status da sua avaliação apresente a Análise concluída e selecione-a para ver os detalhes. Para voltar a executar uma avaliação de dados personalizada, utilize a opção duplicada para criar uma nova avaliação, começando pelas mesmas seleções.
Atualmente, as avaliações de dados suportam um máximo de 200 000 itens por localização.
Para Microsoft 365 Copilot e Microsoft Copilot, utilize estas políticas, ferramentas e informações em conjunto com proteções adicionais e capacidades de conformidade do Microsoft Purview.
Microsoft 365 Copilot utiliza controlos existentes para garantir que os dados armazenados no seu inquilino nunca são devolvidos ao utilizador ou utilizados por um modelo de linguagem grande (LLM) se o utilizador não tiver acesso a esses dados. Quando os dados têm etiquetas de confidencialidade da sua organização aplicadas ao conteúdo, existe uma camada adicional de proteção:
Quando um ficheiro é aberto no Word, Excel, PowerPoint ou, da mesma forma, um evento de e-mail ou calendário é aberto no Outlook, a confidencialidade dos dados é apresentada aos utilizadores na aplicação com o nome da etiqueta e marcações de conteúdo (como texto de cabeçalho ou rodapé) que foram configurados para a etiqueta. Loop componentes e páginas também suportam as mesmas etiquetas de confidencialidade.
Quando a etiqueta de confidencialidade aplica encriptação, os utilizadores têm de ter o direito de utilização EXTRAIR, bem como VER, para que o Copilot devolva os dados.
Esta proteção estende-se aos dados armazenados fora do seu inquilino do Microsoft 365 quando são abertos numa aplicação do Office (dados em utilização). Por exemplo, armazenamento local, partilhas de rede e armazenamento na cloud.
Dica
Se ainda não o fez, recomendamos que ative as etiquetas de confidencialidade para o SharePoint e o OneDrive e também se familiarize com os tipos de ficheiro e as configurações de etiquetas que estes serviços podem processar. Quando as etiquetas de confidencialidade não estão ativadas para estes serviços, os ficheiros encriptados aos quais Microsoft 365 Copilot podem aceder estão limitados aos dados utilizados a partir de aplicações do Office no Windows.
Para obter instruções, consulte Ativar etiquetas de confidencialidade para ficheiros do Office no SharePoint e no OneDrive.
Além disso, quando utiliza Business Chat (anteriormente com base no Graph e Microsoft 365 Chat) que podem aceder a dados de um vasto leque de conteúdos, a sensibilidade dos dados etiquetados devolvidos pelo Microsoft 365 Copilot torna-se visível para os utilizadores com a etiqueta de confidencialidade apresentada para citações e os itens listados na resposta. Ao utilizar o número de prioridade das etiquetas de confidencialidade definido no portal do Microsoft Purview ou no portal de conformidade do Microsoft Purview, a resposta mais recente em Copilot apresenta a etiqueta de confidencialidade de prioridade mais alta a partir dos dados utilizados para essa conversa copilot.
Embora os administradores de conformidade definam a prioridade de uma etiqueta de confidencialidade, um número de prioridade mais elevado geralmente indica uma maior sensibilidade do conteúdo, com permissões mais restritivas. Como resultado, as respostas copilot são etiquetadas com a etiqueta de confidencialidade mais restritiva.
Observação
Se os itens forem encriptados por Proteção de Informações do Microsoft Purview mas não tiverem uma etiqueta de confidencialidade, Microsoft 365 Copilot também não devolverão estes itens aos utilizadores se a encriptação não incluir os direitos de utilização EXTRACT ou VIEW para o utilizador.
Se ainda não estiver a utilizar etiquetas de confidencialidade, consulte Introdução às etiquetas de confidencialidade.
Embora as políticas DLP não suportem a classificação de dados para interações Microsoft 365 Copilot, os tipos de informações confidenciais e classificadores treináveis são suportados com políticas de conformidade de comunicação para identificar dados confidenciais em pedidos do utilizador para Copilot e respostas.
Quando utiliza Microsoft 365 Copilot para criar novos conteúdos com base num item que tenha uma etiqueta de confidencialidade aplicada, a etiqueta de confidencialidade do ficheiro de origem é herdada automaticamente, com as definições de proteção da etiqueta.
Por exemplo, um utilizador seleciona Rascunho com Copilot no Word e, em seguida, Referenciar um ficheiro. Ou um utilizador seleciona Criar apresentação a partir de um ficheiro no PowerPoint ou Editar em Páginas a partir de Business Chat. O conteúdo de origem tem a etiqueta de confidencialidade Confidencial\Qualquer pessoa (sem restrições) aplicada e essa etiqueta está configurada para aplicar um rodapé que apresenta "Confidencial". O novo conteúdo é automaticamente identificado como Confidencial\Qualquer Pessoa (sem restrições) com o mesmo rodapé.
Para ver um exemplo disto em ação, watch a seguinte demonstração da sessão do Ignite 2023, "A preparar a sua empresa para Microsoft 365 Copilot". A demonstração mostra como a etiqueta de confidencialidade predefinida de Geral é substituída por uma etiqueta Confidencial quando um utilizador faz rascunhos com o Copilot e faz referência a um ficheiro etiquetado. A barra de informações no friso informa o utilizador de que o conteúdo criado pela Copilot resultou na aplicação automática da nova etiqueta:
Se forem utilizados vários ficheiros para criar novos conteúdos, a etiqueta de confidencialidade com a prioridade mais alta é utilizada para a herança de etiquetas.
Tal como acontece com todos os cenários de etiquetagem automática, o utilizador pode sempre substituir e substituir uma etiqueta herdada (ou remover, se não estiver a utilizar a etiquetagem obrigatória).
Mesmo que uma etiqueta de confidencialidade não seja aplicada ao conteúdo, os serviços e produtos poderão utilizar as capacidades de encriptação do serviço Azure Rights Management. Como resultado, Microsoft 365 Copilot ainda pode marcar para os direitos de utilização VER e EXTRAIR antes de devolver dados e ligações para um utilizador, mas não existe nenhuma herança automática de proteção para novos itens.
Dica
Obterá a melhor experiência de utilizador quando utilizar sempre etiquetas de confidencialidade para proteger os seus dados e a encriptação é aplicada por uma etiqueta.
Exemplos de produtos e serviços que podem utilizar as capacidades de encriptação do serviço Azure Rights Management sem etiquetas de confidencialidade:
Para outros métodos de encriptação que não utilizam o serviço Azure Rights Management:
Os e-mails protegidos por S/MIME não serão devolvidos pelo Copilot e o Copilot não está disponível no Outlook quando um e-mail protegido por S/MIME está aberto.
Os documentos protegidos por palavra-passe não podem ser acedidos por Microsoft 365 Copilot a menos que já estejam abertos pelo utilizador na mesma aplicação (dados em utilização). As palavras-passe não são herdadas por um item de destino.
Tal como acontece com outros serviços do Microsoft 365, como a Deteção de Dados Eletrónicos e a pesquisa, os itens encriptados com a Chave de Cliente do Microsoft Purview ou a sua própria chave de raiz (BYOK) são suportados e elegíveis para serem devolvidos por Microsoft 365 Copilot.
Utilize as capacidades de conformidade do Microsoft Purview com a proteção de dados empresariais para suportar os seus requisitos de risco e conformidade para Microsoft 365 Copilot, Microsoft Copilot e outras aplicações de IA geradoras.
As interações com o Copilot podem ser monitorizadas para cada utilizador no seu inquilino. Como tal, pode utilizar a classificação do Purview (tipos de informações confidenciais e classificadores treináveis), a pesquisa de conteúdos, a conformidade de comunicações, a auditoria, a Deteção de Dados Eletrónicos e as capacidades de retenção e eliminação automáticas através de políticas de retenção.
Para a conformidade de comunicação, pode analisar pedidos de utilizador e respostas copilot para detetar interações inadequadas ou arriscadas ou partilhar informações confidenciais. Para obter mais informações, veja Configure a communication compliance policy to detect for Copilot interactions (Configurar uma política de conformidade de comunicação para detetar interações do Copilot).
Para auditoria, os detalhes são capturados no registo de auditoria unificado quando os utilizadores interagem com o Copilot. Os eventos incluem como e quando os utilizadores interagem com o Copilot, no qual o serviço microsoft 365 ocorreu, e referências aos ficheiros armazenados no Microsoft 365 que foram acedidos durante a interação. Se estes ficheiros tiverem uma etiqueta de confidencialidade aplicada, também é capturada. Na solução Auditoria do portal do Microsoft Purview ou do portal de conformidade do Microsoft Purview, selecione Atividades copiais e Interação com o Copilot. Também pode selecionar Copilot como uma carga de trabalho. Por exemplo, no portal de conformidade:
Para pesquisa de conteúdos, uma vez que os pedidos do utilizador para Copilot e as respostas da Copilot são armazenadas na caixa de correio de um utilizador, podem ser pesquisadas e obtidas quando a caixa de correio do utilizador é selecionada como a origem de uma consulta de pesquisa. Selecione e obtenha estes dados a partir da caixa de correio de origem ao selecionar a partir do construtor de consultas Adicionar condição>Tipo>igual a qualquer uma das> interaçõesAdicionar/Remover mais opções>Copilot.
Da mesma forma, para a Deteção de Dados Eletrónicos, utiliza o mesmo processo de consulta para selecionar caixas de correio e obter pedidos de utilizador para Copilot e respostas da Copilot. Depois de a coleção ser criada e criada na fase de revisão na Deteção de Dados Eletrónicos (Premium), estes dados estão disponíveis para realizar todas as ações de revisão existentes. Estas coleções e conjuntos de revisão podem, em seguida, ser colocados em espera ou exportados. Se precisar de eliminar estes dados, consulte Procurar e eliminar dados de Copilot.
Para políticas de retenção que suportam retenção e eliminação automáticas, os pedidos do utilizador ao Copilot e as respostas da Copilot são identificados pelos Copilots do Microsoft 365, incluídos na localização da política experiências do Microsoft Copilot. Anteriormente incluídas numa localização de política denominada Chats do Teams e interação copilot, estas políticas de retenção mais antigas estão a ser substituídas por localizações separadas. Para obter mais informações, consulte Separar uma política de "Chats do Teams e interações do Copilot" existente.
Para obter informações detalhadas sobre este trabalho de retenção, veja Saiba mais sobre a retenção para aplicações copilot & IA.
Tal como acontece com todas as políticas de retenção e retenções, se mais do que uma política para a mesma localização se aplicar a um utilizador, os princípios de retenção resolve quaisquer conflitos. Por exemplo, os dados são retidos durante a maior duração de todas as políticas de retenção aplicadas ou retenções de Deteção de Dados Eletrónicos.
Para que as etiquetas de retenção retenham automaticamente ficheiros referenciados no Copilot, selecione a opção para anexos na nuvem com uma política de etiqueta de retenção de aplicações automáticas: Aplicar etiqueta a anexos na nuvem e ligações partilhadas no Exchange, Teams, Viva Engage e Copilot. Tal como acontece com todos os anexos na nuvem retidos, a versão do ficheiro no momento em que é referenciada é mantida.
Para obter informações detalhadas sobre como funciona esta retenção, veja Como funciona a retenção com anexos na cloud.
Para obter instruções de configuração:
Para configurar políticas de conformidade de comunicação para interações copilot, veja Criar e gerir políticas de conformidade de comunicação.
Para procurar interações do Copilot no registo de auditoria, veja Pesquisar o registo de auditoria.
Para utilizar a pesquisa de conteúdos para encontrar interações do Copilot, veja Procurar conteúdo.
Para utilizar a Deteção de Dados Eletrónicos para interações de Copilot, veja soluções de Descoberta Eletrônica do Microsoft Purview.
Para criar ou alterar uma política de retenção para interações copilot, veja Criar e configurar políticas de retenção.
Para criar uma política de etiqueta de retenção automática para ficheiros referenciados no Copilot, consulte Aplicar automaticamente uma etiqueta de retenção para reter ou eliminar conteúdos.
Anúncio de publicação de blogue: Acelerar a adoção de IA com capacidades de segurança e governação de próxima geração
Para obter informações mais detalhadas, veja Considerações sobre a Gestão da Postura de Segurança de Dados do Microsoft Purview para IA e segurança de dados e proteções de conformidade para o Copilot.
Microsoft 365 Copilot:
Recursos relacionados:
Eventos
Aceite o Desafio do Microsoft Learn
19 de nov., 23 - 10 de jan., 23
Ignite Edition - Desenvolva habilidades em produtos de segurança da Microsoft e ganhe um selo digital até 10 de janeiro!
Registrar agora