Skip to Content (custom) - bh

Angle

As Cinco Principais Perguntas que o Jurídico Deve Fazer ao TI Durante a Adoção do Copilot para Microsoft 365

  • Information governance

Não se trata mais de um exagero. As organizações estão buscando adotar a IA de geração para aumentar a produtividade de sua força de trabalho.  

Há também a demanda do usuário final a ser atendida. As pessoas usam a IA de geração em suas vidas pessoais e querem usá-la no trabalho. Os trabalhadores estão avaliando as opções de emprego com base nas ferramentas de IA de geração disponíveis na empresa em potencial.  De cima para baixo, as organizações precisam garantir que estão acompanhando a concorrência por talentos e produtividade.  

E isso está se mostrando eficaz.  Um estudo recente da Forrester projetou aumento da produtividade, reduções de custos, redução do tempo de integração e um ROI impressionante estimado em até 450%.

Tudo isso está impulsionando a adoção em massa e de maneiras nunca vistas antes.
 
Organizações empresariais grandes e conservadoras, que historicamente demoram a adotar tecnologia, agora estão comprando dezenas de milhares de licenças do Microsoft 365 Copilot e promovendo a adoção em um ritmo acelerado.    

Em meio a todos esses desenvolvimentos empolgantes, a principal pergunta na mente de todo consultor jurídico geral ou diretor jurídico é: Como implementamos o Copilot para Microsoft 365 de forma responsável?  

Aqui estão cinco perguntas que o departamento jurídico pode fazer à TI para ajudar a garantir que a adoção do Copilot para Microsoft 365 atenda às considerações legais. A boa notícia é que abordar essas considerações também ajudará a aumentar a eficiência do Copilot para Microsoft 365 e a obter melhores resultados!

Pergunta #1: Como podemos garantir que o Copilot para Microsoft 365 não exponha informações confidenciais a funcionários que não deveriam ter acesso?

Um usuário final normalmente tem acesso ao Outlook, ao OneDrive, ao Teams e a outros aplicativos, mas provavelmente tem acesso a informações das quais não tem conhecimento, como arquivos em determinados sites do SharePoint ou do OneDrive. Suponha que um funcionário tenha compartilhado um arquivo usando a opção “compartilhar com qualquer pessoa da minha organização”. Isso não era um risco significativo anteriormente, pois “qualquer pessoa da minha organização” também precisaria saber o link para acessar o arquivo. No entanto, quando um usuário final envia uma solicitação ao Copilot para o Microsoft 365, ele se baseia na utilização de todos os arquivos que o usuário final pode acessar. Portanto, a resposta do Copilot pode conter informações às quais o usuário final não deveria ter acesso ou às quais ele não sabe que tem acesso.  

Para lidar com essa preocupação, as organizações podem aproveitar os recursos de segurança e conformidade de dados do Microsoft 365 Purview para identificar e rotular conteúdo confidencial, incluindo dados sujeitos às normas GDPR, HIPAA, PCI, privacidade e materiais comerciais confidenciais definidos pela organização, por exemplo, um alvo confidencial de fusões e aquisições, propriedade intelectual etc.  Para acelerar a implementação do Copilot, as organizações podem proteger os dados superexpostos ao Copilot em etapas com base nas categorias de risco. Por exemplo, primeiro identificar e corrigir os dados superexpostos que contêm conteúdo confidencial permite que os usuários finais tenham acesso ao Copilot rapidamente. Posteriormente, a equipe pode abordar a higiene de permissão em dados superexpostos que não tenham conteúdo confidencial.  

Pergunta #2: Como podemos evitar que o Copilot para Microsoft 365 use dados desatualizados ou imprecisos?    

Como o Copilot para Microsoft 365 se baseia em dados acessíveis, esses dados podem estar desatualizados ou podem conter informações factualmente incorretas. Muitas organizações retêm amplamente os dados devido a uma cultura de “manter tudo” ou não implementaram práticas de descarte automatizado alinhadas com as políticas de retenção corporativas.

O Copilot para Microsoft 365 será uma ferramenta melhor para seus usuários finais se usar dados precisos e exatos. Quando uma organização está implementando o Copilot for Microsoft 365, é um ótimo momento para revisar as políticas de retenção e disposição de dados. Boas práticas de retenção e disposição de dados reduzem o volume de dados com base no período e na duplicidade de conteúdo, ajudando a evitar respostas ruins do Copilot para Microsoft 365. Essas mesmas políticas de retenção também reduzirão os dados sujeitos a futuras retenções legais, diminuindo os custos de litígio e tornando-os vantajosos tanto para o setor jurídico quanto para a TI.

Pergunta #3: Como podemos evitar a perda ou o vazamento de dados?

Ao seguir as etapas acima para definir o conteúdo confidencial e implementar a classificação automática de dados, as organizações podem aproveitar a boa higiene dos dados e aplicar controles proativos para reduzir o risco de perda ou vazamento de dados. Com o Microsoft Purview Data Loss Prevent (DLP), as organizações podem impedir que os usuários compartilhem informações confidenciais em uma conta de e-mail pessoal ou em outros destinos não autorizados. Os controles proativos podem avisar os usuários finais, bloquear a atividade, registrar a atividade e direcionar uma pessoa centralizada para agir sobre ela. Ele também pode identificar quaisquer respostas do Copilot que contenham informações de um arquivo já classificado, e o novo arquivo herdará a classificação e os controles associados. 

Pergunta #4: Como você monitora e controla os prompts e as respostas no Copilot para Microsoft 365?

Fora da caixa, a tecnologia Gen AI é inteligente. Ela não permitirá que os usuários finais façam perguntas tolas.  

Além disso, a implementação adequada de um esquema de classificação e de controles de política de DLP protegerá os prompts e as respostas em um nível individual.

Se persistirem as preocupações de que os usuários finais solicitarão informações sensíveis ou confidenciais, poderão ser aplicadas camadas adicionais de proteção. Isso inclui limitar o que os usuários finais podem perguntar em um prompt ou impedi-los de fazer perguntas confidenciais a uma organização. As respostas também serão avaliadas quanto à conformidade com as políticas organizacionais para evitar que informações confidenciais sejam exibidas a um usuário final que não deveria ter acesso a esse conteúdo.

Pergunta #5: Se o Copilot criar novos documentos, como alinharemos nossas políticas de retenção de dados com nossas práticas de descoberta eletrônica?

Hoje, a retenção de prompts do Copilot está vinculada ao Microsoft Teams. Se um usuário final pedir ao Copilot para Microsoft 365 para resumir um documento do Word, a caixa de correio do usuário final retém o prompt e a resposta.  

Há um debate no setor sobre se isso deve ser considerado outra fonte de dados, como um bate-papo, mas tecnicamente não é. É um conteúdo transitório ou pode ser considerado uma cópia conveniente e não precisa ser mantido para fins de retenção de registros. É um conteúdo transitório ou pode ser considerado uma cópia de conveniência, e não precisa ser mantido para fins de retenção de registros. Ainda assim, uma organização pode querer reter o Copilot para dados gerados pelo Microsoft 365 para cenários de litígio trabalhista, investigações forenses, etc. As organizações devem considerar e colocar em prática políticas relacionadas a esse tipo de dados.  

Pergunta bônus que todos deveriam estar fazendo: Qual é o prazo realista para adotar a IA de geração de forma responsável?

Um dos aspectos mais importantes e demorados da preparação para a adoção da IA de geração é garantir o controle e a segurança dos dados. Em média, a implementação completa de uma organização de nível empresarial levará seis meses. Uma maneira de acelerar o tempo de obtenção de valor é utilizar uma abordagem ágil e implantar a IA de geração em etapas. Dessa forma, as ferramentas da Gen AI podem chegar às mãos dos usuários finais mais importantes, e os aprendizados podem ser aplicados a partir desses primeiros usuários ao implantar o programa em outros grupos de uma organização.  

Essa abordagem pode acelerar a adoção e é mais eficaz do que tentar corrigir problemas e implementar controles depois que suas equipes mais amplas começarem a adotar. Embora uma abordagem ágil não seja nova, a análise em camadas de informações confidenciais e controles de acesso permite que uma organização reduza o risco associado à implementação da IA de geração.

Saiba mais sobre os serviços e a avaliação de prontidão para adoção do Responsible AI e do Copilot para Microsoft 365 da Epiq, incluindo como eles podem ajudar sua organização. 

A Epiq tem experiência em aconselhar várias organizações clientes, além de implementar o Copilot para Microsoft 365 dentro da Epiq. Nosso maior compromisso até o momento foi com uma única organização com 25.000 licenças do Copilot for Microsoft 365 e mais de 100.000 usuários finais. Por meio desse trabalho, desenvolvemos nossa avaliação e serviços de prontidão do Responsible AI e do Copilot for Microsoft 365 para ajudar as equipes jurídicas e de TI a colocar a Gen AI para trabalhar rapidamente em suas organizações. Esse programa de consultoria aborda as perguntas mais urgentes que um consultor jurídico geral ou chefe do departamento jurídico deve fazer à equipe de TI para garantir a adoção bem-sucedida do Copilot.   


Jon Kessler, Vice-Presidente de governança de informações, Epiq 
Jon Kessler é vice-presidente de governança de informações da Epiq, onde lidera uma equipe global que se concentra no Microsoft Purview, adoção responsável de IA, migração de dados, retenção legal, privacidade de dados, gerenciamento de riscos internos, gerenciamento do ciclo de vida de dados, consultoria de segurança de dados e gerenciamento de processos de dados de fusões e aquisições. Ele tem ampla experiência trabalhando em assuntos complexos em diversos setores e frequentemente fornece treinamento formal de conformidade e eDiscovery para agências governamentais e empresas da Fortune 500.

 

O conteúdo deste artigo é destinado apenas a fornecer informações gerais e não a oferecer aconselhamento ou opiniões jurídicas.

Subscribe to Future Blog Posts