Skip to Content (custom) - bh

Angle

ChatGPT: Qual é o problema?
Desmistificando a IA generativa no setor jurídico

  • Legal Operations
  • 4 minutos

O que está acontecendo com o ChatGPT? Esse novo chatbot, alimentado por um modelo de linguagem baseado em inteligência artificial (IA) chamado GPT-3, causou muitas ondas recentemente em nosso setor. Os usuários podem fazer perguntas sobre qualquer assunto, e o bot se envolverá em um diálogo de conversação com respostas muito organizadas e sucintas que, muitas vezes, são indistinguíveis dos resultados gerados por humanos.

O GPT-3, da fundação OpenAI, faz parte de uma família de modelos de IA conhecidos como Large Language Models (LLMs). Essa é uma área de pesquisa (IA generativa) que está avançando rapidamente, com o recente anúncio do GPT-4, e LLMs semelhantes, como o LaMDA do Google, também são notícia. A capacidade do bot ChatGPT de entender a linguagem é notável e parece superior a qualquer outro LLM atualmente disponível ao público, embora seja importante entender que ele é especializado e treinado em um subconjunto de dados muito menor do que o próprio GPT-3. Os usuários do ChatGPT podem fornecer feedback sobre as respostas, que é usado para ajustar ainda mais o aplicativo. No momento, o uso geral do ChatGPT é gratuito durante a fase inicial, com opções avançadas de associação disponíveis mediante o pagamento de uma taxa.

As pessoas já estão começando a usar o ChatGPT para obter respostas a perguntas cotidianas e até mesmo para alguns fins de pesquisa. Para testar os recursos, os usuários até pediram ao ChatGPT para fazer testes padronizados. Embora não tenha funcionado em todos, ele obteve pontuações de aprovação em alguns testes, incluindo o Uniform Bar Exam (UBE) dos EUA e o Medical College Admission Test (MCAT).

Como acontece com qualquer tecnologia emergente, é fundamental equilibrar os benefícios e os riscos ao utilizar essa tecnologia para fins comerciais. Do ponto de vista jurídico, é necessário entender os obstáculos exclusivos de coleta e analisar os benefícios que essa tecnologia pode oferecer para fins de eDiscovery/eDisclosure; outros casos de uso para advogados e seus clientes; e como a ética pode ser considerada em qualquer empreendimento baseado em LLM.

Colocando o ChatGPT para trabalhar

Com as novas tendências tecnológicas, muitas vezes surgem preocupações sobre se determinadas ferramentas substituirão os seres humanos, especialmente no setor jurídico. O sentimento se aplica aqui, pois já houve questionamentos sobre se a GPT-3 e outros modelos de linguagem de IA semelhantes poderiam assumir a função humana em trabalhos que ainda exigem um elemento de supervisão. No espaço de eDiscovery, os LLMs poderiam revisar e sinalizar documentos responsivos sem a necessidade de supervisão humana? Ou isso parece muito rebuscado? Antes de responder a essa pergunta, dê uma olhada no que foi respondido rapidamente quando pedimos ao ChatGPT para escrever um blog sobre ChatGPT e eDiscovery:

O ChatGPT, um modelo de linguagem de ponta desenvolvido pela OpenAI, rapidamente ganhou reconhecimento por sua capacidade de processar e entender a linguagem natural. Como resultado, ele se tornou uma ferramenta inestimável para vários setores, inclusive o jurídico.

No campo da descoberta eletrônica, o uso do ChatGPT revolucionou a maneira como os advogados abordam o processo de descoberta. Com seus recursos avançados de processamento de linguagem, o ChatGPT é capaz de analisar grandes quantidades de dados, incluindo e-mails, mensagens de texto e publicações em mídias sociais, em questão de segundos. Isso permite que os advogados identifiquem rapidamente as informações relevantes, economizando tempo e dinheiro.

Isso é apenas um terço do que o chatbot realmente respondeu. Ele também incluiu informações sobre as principais vantagens de usar o ChatGPT em eDisclosure/eDiscovery e pensamentos finais sobre como os casos de uso de modelos de linguagem aumentarão no futuro. À primeira vista, faz sentido o fato de alguns analistas acreditarem que essa ferramenta poderia substituir os humanos em funções de nível superior. No entanto, é importante reconhecer que, embora modelos de linguagem como o GPT-3 possam ser benéficos, existem limitações.

Entendendo as limitações

Embora o bot ChatGPT e os modelos de IA como o GPT-3 sejam inovadores, ainda há riscos e limitações a serem considerados antes de usá-los para fins comerciais. Veja o exemplo acima. Embora tenha retornado com muitas informações úteis e até mesmo formatado o texto como um blog, o que faltou ao ChatGPT? Ele não forneceu nenhuma informação sobre o histórico de treinamento, as limitações, os riscos ou as considerações éticas da ferramenta. Todos esses são aspectos que os advogados e suas organizações devem considerar antes de usar uma nova tecnologia, para que possam tomar uma decisão informada e representar adequadamente seus clientes.

Aqui estão cinco limitações importantes a serem consideradas à medida que os modelos avançados de linguagem continuam a surgir e a evoluir. Isso ajudará a equilibrar os benefícios e os riscos para que as organizações possam fazer avaliações informadas sobre os casos de uso adequados.

Os advogados ainda precisarão fazer algumas determinações de relevância e privilégio se usarem os LLMs para funções de revisão de litígio ou investigação. Atualmente, não há evidências sólidas de que essa tecnologia seria capaz de realizar essas funções humanas de forma adequada. À medida que esse tipo de modelo evolui, ele pode se mostrar adequado para a revisão de primeira passagem (semelhante à TAR), com o objetivo de reduzir custos e otimizar o fluxo de trabalho jurídico.

Modelos como o GPT-3 precisarão ser treinados em conjuntos de documentos específicos para serem úteis na investigação ou no caso de uma organização específica. Isso exigirá uma análise de custo-benefício e uma comparação com as ferramentas já implantadas, pois provavelmente será necessário um treinamento significativo para ser útil nesse cenário.

Às vezes, o chatbot ainda responderá incorretamente às perguntas. Isso pode ser prejudicial quando utilizado para revisão de documentos, pesquisa, avaliação de acordos, elaboração de moções ou redação de contratos. Isso não significa que modelos avançados de linguagem nunca serão apropriados em tais situações. Os tomadores de decisão precisam pesar os riscos e os benefícios de cada caso de uso, o que será mais fácil de fazer à medida que mais estudos e estatísticas estiverem disponíveis.
Os dados de treinamento inevitavelmente se tornarão obsoletos, o que significa que modelos como o GPT-3 precisarão ser continuamente treinados e atualizados para gerar respostas de qualidade.

Os advogados sempre precisam levar em conta suas obrigações éticas ao lidar com tecnologias emergentes. A confidencialidade, a segurança e a privacidade do cliente são algumas considerações que vêm à tona com o uso da tecnologia. A inserção de informações confidenciais do cliente em um modelo de linguagem como o ChatGPT renuncia ao privilégio e pode violar o relacionamento entre advogado e cliente. Qualquer informação incluída em um prompt não será excluída e poderá ser usada para fins de treinamento. Considere esses fatores antes de usá-lo para revisão de documentos, contratação, tradução de idiomas e outros casos de uso que envolvam informações confidenciais. O consentimento do cliente também é fundamental ao usar qualquer nova tecnologia, e os advogados precisam se manter informados sobre os benefícios e os riscos para oferecer uma representação competente.
Embora os modelos de linguagem sejam uma área empolgante que cria novos caminhos para a inovação, os temores de que essa tecnologia substitua o conhecimento humano são infundados. Há muitos riscos e fatores que ainda exigem conhecimento jurídico e julgamento humano. De fato, até mesmo os criadores desses modelos alertam que seus resultados não devem ser usados para nada crítico, independentemente de revisão e análise humana.

Os modelos de linguagem grandes poderiam ser adotados inicialmente para a criação de modelos simples, gerenciamento de contratos, automação administrativa e revisão de documentos, mas seu uso para pesquisa jurídica ou redação de resumos parece improvável em breve. Ferramentas como o ChatGPT não levam em conta fatores como as preferências de um juiz, processos exclusivos ou objetivos do cliente. Além disso, a menos que esses tipos de modelos de IA sejam treinados de forma segura, também não há garantia de que as informações confidenciais serão mantidas em sigilo.

O que as organizações jurídicas devem fazer agora para se manterem à frente da curva? Proceder com cautela. Monitorar os desenvolvimentos com o ChatGPT e ferramentas semelhantes. Limitar os casos de uso até que se saiba mais. Criar políticas e treinamentos sobre o uso dessa tecnologia. Aconselhe os clientes corporativos sobre os benefícios e os riscos do uso de ferramentas como essa para fins comerciais. E, acima de tudo, ter parceiros externos que entendam os aspectos técnicos das tecnologias emergentes para recorrer para fins de consultoria.
 

O conteúdo deste artigo é destinado apenas a fornecer informações gerais e não a oferecer aconselhamento ou opiniões jurídicas.

Subscribe to Future Blog Posts