Angle
As ordens estaduais dos EUA estão emitindo orientações sobre IA generativa: Então, qual é o veredito?
- 2 Minutos
A IA generativa está nas manchetes há mais de um ano. O que é essa nova tecnologia? O que ela pode fazer? Como ela pode ajudar nos negócios? Ela é segura? É ética? Todas essas são perguntas comuns observadas em artigos, blogs, podcasts e conferências do setor. No campo jurídico, está ficando claro que essa tecnologia veio para ficar e mudará o jogo da prestação de serviços jurídicos. Com o uso seguro e responsável, não há nada a temer quanto ao uso dessas ferramentas. Embora sempre haja algum nível de risco em qualquer novo empreendimento, a implantação de uma sólida estrutura de gerenciamento de serviços jurídicos reduz esse risco. Isso pode ser feito por meio de uma variedade de fatores, incluindo a criação de políticas internas, ferramentas de teste, parcerias com consultores e comunicação clara.
Quando os advogados usam IA generativa - ou qualquer tecnologia nesse sentido - as obrigações éticas devem permanecer como prioridade. Isso precisa ser levado em conta no uso interno e nas parcerias com consultores externos. Está ficando claro que a IA generativa aprimorará os recursos para funções como gerenciamento de contratos, pesquisa jurídica, eDiscovery, elaboração de resumos e conformidade. Com um grande contratempo no ano passado que virou notícia nacional, em que um advogado usou citações falsas fornecidas pelo ChatGPT, as ordens estaduais estão começando a emitir orientações sobre seu uso. O veredicto é que os advogados podem usá-lo, mas devem cumprir suas obrigações éticas fundamentais.
Orientação de tendências
Apenas as ordens dos estados da Califórnia, Flórida e, mais recentemente, Nova York abordaram diretamente a IA generativa, mas é provável que a maioria dos estados siga o exemplo. Quando os tópicos são tão importantes e têm um potencial real de transformar a prática da advocacia, os estados se manifestam para garantir que os advogados que atuam dentro de suas fronteiras tenham uma compreensão clara do que constitui um comportamento ético. Isso aconteceu com a computação em nuvem, com várias discussões sobre a adequação da adoção dessa tecnologia. O consenso foi que as soluções em nuvem são benéficas e apropriadas se os advogados tomarem os devidos cuidados para manter a confidencialidade do cliente e a segurança dos dados.
A mesma tendência está se materializando com a IA generativa, com ambos os estados concluindo que os advogados podem usá-la, mas devem manter seus deveres éticos essenciais. Veja abaixo alguns destaques.
Califórnia
A Califórnia divulgou as diretrizes “Practical Guidance for the Use of Generative Artificial Intelligence in the Practice of Law” em 16 de novembro de 2023. Elas são especificamente descritas como princípios orientadores, em oposição às práticas recomendadas. A Ordem dos Advogados reconhece os desafios e riscos exclusivos que a IA generativa traz e tem como objetivo ajudar os advogados a navegar pelo uso, mantendo a ética.
A orientação prática da Califórnia é abrangente. As áreas cobertas são o dever de confidencialidade; deveres de competência e diligência; dever de cumprir a lei; dever de supervisionar advogados e não advogados; responsabilidades dos advogados subordinados; comunicação sobre o uso de IA generativa; cobrança pelo trabalho produzido por IA generativa e custos de IA generativa; sinceridade com o tribunal; reivindicações e alegações meritórias; proibição de discriminação, assédio e retaliação; e responsabilidades profissionais devidas a outras jurisdições.
Alguns destaques incluem não inserir informações confidenciais do cliente em soluções de IA generativa com proteções inadequadas de confidencialidade e segurança, fazer com que os advogados seniores estabeleçam políticas claras sobre o uso de IA generativa e divulgar a intenção de usar IA generativa para os clientes.
Florida
O Parecer de Ética 24-1 da Ordem dos Advogados da Flórida foi emitido em 19 de janeiro de 2024. Semelhante à orientação da Califórnia, ela permite que os advogados usem IA generativa, desde que tomem precauções. O parecer da Flórida tem um foco mais restrito, abrangendo apenas quatro áreas: confidencialidade, serviços precisos e competentes, práticas inadequadas de faturamento e publicidade de advogados.”
Para manter esses deveres éticos, a Ordem dos Advogados da Flórida declara:
- • Os advogados devem garantir que a confidencialidade das informações do cliente seja protegida ao usar IA generativa, pesquisando as políticas do programa sobre retenção de dados, compartilhamento de dados e autoaprendizagem. Os advogados permanecem responsáveis por seu produto de trabalho e julgamento profissional e devem desenvolver políticas e práticas para verificar se o uso de IA generativa é consistente com as obrigações éticas do advogado. O uso de IA generativa não permite que um advogado se envolva em práticas de cobrança impróprias, como a cobrança dupla. Os chatbots de IA generativa que se comunicam com clientes ou terceiros devem estar em conformidade com as restrições sobre publicidade de advogados e devem incluir uma isenção de responsabilidade indicando que o chatbot é um programa de IA e não um advogado ou funcionário do escritório de advocacia. Os advogados devem estar atentos ao dever de manter a competência tecnológica e se informar sobre os riscos e benefícios das novas tecnologias.
Esta é apenas uma visão geral do que deve ser considerado ao usar essa tecnologia para auxiliar na prática da advocacia. O parecer aborda detalhadamente cada dever.
New York
Em 4 de abril de 2024, a Força-Tarefa sobre Inteligência Artificial da Ordem dos Advogados de Nova York divulgou um relatório de 92 páginas que aconselha os advogados a divulgarem aos clientes quando ferramentas de IA forem empregadas em seus casos. O relatório fala sobre os benefícios da IA para melhorar o acesso à justiça e aumentar a eficiência dos serviços jurídicos. No entanto, adverte os profissionais da área jurídica para que não deixem que o excesso de confiança na IA prejudique o julgamento e a experiência humana. O relatório ressalta a importância da transparência e da explicabilidade nos sistemas de IA, instando as profissões jurídicas a entender os mecanismos subjacentes das ferramentas de IA para garantir que estejam alinhadas com os padrões éticos. O relatório também ressaltou a necessidade de educação contínua para ajudar os profissionais do direito com as habilidades necessárias para navegar pelas complexidades da IA. Por fim, ele aborda o papel crucial da supervisão regulatória no controle dos aplicativos de IA. À medida que os sistemas de IA se tornam cada vez mais complexos e difundidos, estruturas regulatórias robustas são essenciais para proteger contra possíveis danos, como preconceito, discriminação e violações de privacidade.
Expectativas futuras
Há pouca dúvida de que mais estados emitirão opiniões ou outras orientações sobre esse tópico. Em 2023, outros estados criaram forças-tarefa com foco no uso responsável e ético da IA generativa. Dessa forma, é provável que haja mais opiniões neste ano ou em 2025. À medida que a tecnologia amadurece e os casos de uso aumentam, o setor jurídico continuará otimista quanto ao seu potencial para melhorar a prática jurídica. A orientação ética pode ajudar os escritórios de advocacia e os departamentos jurídicos a elaborar políticas internas e considerar o melhor caminho a seguir. Será interessante ver como as opiniões futuras se sobrepõem e como os tribunais acabarão decidindo sobre as questões que envolvem essa tecnologia. Até que haja mais decisões sobre o assunto, é essencial trabalhar com prestadores de serviços jurídicos que entendam completamente essas implicações éticas para garantir a conformidade.
O conteúdo deste artigo é destinado apenas a fornecer informações gerais e não a oferecer aconselhamento ou opiniões jurídicas.