Skip to Content (custom)

Angle

州司法省がジェネレーティブAIガイダンスを発表: その結論は?

  • 2 Mins

ジェネレーティブAIが話題になって1年以上が経つ。この新しいテクノロジーは何なのか?何ができるのか?ビジネスにどう役立つのか?安全なのか?倫理的なものなのか?これらはすべて、記事、ブログ、ポッドキャスト、業界会議でよく見られる質問である。法律分野では、このテクノロジーは今後も利用され、リーガル・サービス提供のあり方を大きく変えるであろうことが明らかになりつつある。安全で責任ある使用方法であれば、このようなツールの使用を恐れることはない。新しい試みには常にある程度のリスクが伴うが、強力なリーガル・サービス管理のフレームワークを導入することで、このリスクを軽減することができる。これは、内部ポリシーの作成、テストツール、コンサルタントとの提携、明確なコミュニケーションなど、様々な要因によって達成することができる。

弁護士がジェネレーティブAIを使用する場合、あるいはその他のテクノロジーを使用する場合、倫理的義務を常に念頭に置かなければならない。このことは、社内での利用や外部のコンサルタントとのパートナーシップに織り込んでおく必要がある。ジェネレーティブAIが契約管理、法務調査、eDiscovery、準備書面作成、コンプライアンスなどの機能を強化することは明らかになりつつある。昨年、ある弁護士がChatGPTが提供する偽の引用を使用したという大きな事故が全国的なニュースになったこともあり、各州の弁護士もその使用法についてガイダンスを出し始めている。その結果、弁護士はChatGPTを利用することはできるが、その基本的な倫理的義務は守らなければならないという結論に達した。

トレンドガイダンス

カリフォルニア州、フロリダ州、そして最近ではニューヨーク州の弁護士のみが、ジェネレーティブAIを直接取り上げているが、大半の州がこれに追随すると思われる。このようなトピックが、弁護士業務を一変させる可能性を秘めた最重要テーマである場合、各州は、国境内で業務を行う弁護士が、倫理的行動とは何かを明確に理解していることを確認するために、意見を述べるだろう。クラウド・コンピューティングの場合も同様で、この技術を採用することの妥当性について、いくつかの州が言及した。弁護士がクライアントの守秘義務とデータ・セキュリティの維持に合理的な注意を払えば、クラウド・ソリューションは有益であり、適切であるというのがコンセンサスであった。

同じ傾向がジェネレーティブAIにも見られ、両州とも、弁護士はAIを使用できるが、中核的な倫理的義務は守らなければならないと結論づけている。以下はそのハイライトである。

カリフォルニア

カリフォルニア州は2023年11月16日、ガイドライン「法律実務におけるジェネレーティブ人工知能利用のための実践ガイダンス」を発表した。このガイドラインは、ベストプラクティスとは対照的に、指導原則と特に説明されている。同弁護士団は、ジェネレーティブAIがもたらす独自の課題とリスクを認識し、弁護士が倫理を保ちながら利用法をナビゲートできるようにすることを目指している。

カリフォルニア州の実務指針は包括的である。守秘義務、能力および勤勉の義務、法律遵守の義務、弁護士および非弁護士を監督する義務、部下の弁護士の責任、ジェネレーティブAIの使用に関するコミュニケーション、ジェネレーティブAIによって作成された仕事に対する請求およびジェネレーティブAIの費用、法廷に対する誠実さ、有益な主張および争点、差別、嫌がらせ、報復の禁止、および他の法域に対して負う職業上の責任などである。

いくつかのハイライトとしては、秘密保持やセキュリティ保護が不十分なジェネレーティブAIソリューションにクライアントの秘密情報を入力しないこと、シニア弁護士にジェネレーティブAI使用に関する明確な方針を確立させること、クライアントにジェネレーティブAI使用の意図を開示することなどが挙げられる。

フロリダ

フロリダ州弁護士倫理意見書24-1は2024年1月19日に発行された。カリフォルニア州のガイダンスと同様に、弁護士が予防措置を講じる限り、ジェネレーティブAIの使用を認めている。フロリダ州の意見は焦点が絞られており、守秘義務、正確で有能なサービス、不適切な請求慣行、弁護士広告の4分野のみを対象としている。

れらの倫理的義務を守るために、フロリダ州弁護士会は次のように述べている:

  • 弁護士は、生成AIを使用する際、データ保持、データ共有、自己学習に関するプログラムのポリシーを調査することで、クライアント情報の機密性が確実に保護されるようにしなければならない。弁護士は、自らの職務上の成果物および専門的判断に責任を負い、生成的AIの使用が弁護士の倫理的義務に合致していることを確認するための方針および慣行を策定しなければならない。ジェネレーティブAIの使用は、弁護士が二重請求のような不適切な請求行為に関与することを認めるものではない。クライアントまたは第三者と通信するジェネレーティブAIのチャットボットは、弁護士広告に関する制限を遵守しなければならず、チャットボットがAIプログラムであり、弁護士または法律事務所の従業員ではないことを示す免責条項を含めなければならない。弁護士は、技術的能力を維持する義務に留意し、新技術のリスクと利益に関する教育を受ける必要がある。

これは、弁護士業務を補助するためにこのテクノロジーを使用する際に考慮すべきことの概要に過ぎない。意見書では、各義務を徹底的に取り上げている。

ニューヨーク

2024年4月4日、ニューヨーク弁護士会の人工知能タスクフォースは92ページに及ぶ報告書を発表し、弁護士がAIツールを採用した場合、クライアントに開示するよう助言した。報告書は、司法へのアクセスを改善し、法的サービスの効率を高めるというAIの利点について述べている。 しかし、AIへの過度の依存が人間の判断や専門性を犠牲にすることがないよう、法曹界に注意を促している。 報告書は、AIシステムにおける透明性と説明可能性の重要性を強調し、法律専門家に対し、AIツールの基本的なメカニズムを理解し、倫理基準との整合性を確保するよう促している。報告書はまた、複雑なAIを使いこなすために必要なスキルを法律専門家が身につけられるよう、継続的な教育の必要性も強調している。最後に、AIアプリケーションを管理する上で、規制当局の監視が果たす重要な役割についても言及している。AIシステムがますます複雑化し、普及するにつれ、偏見、差別、プライバシー侵害などの潜在的な危害から保護するために、強固な規制の枠組みが不可欠となる。

将来への期待

このトピックについて意見書やその他のガイダンスを発表する州が増えることは間違いない。2023年、他の州は、責任ある倫理的なジェネレーティブAIの利用に焦点を当てたタスクフォースを設立した。そのため、今年、あるいは2025年には、さらなる見解が出される可能性が高い。技術が成熟し、使用事例が増えるにつれ、法律業界は、法律実務を改善する可能性について楽観的な見方を続けるだろう。倫理ガイダンスは、法律事務所や法務部門が内部方針を作り、最善の道を検討するのに役立つ。今後の意見がどのように重なり合い、最終的に裁判所がこのテクノロジーに関わる問題についてどのような判決を下すのか、興味深いところである。このトピックに関する判決が増えるまでは、コンプライアンスを確保するために、これらの倫理的意味を十分に理解しているリーガル・サービス・プロバイダーと協力することが不可欠である。

本記事の内容は、一般的な情報をお伝えすることのみを目的としており、法的なアドバイスや意見を提供するものではありません。

Subscribe to Future Blog Posts