Skip to Content (custom)

Angle

ここでは恐れることはありません - AIツールを責任を持って使用することで成功を生む

  • eDiscovery and Investigations
  • 3 Mins

ニュースは人工知能(AI)ツールに関する話題で溢れています - その利点に焦点を当てたもの、恐怖やパニックを引き起こすようなものがあります。後者はビジネスでのAI使用に対する疑念を抱かせていますが、一歩退いてエラーの原因を見つめ直す時が来たのです。多くの場合、ツール自体ではなく、テクノロジーの背後にいる人間が問題なのです。事実、多くの組織が非常に成功しており、トラブルなくAIを使用しています。

すべての組織 - それがどの業界で営業しているかに関係なく - は、安全かつ責任をもってAIを利用する方法を理解するべきです。多くの人々は、AIツールや他の新興テクノロジーに存在する通常のリスクを既に理解している可能性があります。固有のバイアス、サイバーセキュリティのギャップ、透明性の欠如が例です。しかし、多くの人々は人間の要素を考慮するのを忘れています。ワークフローを変える人間と技術の両方の利点とリスクを理解することが重要です。これにより、チームは、両方の最善を実現し、潜在的なデメリットを効果的に管理する戦略とシステムを構築するのに役立ちます。

ニュースでのAI

最近メディアで注目されているAIの話題の1つは、ニューヨークの弁護士が使った裁判所の手続きの要旨の作成を助けてくれるツールに関するものです。出力には、実際には存在しない事例を説得力を持って引用されていました。対抗弁護士は偽の引用を発見し、問題を裁判所に持ち込みました。弁護士はChatGPTを使って判決の正確さを確認し、ツールは事実を作成し、事例の存在を法律リサーチの検索エンジンに帰属させました。弁護士は、法律リサーチの補足としてChatGPTを使用するのは初めてであり、ツールが偽情報を作成できることを知らなかったと応答しました。

この件で、裁判所は最近、各弁護士とその法律事務所間の連帯責任による5,000ドルの罰金、そして偽の意見の著者として誤って識別された各裁判官に書く命令、および裁判所での審理の記録、偽の意見のコピーを提供する命令を含む制裁を科しました。

この事件以降、2人の連邦裁判官は、文書を裁判所に提出する際に、弁護士に生成型AIの認証を提出するよう求めています。弁護士はそれを使用しなかった、またはそれを使用して人間が情報の正確さを確認したことを証明する必要があります。全国の法律アナリストはこの決定について自由に話し、一部は不必要な過剰であり、二重であると呼び、他の人々はこの技術に存在する新しいリスクのためにそれが必要であると考えています。

ニュースでの「恐ろしい」AIの他の事例には、この技術を負の科学的目的のために使用する話や、AIが仕事を奪うという予測が含まれています。このような見出しは、ビジネス目的でこれらのツールを使用することに対する恐怖を増加させる可能性がありますが、AIの利点を探求し、責任ある使用がリスクを限定する方法を見つけるための同様に多くのストーリーがあります。

責任を持ってAIを使用する

データセット内のドキュメントを削減することから顔認識ソフトウェア や人事募集ツールに至るまで、AIは業界全体で非常に有益であることが証明されています。生成型AIが登場する中で、組織はこの技術がビジネスにどのように利益をもたらすかを検討しています。利益とリスクの両方を詳しく調査し、最適な使用事例を特定することが重要です。多くの場合、利益がリスクを上回り、恐怖を抑えるベストプラクティスを採用することがあります。これらのツールを安全かつ責任を持って使用する方法を学ぶことが鍵です。

教育を受けることが、責任を持ってAIを使用するための最も重要な方法です。物事が悪化するニュースを追いかけて、それを学習経験として使用します。たとえば、上記のケース法の例では、弁護士が最初に情報源を確認し、その後にChatGPTを使って研究を正当化しなかった場合、はるかに早くリスクを軽減できたでしょう。生成型AIを起点として法律リサーチデータベースにアクセスするだけで、弁護士の注意を引き、潜在的に制裁される行動を回避するのに十分でした。ここで問題となったのは、弁護士がChatGPTを使用したことではなく、それがどのように使用されたかでした。技術の出力に対するファクトチェックと品質管理の責任は常に人間の弁護士の責任であり続けます。弁護士は技術的に有能であり、仕事を確認する必要があります。そうでなければ、裁判所の制裁、倫理違反、評判の損害、および失われたビジネスに直面することになります。

仕事の喪失に対する恐怖に転じて、最近のゴールドマン・サックスの報告書は、AIが3億人のフルタイムの仕事を置き換える可能性があると指摘しました。これは初めて読むと警報を鳴らすタイプのニュースですが、過去にテクノロジーが「仕事を奪った」場合でも、新しい役割や異なる機会を提供してきたことを指摘することが賢明です。現在、AIは補助ツールとしてほとんどの業界で使用されており、人間の要素はまだ必要ですが、外観が異なるだけかもしれません。

また、ChatGPTよりも多くの生成型AIツールが利用可能であることを覚えておくことも重要です。テクノロジー企業は、特定の業界向けに設計されたシステムや組織の内部インフラストラクチャでプライベートに使用できるシステムを作成しています。

結論

ここでの重要な点は、組織が人間の要素を考慮し、責任を持って使用する場合、生成型AIは他のツールと同様に有益であることができるということです。全ての異なるリソースオプションの制約と利点を深く実用的に理解し、賢明にタスクを委任することが重要です。これにより、組織は技術が提供するゲームチェンジングな利益を自信を持って享受することができます。すべてのハイプを考慮すると、AIの規制は間違いなく地平線にあります。組織はこの分野の進展を継続して監視し、ビジネスタスクに対する適切な技術使用に関するポリシーを実施する必要があります。

本記事の内容は、一般的な情報をお伝えすることのみを目的としており、法的なアドバイスや意見を提供するものではありません。

Subscribe to Future Blog Posts