Skip to Content (custom)

두려워할 것은 없습니다 - 책임 있게 인공지능 도구를 사용하면 성공을 양성합니다

  • eDiscovery and Investigations
  • 3 Mins

뉴스에는 인공 지능 (AI) 도구에 관한 이야기가 가득 차 있습니다. 일부는 혜택을 강조하며 다른 일부는 불안과 공포를 일으키기 위한 것입니다. 후자는 비즈니스에서 AI 사용에 대한 회의를 유발하였지만, 이제는 한 걸음 물러나서 어떤 요소가 오류를 일으키는지 살펴봐야 할 때입니다. 종종, 문제는 도구 자체가 아닌 기술 뒤에 있는 인간에게 있습니다. 실제로 많은 조직이 AI를 매우 성공적으로 사용하며 문제 없이 그 혜택을 누리고 있습니다.

어떤 산업에 속하더라도 모든 조직은 AI를 안전하고 책임있게 활용하는 방법을 이해해야 합니다. 대부분은 이미 AI 도구와 다른 신흥 기술에 존재하는 일반적인 위험에 대해 알고 있을 것입니다. 선입견, 사이버 보안 결여, 투명성 부족 등 몇 가지 예시가 있습니다. 그러나 많은 사람들이 인간 요소를 고려하는 것을 잊고 있습니다. 인간과 기술적 기여의 혜택과 위험을 이해하는 것은 작업 흐름을 변화시키는 데 도움이 되며, 이를 통해 팀은 잠재적인 단점을 효과적으로 관리하면서 두 가지 모두에서 최상의 결과를 얻을 수 있는 전략과 시스템을 구축할 수 있습니다.

뉴스에 나오는 AI

미디어에서 최근에 보도된 주목할 만한 AI 이야기 중 하나는 뉴욕 변호사가 ChatGPT를 사용하여 법적 서류를 작성하는 데 실패한 사례입니다. 생성된 결과물에는 실제로 존재하지 않는 사례가 설득력 있게 인용되었습니다. 상대측 변호사가 위조된 인용을 발견하고 이 문제를 법원에 제기했습니다. 변호사는 ChatGPT를 사용하여 판결의 정확성을 검증한 결과, 도구는 사실 없는 사례의 존재를 법적 연구 검색 엔진에 귀 attributed하며 사실을 창조하게 되었습니다. 변호사는 이것이 그가 법적 연구의 보완으로 ChatGPT를 처음 사용한 것이라고 말했으며, 도구가 잘못된 정보를 생성할 수 있다는 사실을 알지 못했습니다.

이 경우 법원은 최근에 변호사와 변호사 사무실 각각에게 5,000달러의 공동 및 several적 책임이 있는 벌금과 가짜 판례의 작성자로 오인된 각 판사에게 편지를 쓰고 법원 앞 경청 내용의 대본과 가짜 판례의 사본을 제공하는 명령을 내렸습니다.

이 사건 이후 두 명의 연방 판사는 법원에 서류를 제출할 때 생성적 AI 인증서를 제출하도록 변호사에게 요구하고 있습니다. 변호사는 생성적 AI를 사용하지 않았거나 사용했지만 사람이 정보의 정확성을 확인했다는 것을 증명해야 합니다. 전국의 법률 분석가들은 이 결정에 대해 자유롭게 의견을 내놓았으며, 일부는 이것을 불필요한 과잉 조치로 보고, 일부는 이 기술의 새로운 위험으로 인해 필요한 조치로 보고 있습니다.

다른 "공포"의 AI 이야기에는 이 기술을 부정적인 과학적 목적으로 사용하는 이야기와 AI가 직업을 대체할 것이라는 예측들이 있습니다. 이러한 헤드라인들은 비즈니스 목적으로 이러한 도구를 사용하는 데 대한 불안을 증폭시킬 수 있지만, 동전의 다른 면에서도 AI의 혜택을 탐구하고 책임 있는 사용이 위험을 제한하는 방법을 살펴보는 이야기들이 많이 있습니다.

책임 있는 AI 사용

데이터 세트의 문서를 축소하는 것부터 얼굴 인식 소프트웨어 및 인사 채용 도구에 이르기까지 AI는 산업 전반에 걸쳐 매우 유익하게 사용되었습니다. 생성적 AI가 나타나면서 조직들은 이 기술이 비즈니스에 어떻게 도움이 될 수 있는지 고려하고 있습니다. 혜택과 위험을 모두 조사하여 최상의 사용 사례를 찾는 것이 중요합니다. 많은 경우 혜택이 위험보다 크며, 불안을 억제할 수 있는 최상의 실천 방법이 있습니다. 이러한 도구를 안전하고 책임 있는 방식으로 사용하는 법을 배우는 것이 열쇠입니다.

지식을 습득하는 것은 책임 있는 AI 사용하는 가장 중요한 방법입니다. 문제가 생긴 사례에 대한 뉴스를 따라가며 이를 학습 경험으로 활용하세요. 예를 들어, 위에서 언급한 사례 법률의 변호사는 처음에 소스를 확인하고 후속으로 ChatGPT를 사용하여 연구를 정당화하지 않았다면 위험을 미리 줄일 수 있었을 것입니다. 단순히 시작점으로서 생성적 AI를 사용한 후에 법적 연구 데이터베이스에 들어가면 가짜 사례가 변호사의 주의를 불러일으키고 제재 가능한 행동을 피할 수 있었을 것입니다. 변호사가 ChatGPT를 사용했다는 사실은 여기서 문제가 아니었으며, 도구의 출력물을 사실 검증하고 품질을 관리하는 책임은 항상 인간 변호사에게 있습니다. 변호사들은 기술적으로 유능해야 하며 작업을 확인하거나 법원 제재, 윤리적 위반, 평판 피해 및 비즈니스 손실을 당하지 않기 위해 작업을 검토해야 합니다.

직업 상실에 대한 불안감으로 돌아가, 골드만 삭스의 최근 보고서는 AI가 3억 개의 정규직 직업을 대체할 수 있다고 보고하였습니다. 이것은 처음에 경고음을 울리게 하는 뉴스 유형입니다. 그러나 기술이 과거에 직업을 "대체"한 경우에도 새로운 역할과 다른 기회가 열렸습니다. 현재 대부분의 산업에서 AI는 보조 도구로 사용되고 있으며, 인간 요소는 여전히 필요하지만 모양만 다를 수 있습니다.

또한 ChatGPT보다 더 많은 생성적 AI 도구가 있음을 기억하는 것이 중요합니다. 기술 기업들은 특정 산업을 위해 설계된 시스템이나 조직의 내부 인프라에서 개인적으로 사용할 수 있는 시스템을 개발하고 있습니다.

결론

조직은 인간 요소를 고려하고 책임 있게 사용할 때 생성적 AI는 다음 도구와 마찬가지로 혜택을 가져올 수 있습니다. 서비스 제공에 사용 가능한 모든 다양한 리소스 옵션의 장점과 한계를 깊이 이해하고 지혜롭게 업무를 위임하세요. 이렇게 하면 조직은 기술이 제공하는 혁신적인 혜택을 자신감 있게 누릴 수 있습니다. 혹시나 모든 허세를 고려하면, 더 많은 AI 규제가 분명히 미래에 있을 것입니다. 조직은 계속해서 이 분야의 발전을 모니터하고 비즈니스 업무에 적절한 기술 사용에 대한 정책을 시행해야 합니다.

Subscribe to Future Blog Posts