- 기업 주주들의 입장에서 특정 생성형 AI 리스크가 남들보다 더 중요한 사항이 될 수도
있습니다. 거버넌스, 규정 준수, 위기 관리, 내부 회계 감사, 그리고 AI 팀 모두가 가장 중대
한 리스크에 가장 많은 관심을 줄 수 있도록 하는 보고 체계를 마련할 필요가 있습니다.
- 사이버 보안, 데이터 관리 및 개인정보보호 정책 갱신을 통해 해커들이 생성형 AI를 통해
개인 정보와 신원을 유출하는 리스크를 선제적으로 예방할 필요가 있습니다.
- 일부 생성형 AI 시스템에 관해서는 ‘왜’ 특정 결과물을 도출했는지, 그 과정을 이해하고
설명하는 것이 거의 불가능합니다. 이러한 시스템들을 파악하여 시스템의 공정성, 정확성,
준수성을 개선하기 위한 방안이 무엇이 있는지를 고민해볼 필요가 있습니다.
- 이해관계자들의 책임 있는 활용ㆍ관리가 가능한 조치
- 예를 들어, 생성형 AI를 사용해야하는 직원들에게는 기본 작동 원리, 사용 방법, 아웃풋을
입증, 개선하는 방법 등을 인지시키고, 규정 준수와 법률 리스크를 담당하는 팀에게는
지적 재산권 위반, 기타 연관 위기들을 식별하기 위해 필요한 기술 및 소프트웨어를 제공
합니다.
- 어느 벤더가 생성형 AI 기반의 콘텐츠와 서비스를 제공하는지 알고, 그들이 AI 리스크를
어떻게 다루는지와, 자사가 잠재적 피해에 노출될 수 있는 가능성에 대해 미리 파악할
필요가 있습니다.
- 전세계의 정책 입안자들이 AI 개발 및 활용에 대해 더 많은 규정들을 제정 중입니다.
아직 미완성 단계이나, 새로운 규정들이 지속적으로 생성되는 중임을 인지해야 합니다.
- 생성형 AI 기반의 콘텐츠들이 만연한 오늘날, 새로운 소프트웨어 도구를 활용하여 AI 생성
콘텐츠를 식별하고, 아웃풋을 검증하며, 편향성 또는 개인정보 침해 여부에 대해 평가하고
필요에 따라 개선 사항을 반영할 것 |