• 3월 28일부터 시행… 개발사·서비스 제공자 대상 4대 기본원칙과 6대 실행방식 제시
  • 이용자 인격권 보호, 결정 과정 공개, 다양성 존중 등 강조… 2년마다 타당성 검토 및 개선 예정
 class=

방송통신위원회가 28일 '생성형 인공지능(AI) 서비스 이용자 보호 가이드라인'을 발표했다. 이는 ChatGPT와 같은 생성형 AI 기술의 급격한 발전에 따른 혁신적 변화와 함께 딥페이크 성범죄물, 차별·편향 등 부작용이 심각하게 대두되면서 이용자 보호를 위한 제도적 기반 마련의 필요성이 제기된 데 따른 조치다.

가이드라인은 생성형 AI 개발사 및 서비스 제공자를 대상으로 4가지 기본원칙과 6가지 실행 방식을 제시하고 있다. 주요 실행 방식으로는 ▲이용자 인격권 보호 ▲결정 과정을 알리려는 노력 ▲다양성 존중 노력 ▲입력데이터 수집·활용 과정에서의 관리 ▲문제 해결을 위한 책임과 참여 ▲건전한 유통·배포를 위한 노력 등이 포함됐다.

특히 이번 가이드라인은 AI 윤리 차원에서 제시되는 주요 원칙들 중 생성형 AI의 특성을 고려해 투명성, 공정성, 책무성을 핵심 원칙으로 강조하고 있다. 이는 방통위가 2021년 6월 발표한 '인공지능 기반 미디어 추천 서비스 이용자 보호 기본원칙'의 연장선상에 있는 것으로 볼 수 있다.

신영규 방송통신이용자정책국장은 "이번 가이드라인을 통해 생성형 AI 사업자가 바람직한 이용자 보호 방안을 마련할 수 있게 될 것"이라며, "이를 통해 궁극적으로 이용자의 권리가 보장되고 관련 서비스가 신뢰받을 수 있는 기반을 마련할 수 있을 것"이라고 밝혔다.

한편, 방통위는 올해 업무계획을 통해 'AI 이용자보호 종합계획' 수립과 'AI 이용자보호법' 제정을 추진하겠다고 밝힌 바 있다. 이번 가이드라인은 그 첫 단계로, 향후 법제화 과정에서 중요한 참고 자료가 될 것으로 보인다.

가이드라인은 3월 28일부터 시행되며, 방통위는 2년마다 타당성을 검토해 개선 조치를 취할 계획이다. 또한 방통위는 AI 기술 발전에 따라 새롭게 발생하는 이용자 보호 이슈에 지속적으로 대응해 나갈 예정이며, 모든 사회구성원이 안전한 환경에서 AI의 혜택을 누릴 수 있도록 노력하겠다고 밝혔다.