인도 정부가 소셜미디어 등 온라인 플랫폼에 게시되는 AI 생성물을 명시적으로 표시하도록 의무화하는 정보기술 규정 개정안을 제시했다. 초안은 이미지와 영상에는 표시가 화면 면적의 최소 10퍼센트를 차지하도록 하고, 오디오의 경우 재생 초반 10퍼센트 구간에 식별 표지를 부착하도록 요구한다.

라벨은 워터마크나 메타데이터 형태로 영구 삽입되어야 하며, 플랫폼 사업자는 업로더로부터 해당 콘텐츠가 합성 생성물인지 여부를 사전 선언받고 기술적 점검 조치를 병행해야 한다. 위반이 반복될 경우 플랫폼의 면책 특권이 제한될 수 있다는 점도 명시됐다.
정부는 딥페이크와 허위 정보의 급증이 사회적 위해로 이어지는 상황에서 이용자 피해를 줄이기 위한 최소한의 투명성 장치라고 설명한다. 동시에 창작자에게 AI 사용 자체를 제한하는 것이 아니라 출처와 성격을 분명히 알리도록 요구하는 접근임을 강조했다.
업계와 전문가들은 오남용 억제와 신뢰 회복에 기여할 수 있다는 점에서 취지를 평가하는 한편, 표시 면적과 식별 의무의 강도가 광고와 엔터테인먼트 등 산업 현장의 실무에 미칠 비용과 마찰을 우려한다. 특히 신흥시장 스타트업과 중소 창작자에게 과도한 준수 비용이 전가되면 혁신 속도를 떨어뜨릴 수 있다는 지적이 나온다.
정책의 실효성은 기술적 구현과 집행 설계에 달려 있다. 플랫폼별로 다양한 형식의 콘텐츠에 라벨을 일관되게 부착하고 제거를 방지하는 체계를 갖추려면 모델 출력 단계부터 출처 정보를 붙이는 원천 추적, 편집 과정을 거쳐도 유지되는 내구성 있는 표식, 자동 탐지와 사람 검수의 결합 같은 다층적 메커니즘이 필요하다.
인도정부는 공개 의견수렴을 통해 세부 기준을 확정할 계획이며, 시행 시기는 추후 고시될 전망이다. 글로벌 차원에서 AI 콘텐츠 표기 의무가 보편화되는 흐름 속에 인도의 선택은 거대 시장의 관행을 정하는 신호로 기능할 수 있다.
글 / 한만수 news@cowave.kr
(c) 비교하고 잘 사는, 다나와 www.danawa.com












