* 출처는 안랩입니다.
인공지능(AI) 기술의 발전은 우리의 삶에 혁신을 가져오지만, 그만큼 부작용도 커지고 있다. 특히, SNS 피드에 등장하는 유명인, 연예인, 정치인의 영상이 얼굴부터 목소리까지 정교하게 조작된 가짜일 가능성이 높아지고 있다. AI가 만들어내는 ‘딥페이크(Deepfake)’ 기술은 진실과 거짓의 경계를 흐리게 만들며, 사회적 혼란과 보안 위협을 초래하고 있다. 딥페이크의 위험성과 이를 탐지하는 기술의 현재 수준을 살펴본다.
홍콩에 있는 모 글로벌 기업이 영국 본사의 CFO로부터 거액을 송금하라는 이메일을 받고 이를 피싱 메일로 의심했다. 그래서 본사와 화상회의를 진행했으나, 화상회의에서도 CFO는 같은 지시를 내렸고, 회의에 등장한 다른 직원들의 얼굴과 목소리까지 실제와 구별할 수 없을 정도로 정교했다. 결국 직원은 지시에 따라 340억 원을 송금했으나, 이후 해당 영상이 AI 기반 딥페이크였다는 사실이 밝혀졌다. 이처럼 딥페이크 기술은 이제 단순한 허위 정보가 아닌, 정교한 금융 범죄 수단으로까지 악용되고 있다.
“우리는 패배했습니다. 무기를 내려놓고 러시아군에 항복하십시오.”
작년 우크라이나 TV 채널 ‘우크라이나24’에서는 젤렌스키 우크라이나 대통령이 러시아에 무조건 항복을 선언하는 영상이 방영되면서, 우크라이나 국민뿐만 아니라 전 세계가 큰 혼란에 빠졌다. 하지만 곧 해당 영상이 조작된 것으로 밝혀졌으며, 이는 딥페이크 기술을 활용한 허위 정보였다. 러시아 출신으로 추정되는 해커들이 TV 채널을 해킹해 조작된 영상을 송출한 것으로 드러났다. 이 사건은 딥페이크가 단순한 허위 뉴스가 아니라, 심리전과 정보전에 활용될 수 있는 강력한 무기임을 시사한다.
이처럼 딥페이크 악용 사례는 점점 늘어나고 있으며, 그 형태도 다양해지고 있다. 가짜 음란물 생성 및 유포, 보이스 피싱, 가짜 뉴스, 저작권 침해, 정치적 조작 등 사회 전반에 걸쳐 심각한 문제를 초래하고 있다. 문제는 딥페이크 기술이 일반인은 물론, 전문가조차 진위를 구별하기 어려운 수준에 이르렀다는 점이다.
국내에서도 딥페이크 영상이 증가하고 있다. 방송통신심의위원회에 따르면, 국내 '딥페이크 성적 허위 영상물 차단·삭제 시정 요구 사례'가 2020년 473건에서 2023년 6,000건을 넘기며 불과 4년 만에 12배 이상 증가한 수치를 보였다. 또한, 서울시교육청의 학교 실태조사에서는 최근 5년간 학생들의 딥페이크 피해 사례가 매년 2.8배씩 증가한 것으로 나타났다. 우리나라 청소년들에게 딥페이크를 악용한 디지털 성범죄는 하나의 놀이문화처럼 인식되고 있다. 경찰청이 공개한 '딥페이크 범죄 현황'에 따르면, 2024년 검거된 허위 영상물 피의자 중 10대가 75.8%인 것으로 나타났다.
* 전체내용은 아래에서 확인하세요.