딥페이크 사칭 피해 유명인-미국

인공지능 기술의 비약적인 발전이 새로운 산업 기회를 창출하는 동시에, 사회적 위험을 빠르게 키우고 있습니다. 특히 얼굴과 음성을 정교하게 조작하는 '딥페이크' 기술이 대중화되면서 유명인을 사칭한 사기 범죄가 폭발적으로 증가하고 있습니다. 문제는 이러한 딥페이크가 단순한 장난을 넘어 금융사기·허위광고·정치적 왜곡 등 현실적 피해로 이어지고 있다는 점입니다.

전 세계적으로 팬층이 두텁고 영향력이 큰 유명인일수록 악용 대상이 되기 쉽고 실제로 딥페이크 피해 통계에서도 명확한 패턴이 드러나고 있습니다. AI 기술이 가져온 편리함 뒤에 숨겨진 '정체성 도용 위험'이 이제는 전 세계적인 사이버 보안 문제로 부상한 것입니다.

최근 사이버보안기업 맥아피(McAfee)의 분석 결과에 따르면 전 세계 유명인을 대상으로 한 얼굴·음성 딥페이크 사칭 사례가 지난 1년간 급증했으며 그 피해 규모 1위는 팝스타 테일러 스위프트로 나타났습니다.

딥페이크는 사진이나 영상, 음성을 AI가 학습해 새로운 가짜 콘텐츠를 만들어내는 기술로 기술력의 향상과 생성형 AI의 대중화로 인해 제작이 점차 쉬워지고 있습니다. 이 때문에 유명인의 목소리나 표정이 실제와 거의 구분되지 않는 수준으로 재현되어 팬들이 속아 넘어가는 사례도 늘고 있습니다.

테일러 스위프트가 1위에 오른 이유는 단순한 유명세 때문만은 아닙니다. 스위프트는 ‘테일러노믹스(Taylornomics)’라는 신조어가 생길 정도로 강력한 경제적·문화적 영향력을 지녔습니다.

그녀의 월드투어는 개최 도시의 숙박·소비·교통지표를 끌어올릴 정도로 경제 파급력이 크며 스위프트가 특정 브랜드의 티셔츠를 입었다는 사실이 알려지는 것만으로도 하루 만에 230만 달러(약 33억 8천만 원)의 기부금이 모였던 사례도 있습니다. 이러한 영향력은 그녀를 사칭하려는 이들에게 매력적인 목표가 되었고 실제로 스위프트의 얼굴과 목소리를 도용한 가짜 광고, 투자 사기, 허위 홍보 영상 등이 가장 많이 제작된 것으로 분석됩니다.

딥페이크 피해 규모 2위는 전 세계 박스오피스 누적 수익 150억 달러(약 22조 원)를 기록한 할리우드 배우 스칼릿 조핸슨이 차지했습니다.

조핸슨은 오랫동안 초상권 침해 및 여성 유명인을 대상으로 한 성적 딥페이크 문제의 중심에 서 있었던 인물로, 그녀의 이미지가 상업적 사기뿐 아니라 악성 콘텐츠에 장기간 노출된 바 있습니다.

3위에는 넷플릭스 드라마 웬즈데이(Wednesday)로 세계적인 인기를 얻은 배우 제나 오르테가가 올랐습니다. 젊은 세대에서 높은 호응을 얻고 SNS 노출이 잦다는 점에서 범죄자들이 딥페이크 표적으로 삼기 쉬운 유형에 해당합니다.

이어 4위는 최근 청바지 광고 논란 등으로 온라인에서 주목도가 높았던 배우 시드니 스위니가 차지했습니다. 5위에는 신예 팝스타 사브리나 카펜터, 6위에는 톱스타 톰 크루즈가 이름을 올렸습니다. 크루즈는 이전부터 '딥페이크 크루즈' 계정이 실제와 구분하기 어려운 영상으로 화제를 모았던 만큼 AI 사칭 피해 규모도 상당한 것으로 알려졌습니다.

미국 내 피해자로 한정할 경우 스포츠 분야정치권에서도 상위권 피해자가 나타났습니다. NBA 슈퍼스타 르브론 제임스는 그의 음성과 메시지를 도용한 투자 사기 딥페이크 영상이 여러 차례 유포된 바 있으며 민주당 하원의원 알렉산드리아 오카시오-코르테스는 정치적 왜곡과 성적 딥페이크 피해가 동시에 발생한 대표적 사례로 꼽힙니다. 특히 AOC 의원은 지난 5월, 피해자가 딥페이크 제작자 및 유포자에게 민사소송을 제기할 수 있도록 하는 법안을 재발의하며 법적 장치 마련에 적극 나서고 있습니다.

전문가들은 딥페이크 사칭 범죄가 단순히 유명인에게만 해당하는 문제가 아니라고 경고합니다. 실제로 유명인 사진·음성을 활용해 일반인에게 접근해 투자 유도, 개인정보 탈취, 금융사기까지 이어지는 2차 피해가 빈번하게 발생하고 있기 때문입니다.

생성형 AI가 고도화될수록 조작된 영상은 더욱 정교해지고, 사용자는 진위를 판단하기 어려워지고 있습니다. 이에 따라 정부, 플랫폼 사업자, 보안기업 모두 딥페이크 탐지 기술 개발과 규제 논의에 속도를 내고 있지만 기술의 진화 속도를 따라잡지 못하는 상황입니다.

이처럼 AI 기반 딥페이크는 이미 글로벌 차원의 사이버 범죄로 확장되었으며 유명인의 이미지·음성 도용은 여전히 증가 추세입니다. 전문가들은 이용자들이 “눈으로 본 영상이라도 무조건 믿지 말 것”, “출처를 명확히 확인할 것” 등을 기본 원칙으로 삼아야 한다고 강조합니다.

※본 자료는 대한민국 저작권법에 따라 보호되며, 모든 내용과 이미지의 권리는 작성자에게 있습니다. 작성자의 사전 동의 없이 이를 사용하는 것을 금지합니다.