가짜를 진짜로, 진짜를 가짜로… AI 기술 악용에 세계 ‘골머리’
가짜를 진짜로, 진짜를 가짜로… AI 기술 악용에 세계 ‘골머리’
이 기사를 공유합니다

(출처: Thispersondoesnotexist 캡처)
(출처: Thispersondoesnotexist 캡처)

[천지일보=이솜 기자] 위 사진들은 페이스북이나 트위터, 아마존의 제품 리뷰 또는 틴더에서 본 프로필의 사람들처럼 친숙한 얼굴들이다.

이 중 ‘진짜 사람’은 누구일까. 정답은 ‘없다’이다. 이들은 모두 컴퓨터에서 태어났으며 실제 존재하지 않는다. 그리고 이 같은 ‘가짜 사람’을 만드는 기술은 놀라운 속도로 발전하고 있다. 가짜 사람뿐만이 아니다. ‘진짜 사람’의 얼굴과 음성 등과 가짜 행동을 합성한 영상까지 나오고 있다.

모든 기술들이 그렇지만 과거엔 일부 전문가들만 사용하던 기술을 인공지능(AI)의 도입으로 개인이 쉽고 정교하게 만들 수 있게 되면서 온갖 사기를 저지르려는 사람들의 타겟이 되고 있어 전 세계에서 골머리를 앓고 있다.

21일(현지시간) 뉴욕타임스(NYT)에 따르면 최근엔 아예 ‘가짜 사람’을 파는 곳이 있다. 2.99달러에 ‘독특하고 걱정할 필요 없는’ 가짜 사람의 사진을 살 수 있으며 1천 달러에 1천명의 가짜 사람 사진을 살 수 있다. 작년 공개된 웹사이트 ‘이 사람은 존재하지 않습니다(Thispersondoesnotexist.com)’에서는 AI가 만든 가짜 사람을 무료로 얻을 수 있다.

이들은 인터넷에서 쉽게 발견할 수 있다. 특히 나쁜 의도를 가진 사람들은 매력적인 얼굴의 AI 사진을 골라 네티즌들을 속이곤 한다.

문제는 앞으로 온라인에서 누가 진짜이고 누가 컴퓨터 속 가짜 사람인지 구별하는 것은 점점 더 어려워질 것이란 점이다.

소셜네트워크의 조작을 분석하는 연구원 카밀 프랑수아는 “2014년 이 기술이 처음 등장했을 때는 심즈(시뮬레이션 게임)처럼 보였다”라며 “기술이 얼마나 빨리 진화할 수 있는지 일깨워준다. 구별하는 것은 시간이 지날수록 점점 더 어려워질 뿐이다”라고 말했다.

얼굴 조작은 얼굴의 주요 특징을 식별하는 기술이 발전하면서 가능해졌다. 최근에는 얼굴을 이용해 스마트폰의 잠금을 해제하거나 사진 소프트웨어에서 수천장의 사진을 분류해 ‘아기’ ‘강아지’ 등의 사진만 보여줄 수 있다. 안면 인식 프로그램은 범죄 용의자를 식별하고 체포하는 데 사용되기도 한다.

얼굴 인식 알고리즘은 다른 AI처럼 완벽하지는 않다. 이들을 능숙하게 만드는 데 사용되는 데이터의 근본적인 편견 때문이다. 예를 들어 안면 인식 시스템 중 일부는 유색인종을 제대로 인식하지 못한다. 2015년 구글이 개발한 초기 이미지 탐지 시스템은 흑인들 2명을 ‘고릴라’로 표기하기도 했다. 이런 오류들은 심각한 결과를 낳는다. 지난 1월 디트로이트에 사는 로버트 윌리엄스라는 흑인 남성은 잘못된 안면 인식 시스템으로 저지르지 않은 범죄의 용의자로 체포됐다.

그렇다면 ‘가짜 사람’은 어떻게 알아볼 수 있을까. NYT는 ‘가짜 사람’을 구별할 수 있는 다음의 몇 가지를 지적했다.

▲눈의 간격이 다 같다 ▲얼굴 각도가 동일하며 모두가 카메라를 똑바로 쳐다보고 있다 ▲얼굴에 흠집이 없다 ▲얼굴 양쪽이 동일하다 ▲얼굴이 터무니없이 건강하다 ▲머리카락의 끝이 갈라지거나 비듬, 탈색 등이 없다 ▲눈에 뚜렷한 망막이 없다 등이다.

이처럼 가짜 사람이 ‘진짜’인척을 하는 기술이 있는가 하면 ‘진짜 사람’을 이용해 가짜 행동을 하는 영상을 만들어 내는 기술도 주목받고 있다. 딥페이크(deep fake, 인공지능 기술을 활용해 실존하는 인물의 얼굴이나 특정 부위를 합성에 만든 영상 제작기술)다.

종양학과 알츠하이머 연구진 등은 딥페이크 기술을 이용해 환자 건강 데이터를 바탕으로 진단 시스템 등을 개발하고 있다.

딥페이크는 주로 시청각적 영향을 끼치지만 가짜뉴스 영상 등을 통해 사회에서 잘못된 정보의 생태계를 만들어내기도 한다. 텍스트나 사진으로 만들어진 가짜뉴스에 익숙했던 사람들은 이제 유명 정치인이나 연예인, 심지어는 내 가족이나 친구가 실제 하지 않은 발언과 행동이 담긴 영상의 사실 여부까지 구분해야 하는 상황에 직면한 것이다.

폭스8뉴스는 지난 18일 “블라디미르 푸틴과 같은 세계 지도자가 다른 나라를 침공할 것이라고 말하는 영상이 온라인에 공개된다고 상상해보라”라며 “이 동영상은 정부, 언론, 팩트체커들이 확인하기도 전에 전 세계에 퍼지게 될 것”이라고 말했다.

가장 큰 문제는 딥페이크 대상의 ‘동의’ 없이 영상들이 만들어지고 있다는 데 있다.

과거 정교한 AI 기술은 소수의 사람들에게만 접근할 수 있지만, 최근 대부분의 온라인 딥페이크들은 일반 사용자들이 만들어내고 있는데 바로 포르노다.

딥트레이스에 따르면 2019년 9월 딥페이크 동영상 1만 5000여개 중 96%가 음란물이었다. 대부분 여성 연예인들의 얼굴이 포르노에 덧입혀져 있던 것이다.

20일 교도통신에 따르면 일본에서 딥페이크 기술을 이용해 유명 여배우와 가수들의 얼굴을 포르노 영화 출연자에게 덧입힌 영상을 판매한 남성 3명이 명예훼손 혐의로 체포됐다. 이들은 성인 웹사이트를 통해 215개의 딥페이크 영상을 판매했고 4816 달러 이상 벌어들인 것으로 추정되고 있다. 지난 9월 도쿄와 지바현에서도 딥페이크 영상을 판매한 남성 2명이 명예훼손으로 체포된 바 있다.

도쿄경찰은 지금껏 200명에 달하는 여성 연예인들이 딥페이크 포르노 피해를 신고했다고 NHK에 밝히기도 했다.

일본 하위문화연구센터 설립자인 제이크 아델슈타인은 “나는 이것(딥페이크)이 범죄 유행의 시작이라고 믿는다”라며 “우리는 완전히 새로운 기술의 세계에 있다. 유명인들이 그들이 결코 하지 않았던 것들을 말하는 가짜 영상을 보기 전에 당국자들이 앞서 나서주길 바란다”고 말했다. 

';

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.