골방잡담

인공지능(AI) 기술의 명암: 딥페이크 왜 위험한가 본문

뒷방에서 CNN BBC/인권 양성평등 세태

인공지능(AI) 기술의 명암: 딥페이크 왜 위험한가

sisu_ 2020. 11. 15. 09:57

인공지능기술(AI), 사물인터넷(IoT), 빅데이터(Big Data) 등 우리는 4차 혁명의 시대에 살고 있다. 멀게만 느껴지던 인공 지능 기술이 이세돌과 알파고의 바둑 대결로 현실로 다가왔다. 또한, 이 기술이 부적당하게 사용되기도 한다.

 

 

딥페이크(Deepfake): 딥러닝(deep learning)’과 ‘거짓(fake)’의 합성어로서, 얼굴 등을 인공지능(AI) 기술을 이용해 사진이나 동영상을 합성

 

화제를 일으켰던 오바마 전 미국 대통령 영상 “트럼프는 완전히 쓸모없는 인간(complete dipshit)이야”라는 가짜 동영상은 딥페이크 기술을 보여주면서, 정치 풍자를 통해 사람들의 웃음과 관심을 이끌어 냈다.

 

그러나, 유명인이나 아이돌, 심지어는 일반인, 더 나아가 청소년들을 대상으로 가짜 누드 이미지를 만들어 

온라인에서 유포한다면 어떻겠는 가?

 

한 보고서에 따르면 10만 명 이상의 여성의 가짜 누드 이미지가 소셜 미디어 사진에서 만들어지고 온라인에서 공유되고 있다고 한다.

인공지능(AI)에 의해 여성의 사진에서 디지털로 옷을 지우고 유포했는 데, 이들 중 일부는 미성년자임이 드러났다. 그 서비스를 운영하는 사람들은 그것이 단순히 "흥미"라고 말했다.

한 전문가는 "공개 사진이 있는 소셜미디어 계정을 갖는 것만으로도 누구나 타깃이 될 수 있다"라고 경고했다.

텔레그램 봇

Illustrations from the report show how messaging the bot will result in a modified version being sent back - IMAGE COPYRIGHT SENSITY

 

한 관리자는 "나는 그렇게 신경 쓰지 않는다. 이것은 폭력을 수반하지 않는 오락이다. 품질이 비현실적이기 때문에 아무도 이것으로 사람을 협박하지 않을 겁니다. 어떤 사진이 공유되는지 보고 있어, 미성년자를 보면 영원히 사용자를 차단한다"라고 말했다.

텔레그램은 논평 요청에 응답하지 않았다.



'소아성애적 내용'


센시티는 2019년 7월부터 2020년 사이 약 10만 4,852명의 여성이 표적이 됐고 이들의 가짜 나체상을 공개적으로 공유했다고 보도했다.

조사 결과 일부 이미지는 미성년인 것으로 나타나 "일부 사용자들이 주로 소아성애자 콘텐츠를 생성하고 공유하기 위해 봇을 사용하고 있음을 암시한다"라고 밝혔다.

"그 내용이 더욱 정교 해지는 것은 시간문제야. 딥페이크 포르노 동영상이 6개월마다 두 배씩 늘어나는 것 같다."며 웃었다.

"이 문제에 대해서는 우리의 법체계가 목적에 맞지 않는다. 사회는 이러한 기하급수적인 기술적 진보로 인해 우리가 상상할 수 있는 것보다 빠르게 변하고 있으며, 우리 사회는 이것을 어떻게 규제할 것인지 결정하지 못했다.

"가짜 포르노의 피해자들에게는 참혹한 일이오. 그것은 그들이 유린당하고 굴욕감을 느끼기 때문에 그들의 삶을 완전히 망가뜨릴 수 있다."

 

 

우리나라에서는 어떻게 적용되는지...

 

당국은 "불법 딥페이크 물에 대한 조사를 계속하고 있으며 엄정 대응할 방침"이라고 했다.

 

딥페이크로 만든 가짜 사진이나 영상을 판별해 낼 수 있는 고성능 소프트웨어(SW)를 국내 연구진이 개발했다. 연구진은 위변조 탐지기술을 논문 발표를 넘어서 국내 최초, 세계 두 번째로 실용화 단계까지 끌어올렸다.

 

 

Fake naked photos of thousands of women shared online

Fake naked images of thousands of women are being made from social media photos.

www.bbc.com

 

Comments