온고창신 溫故創新 ongochangsin

과학/과학

전쟁에서 인공지능이 악용되는 <딥 페이크>

간천(澗泉) naganchun 2022. 10. 28. 03:44

전쟁에서 인공지능이 악용되는 <딥 페이크>

-어떻게 대처할 것인가-

 

 

 

AI에는 AI밖에 대항할 수 없는가?

 

AI에 의한 페이크 화상의 생성수법인 <딥 페이크Deep fakes>로 만들어진 우크라이나의 제렌스키 대통령이 항복 성명을 낸다는 페이크 동영상이 316이에 네트로 공개되어 Facebook이나 YouTube 등이 이어서 동영상을 삭제한다는 소란이 있었다.

나라의 지도자가 된 페이크가 확산함으로써 안전보장 상의 위험성은 2018년에 YouTube로 미국의 오바마 전 대통령이 있을 수 없는 발언을 하고 있는 페이크동영상이 화제가 된 때에도 지적되고 있다.

어째서 그런 위험한 기술을 만들었는지 하고 AI의 기술개발에 비판이 생긴 것 같은데 여러분이 즐겨 보고 있는 영화 등의 CG(자동차전문지<CAR GRAPHIC>)에서도 영상이나 화상에 사람을 합성하는 기술은 쓰이고 있다. 2017년에는 현재에도 딥 페이크(Deep fakes) 동영상의 많이 이용되는 기술 <GAN(Generative Adversarial Network/적대적 생성 네트워크/)>가 등장하여 딥 페이크(Deep fakes)라는 이름의 소프트웨어패케지(software package)가 오픈 소스 (open source)로 제공되어 널리 쓰이게 되었다.

GAN은 이안 굿펠러Ian J. Goodfellow=기계학습 분야의 연구자등이 2014년에 발표한 논문에서 2개의 네트워크를 경쟁하면서 학습시키는 아키텍쳐architecture=영어로 건축학, 건축술, 구조를 의미한다.)로서 제안되었다. GAN은 교사 없이 (라벨 없이) 학습할 수 있기 때문에 대량의 교사가 필요하다는 AI의 과제 해결이 된다.

GANGenerator라는 데이터를 생성하는 네트워크와 Discriminator라는 Generator가 생성한 데이터가 진짜인지 아닌지를 가릴 수 있도록 트레이닝되는 네트워크로부터 구성된다. 2개의 다른 목적을 가진 네트워크도 정확도가 올라간다. AI가 만든 고성능의 가짜 데이터를 가리는 것은 고성능의 AI라는 세계이다.

 

===*딥 페이크deep fake=인공지능 등 고도의 합성기술을 써서 만들어진 가짜 동영상.===

 

<눈 깜박거림>까지 재현한다.

 

인가의 눈은 속기 쉽다는 것은 옛날부터 알려져 왔다. 실제 제렌스키 대통령의 페이크 동영상은 자세히 보면 그림자도 없고 얼굴만 잘라 붙인 것 같은 딥 페이크(Deep fakes)라 불리는 레벨에 가까울 정도 추졸한 것이다. 그래도 페이크라고 말하지 않으면 속는 사람도 많을 것이다. AI에 의한 페이크동영상을 가려내는 것은 인간보다 AI가 훨씬 뛰어나다고 하는데 이전부터 AI를 쓴 페이크검지기술은 왕성하게 연구 개발되고 있다.

2019년에는 Metaacebook등이 DeepFake Detection Challenge라는 딥 페이크(Deep fakes) 동영상의 검지기술을 다투는 콘테스트를 시작했다. 그러나 콘테스트용의 동화의 검지율은 80%가 넘었는데도 그 기술을 식별을 곤란하게 하는 가공이 시행된 다른 동화에도 응용하면 검지율은 65%가 되고 만다고 하듯이 미지의 데이터에 관해서는 검지가 어렵다는 것을 알았다.

기타 Microsoft Video Authenticator라는 Microsoft2020년에 공개한 딥 페이크(Deep fakes)검지 도구도 있다. 화상이나 동영상에 미묘한 색깔 조화나 그레이 스케일(gray scale/ grayscale=컴퓨터 상 및 사진에서의 색깔 표현 방법의 하나)라는 위화감이 있는지 없는지 분석하여 딥 페이크(Deep fakes) 동영상의 확률이나 신뢰도 스코아를 실시간으로 표시해준다는 구조이다.

인간의 얼굴의 페이크 동영상은 눈 깜박거림 같은 인간이 자연으로 발하는 생리학적 신호 모두를 완벽하게 재현할 수는 없다는 데에 주목하여 연구도 행해왔지만 곧 깜박거림까지 재현하는 AI가 나오다니 놀랍다.

AI는 인공적인 것인데 여러 가지 자연의 생리학적 신호를 검출하게 되면 페이크를 가릴 수 있게 될 것이 아닌가 하는 사고방식은 2018년 무렵부터 뉴욕주립대학의 루 슈웨이(呂思偉) 교수 팀 등도 제기하고 있었다. 관심을 가지고 지켜보고 있었는데 아직도 페이크 동영상의 해결에는 이르지 못했다.

동영상 단 하나로 페이크가 어떤지를 가리는 것도 어렵고 페이크 동영상을 업하는 것 자체를 멈출 수도 없다. 각자가 네트에 아름답게 가공한 화상을 업 하는 표현의 자유도 있을 것으로 생각한다. 그렇다면 예를 들면 동시기에 업되는 다른 동영상과 비교하여 모순을 찾을 수 있게 된다고 하는 방향성의 연구 쪽이 좋을는지 모른다. 기술개발은 전 세계에서 속도를 올려서 행하고 있으므로 이미 그런 태도를 취하고 있는지도 모른다. 고도한 기술이 세상에 쓸모가 있게 되기를 바라면서 주시하여 가고 싶다고 생각한다.*

 

필자=사카모토 마키(坂本真樹)

국립대학법인전기통신대학 부학장. 동 대학정보이공학연구과/인공지능첨단연구센터 교수. 인공지능학회 전 이사. 간성AI주식회사COONHK라디오 제1방송어린이 과학 전화 상담/ども科学電話相談AI로봇담당으로서 인공지능 등의 최신 연구와 비즈니스 동향에 대하요 해설하고 있다. 저서로 사카모토마키선생이 가르치는 인공지능이 거의 알 수 있는 책」(옴사.

일본어원문=戦争AI悪用されるディープフェイクにどう対処すべきか

출처= ...https://news.yahoo.co.jp › articles