전쟁에서 인공지능이 악용되는 <딥 페이크>
-어떻게 대처할 것인가-
AI에는 AI밖에 대항할 수 없는가?
AI에 의한 페이크 화상의 생성수법인 <딥 페이크(Deep fakes)>로 만들어진 우크라이나의 제렌스키 대통령이 항복 성명을 낸다는 페이크 동영상이 3월 16이에 네트로 공개되어 Facebook이나 YouTube 등이 이어서 동영상을 삭제한다는 소란이 있었다.
나라의 지도자가 된 페이크가 확산함으로써 안전보장 상의 위험성은 2018년에 YouTube로 미국의 오바마 전 대통령이 있을 수 없는 발언을 하고 있는 페이크동영상이 화제가 된 때에도 지적되고 있다.
어째서 그런 위험한 기술을 만들었는지 하고 AI의 기술개발에 비판이 생긴 것 같은데 여러분이 즐겨 보고 있는 영화 등의 CG(자동차전문지<CAR GRAPHIC>)에서도 영상이나 화상에 사람을 합성하는 기술은 쓰이고 있다. 2017년에는 현재에도 딥 페이크(Deep fakes) 동영상의 많이 이용되는 기술 <GAN(Generative Adversarial Network/적대적 생성 네트워크/)>가 등장하여 딥 페이크(Deep fakes)라는 이름의 소프트웨어패케지(software package)가 오픈 소스 (open source)로 제공되어 널리 쓰이게 되었다.
GAN은 이안 굿펠러(Ian J. Goodfellow=기계학습 분야의 연구자)등이 2014년에 발표한 논문에서 2개의 네트워크를 경쟁하면서 학습시키는 아키텍쳐(architecture=영어로 건축학, 건축술, 구조를 의미한다.)로서 제안되었다. GAN은 교사 없이 (라벨 없이) 학습할 수 있기 때문에 대량의 교사가 필요하다는 AI의 과제 해결이 된다.
GAN는 Generator라는 데이터를 생성하는 네트워크와 、Discriminator라는 Generator가 생성한 데이터가 진짜인지 아닌지를 가릴 수 있도록 트레이닝되는 네트워크로부터 구성된다. 이 2개의 다른 목적을 가진 네트워크도 정확도가 올라간다. AI가 만든 고성능의 가짜 데이터를 가리는 것은 고성능의 AI라는 세계이다.
===*딥 페이크(deep fake)=인공지능 등 고도의 합성기술을 써서 만들어진 가짜 동영상.===
<눈 깜박거림>까지 재현한다.
인가의 눈은 속기 쉽다는 것은 옛날부터 알려져 왔다. 실제 제렌스키 대통령의 페이크 동영상은 자세히 보면 그림자도 없고 얼굴만 잘라 붙인 것 같은 딥 페이크(Deep fakes)라 불리는 레벨에 가까울 정도 추졸한 것이다. 그래도 페이크라고 말하지 않으면 속는 사람도 많을 것이다. AI에 의한 페이크동영상을 가려내는 것은 인간보다 AI가 훨씬 뛰어나다고 하는데 이전부터 AI를 쓴 페이크검지기술은 왕성하게 연구 개발되고 있다.
2019년에는 Meta(구 acebook사)등이 DeepFake Detection Challenge라는 딥 페이크(Deep fakes) 동영상의 검지기술을 다투는 콘테스트를 시작했다. 그러나 콘테스트용의 동화의 검지율은 80%가 넘었는데도 그 기술을 식별을 곤란하게 하는 가공이 시행된 다른 동화에도 응용하면 검지율은 65%가 되고 만다고 하듯이 미지의 데이터에 관해서는 검지가 어렵다는 것을 알았다.
기타 「Microsoft Video Authenticator」라는 Microsoft가 2020년에 공개한 딥 페이크(Deep fakes)검지 도구도 있다. 화상이나 동영상에 미묘한 색깔 조화나 그레이 스케일(gray scale/ grayscale=컴퓨터 상 및 사진에서의 색깔 표현 방법의 하나)라는 위화감이 있는지 없는지 분석하여 딥 페이크(Deep fakes) 동영상의 확률이나 신뢰도 스코아를 실시간으로 표시해준다는 구조이다.
인간의 얼굴의 페이크 동영상은 눈 깜박거림 같은 인간이 자연으로 발하는 생리학적 신호 모두를 완벽하게 재현할 수는 없다는 데에 주목하여 연구도 행해왔지만 곧 깜박거림까지 재현하는 AI가 나오다니 놀랍다.
AI는 인공적인 것인데 여러 가지 자연의 생리학적 신호를 검출하게 되면 페이크를 가릴 수 있게 될 것이 아닌가 하는 사고방식은 2018년 무렵부터 뉴욕주립대학의 루 슈웨이(呂思偉) 교수 팀 등도 제기하고 있었다. 관심을 가지고 지켜보고 있었는데 아직도 페이크 동영상의 해결에는 이르지 못했다.
동영상 단 하나로 페이크가 어떤지를 가리는 것도 어렵고 페이크 동영상을 업하는 것 자체를 멈출 수도 없다. 각자가 네트에 아름답게 가공한 화상을 업 하는 표현의 자유도 있을 것으로 생각한다. 그렇다면 예를 들면 동시기에 업되는 다른 동영상과 비교하여 모순을 찾을 수 있게 된다고 하는 방향성의 연구 쪽이 좋을는지 모른다. 기술개발은 전 세계에서 속도를 올려서 행하고 있으므로 이미 그런 태도를 취하고 있는지도 모른다. 고도한 기술이 세상에 쓸모가 있게 되기를 바라면서 주시하여 가고 싶다고 생각한다.*
필자=사카모토 마키(坂本真樹)
국립대학법인전기통신대학 부학장. 동 대학정보이공학연구과/인공지능첨단연구센터 교수. 인공지능학회 전 이사. 간성AI주식회사COO。NHK라디오 제1방송『어린이 과학 전화 상담/子ども科学電話相談』의 AI・로봇담당으로서 인공지능 등의 최신 연구와 비즈니스 동향에 대하요 해설하고 있다. 저서로 「사카모토마키선생이 가르치는 인공지능이 거의 알 수 있는 책」(옴사).
일본어원문=戦争でAIが悪用される「ディープフェイク」にどう対処すべきか?
출처= ...https://news.yahoo.co.jp › articles
'과학 > 과학' 카테고리의 다른 글
압도적인 지능을 가진 문어, 인간과 같이 잘 듣는 팔이 있다는 것이 판명되다. (0) | 2022.11.02 |
---|---|
역사상 가장 빠른 속도의 플라스틱분해 능력을 가진 효소가 발견됨 (0) | 2022.10.31 |
항암제 치료로 실패하는 일이 있는가? (0) | 2022.10.24 |
<편안한> 항암제 치료는 없는가? (0) | 2022.10.21 |
암치료에 헤르페스 바이러스(herpes virus)가 쓸모 있을 날이 멀지 않은지 모르겠다. (0) | 2022.10.20 |