온고창신 溫故創新 ongochangsin

AI(인공지능)에 대하여

대담 <인간중심 AI>의 사회실장을 목표로 하여(후편)

간천(澗泉) naganchun 2022. 7. 8. 03:13

대담 <인간중심 AI>의 사회실장을 목표로 하여(후편)

-<AI윤리 가이드라인>에 표출하는 기업이념-

 

 

<본문자료>

 

근년 AI기술은 사람들의 생활 향상에 크게 공헌하기 시작하였다. 그 한편 적절한 사용, 운용, 관리되지 않는 일에 의해서 개인의 프라이버시나 다양성, 공평성 담보가 세계적으로 의론되고 있다. 이러한 흐름 속에서 일본 정부는 20193월에 <인간 중심의 AI사회원칙>을 발표하였다. 일본유니스그룹도 <AI윤리지침>20202월에 발표하고 미래를 내다보는 움직임을 스타트시켰다.

도쿄대학 미래비전연구센터 특임 강사인 에마아리사(江間有沙) 씨를 모시고 AI윤리를 테마로

일본유니시스주식회사 펠로CTO 종합기술연구소장인 하다아키히로(羽田昭裕) 씨와 함께 말하는 대담기획이다. 후편인 본고에서는 국제적인 조류도 부감시키면서 AI윤리를 기능시켜 사회실장을 진행해나가기 위한 포인트를 탐색하고자 한다.

 

<AI윤리>를 둘러싼 의론의 조류는

-“What”에서 “How”로-

 

하다(羽田)===

20193월에 내각부가 책정한 <AI사회원칙>에는 <인간 중심의 원칙>이 담겨져서 클로스업되고 있다. 이러한 움직임을 어떻게 보고 있는가.

 

에마(江間)===

AI윤리에 대헤서는 2016년 무렵부터 미국 Google사나 Facebook사라는 기업이의 주도권으로부터 시작된 Partnership on AI나 미국에 본부를 둔 전기. 전자기술에 관한 학회 IEEEInstitute of Electrical and Electronics Engineers)」 등에서 의론되게 되었다. 이들 활동은 산()과 학()만이 아니라 또 AI의 연구자를 비롯한 다양한 분야의 연구자나 실무가도 말려들어서 전개하고 있다. 그래서 2017년에는 산학관민의 사람들의 의론의 결과로서 인류에게 유익한 AIp 관한 *<아실로마 23 AI 원칙>NPO법인 Future of Life Institute FLI에서 발표되었다.

최근에는 무엇이 의론해야 할 논점인지(What)에 관한 세계적인 합의가 생기기 시작하였다. 내각부의 인간중심원칙도 이것을 바탕으로 한 것으로 세계에서는 이미 100 가까운 가이드라인이 발표되고 있다.

다음의 스텝으로서 이들 논점이나 가치, 과제를 어떻게 각 기업이 실장해갈 것인지(How)에 초점이 이동되고 있다. 회사 내부에서 체크기구를 설치하는 곳도 있고 한편으로는 나라에 따라 정부조달에 참획 가능한 기업의 전제를 <AI가이드라인이나 운용의 유무>로 하는 곳도 나오기 시작하였다.

 

===*23 Asilomar AI principles2017년 인공지능 연구의 장래를 토의한 회의에서 발표된

가이드라인이다. 인공지능이 인류 전체의 이익이 될 수 있도록 윤리적 문제, 안전관리 대책, 연구의 투명성 등에 대해서 23의 원칙으로서 정리한 것이다.===

 

하다(羽田)===

확실히 그런 움직임은 증가하고 있다고 실감한다. 당사도 AI윤리규정을 책정하고 그 실장을 진행하고 있는 중이다.

 

에마(江間)===

한편 걱정되는 사항도 있다. 예를 들면 글로벌기업이라면 정부조달에 참가하기 위해서 등의 비즈니스상의 인센티브도 있고, AI윤리에 대한 대비가 기대된다. 그러나 지역에서 비즈니스를 하고 있는 중소기업이나 스타트업에서는 사람의 손이나 노하우가 부족하고 있는지도 모른다. AI의 아프리케이션 소프트웨어(application software=목적에 맞는 작업을 위하여 응용하는 소프트웨어) 등에서는 개인이라도 개발이 기능하다.

 

하다(羽田)===

확실히 스타트업이나 개인이 개발한 기술을 대기업이 채용하는 케이스도 많고 거기까지 대상으로 하면 한 기업으로는 손이 남는다. 어려운 과제이다.

 

에마(江間)===

이에 더해서 현재의 AI가이드라인의 다수가 AI선진국에서 작성되고 있는 데에도 주목할 필요가 있다. 무엇을 의론할 필요가 있는가(What)의 의론에 참가하지 못하는 나라 쪽이 실제로 많다. 한편 AI도입 면에서는 그때까지 시스템 도입을 행하고 있지 않는 신흥국 쪽이 빨리 퍼지는 경우가 있다. 거기에는 AI선진국의 책정한 가이드라인이 적용된다. 문화차나 경제격차 등을 무시하여 선진국의 가치관이 한 방향으로 강압하여도 좋은 것인지 하는 의문에서 WHO(세계보건기구)What를 생각하는 단계에서 아프리카나 중동, 아시아 등 여러 나라를 둘러싼 공통 가이드라인의 작성에 나가고 있다.

 

하다(羽田)===

확실히 How로 들어가려 하면 사실인식과 가치판단이 한층 깊이 질문을 받게 된다. 빠질 때에는 이제까지의 프락티스(practice/연습)을 기준으로 할 것인가 전혀 새로운 기준을 만드는 것이 고민되는 것이다. 당사에서도 <AI의 품질보증은 새로운 것으로 하여 잡는 것이 좋은지> <기존의 품질보증의 연장과 잡아야 할 것인가>는 의론해 왔지만 기존의 품질보증의 개념상으로 AI윤리를 구성하기로 하였다.

 

AI윤리의 세계

 

에마(江間)===

AI기술 그 자체나 걱정은 사회의 변화나 그에 수반하는 인간의 의식변화에 따라서도 계속 변화한다. 최적해는 존재하지 않으므로 <베스트프락티스(best practice/최선의 방법)이 아니라 < 베타 프락스틱티스(better practice/차선책)>을 쫓을 수밖에 없다. 또 실패도 착실히 기록해 두어서 반복되지 않도록 공유하는 것도 중요하다. AI윤리 가이드라인은 그러기 위한 기반으로서 잡아야 한다.

 

하다(羽田)===

금년 6월에 의무화된 식품안전을 위한 위생관리 수법인 해삽(HACCAP)과 비슷하군. 내가 품질과 안전 문화를 생각하는 포럼에 참획하고 있어서 느끼는 것은 긴 시간을 걸려서 실무자를 둘러싸면서 국제적으로 의론을 쌓고 있다는 점이다. 품질관리에 당하고 있는 사람은 단단히 연결되고 있다. AI윤리에 대해서도 그런 정도의 시간을 들이는 것이 좋을는지 모른다. AI윤리에 대해서도 그 정도의 시간을 보는 것이 좋을는지 모른다. 그런 때문에 인적 네트워크가 있다면 순탄하게 나갈 것이 아닌가.

 

에마(江間)===

확실히 그렇군. 단지 그 전제로서 <언어의 공통화>도 중요하다. 같은 언어를 쓰고 있어도 의미가 다를 경우도 있다. 예를 들면 <설명책임>은 영어의 <accountability>의 역이라 하고 있는데 이것을 <설명할 책임이 있다.>고 생각한다면 본래의 의미를 손상시킨다.

영어의 <accountability>에는 무엇이 문제가 일어났을 때에 누가 설명하고 어떻게 책임을 지는지를 명확하게 하는 것까지를 포함한다. 단지 설명을 하면 좋다는 것이 아니다. 그런데 <답책성(答責性)>이라고 번역하는 것이 적절하다고 법철학 연구자가 말하기도 한다. 중국에서는

<accountability><추책성(追責性)>으로 번역하는 것 같은데 이것이 영어의 뜻에 더 가까운지 모른다.

 

하다(羽田)===

그런 가운데 윤리란 무엇인가를 의론하는 것이니까 어려워지는 것은 당연하다. 당사가 여기까지의 품질보증의 틀 위에서 AI윤리를 구성한 것에는 기존의 개념이라는 공통부분을 바탕으로 하는 것이 사내외에서 알기 쉽다는 생각도 있다.

 

AI가이드라인의 의론에는 다층적인 리스크요인의 구조화가 불가결이다.

 

하다(羽田)===

AI를 취급할 경우 IT기술자는 인간의 감정이나 신체에 개입하고 있는 일도 자각할 필요가 있다. 지금은 무자각인 채로 하고 있는 케이스도 있다. 이 점은 앞에서도 지적했지만 거기서 의론해야할 것은 통제의 프로세스이다. 종래 소프트웨어의 품질은 프로세스기술로 보증하고 있다. 그것은 최종적으로는 기술자의 노력에 의해서 보증되고 있다. 그러나 AI로서는 그런 노력으로는 해결할 수 없는 부분도 생겨난다.

AI<주역, 조역문제> 도 크다고 생각한다. <AI윤리를 생각할 때에는 AI가 시스템의 보조적인 기능인지 중심이 되는 기능인지로 잡는 방법이 크게 다르다.>는 것이다. 그에 따라 통제에 대한 사고방식도 변해간다.

 

에마(江間)===

AI를 활용함으로써 어떤 리스크가 증대하는지는 관계자 간에서 파악하는 것이 중요하다. 단지 AI가 기존의 IT기술과 달라서 어려운 점은 학습해간다는 특징에 의해서 전형적인 체크리스트로는 해결할 수 없는 점이나 시스템이나 이용방법을 합쳐서 그 때마다 시나리오를 생각해서 디자인해갈 필요가 있다는 것이다. 이 점도 생각해서 전번의 <AI서비스의 리스크 저감을 검토할 리스크첸모델(Risk. Chain Model)의 제안>이라고 제목을 한 정책제안을 내었다. 리스크 요인을 기술적 요소, 서비스 제공자의 행동규범요소, 이용자의 이해, 행동, 이용환경요소의 삼층으로 분류한 리스크첸모델Risk. Chain Model)을 제안하고 단계적인 리스크저감의 검토와 효과적. 효율적인 리스크컨트롤을 검토할 방법론이다. 현재 몇 개의 기업과 이 모델을 쓴 공동연구를 전개하고 있어서 신뢰성이 높은 AI서비스의 실험에 쓸모가 있게 되기를 생각하고 있다.

 

AI윤리 가이드라인에는 기업의 이념이나 자세가 나타난다.

 

하다(羽田)===

마지막이 되었는데 내가 지금 제일 두려워하는 것은 이번의 신형코로나화에 의하여 AI윤리를 둘러싼 정중한 의론이 날아가 버리는 것이다. 신종코로나의 감염확대를 막는 것을 명목으로 여러 곳에서 AI활용이 급속히 진전하고 있다. 이전부터의 AI활용에로의 걱정이나 과제가 불식되고 있지 않음에도 불구하고 말이다.

AI윤리는 잊어서는 안 될 중요한 이슈이다. 이 코로나이후 <뉴 노멀>의 시대가 올 때에 장래를 내다본 AI 활용 면에서 <무엇을 남기고 무엇을 버릴 것인가.>는 신중히 정할 필요가 있다. 이리저리 흩어져서 규범적이 아닌 지침을 정착시키는 것은 장기적으로 보아서 피해야 한다고 생각한다. 모두에서도 생각해서 전했지만 최적의 모양으로 차세대에 바톤을 넘기고 가고 싶은 마음을 가지고 있다.

 

에마(江間)===

확실히 <쇼크 독트린(대참사에 끼어들어서 실시되는 시장원리개혁)>은 피하지 않으면 안 된다. 한편 공공의 안전이나 건강과 개인의 프라이버시라는 문제의 의론도 정중하게 할 필요가 있다. 나라나 기업으로서도 개인으로서도 이번 일은 AI윤리를 포괄적인 시점에서 생각하는 기회이다. 기업의 AI윤리 가이드라인에는 기업 방침이 반영된다. 곧 기업 브랜드와 같다. 이 위기에 AI활용이나 AI에 관한 윤리자세를 어떻게 잡을 것인가 기업으로서의 행동이 시도되고 있다. 무엇이 일어날는지 모르는 가운데 아무리 윤리에 적절하고 유난하게 대응될 것인가. 그것이 시도될 테스트로서 받아들이기를 바라는 생각이다.*

일본어원문=対談:「人間中心AI社会実装目指して後編 AI倫理ガイドライン表出する企業理念

출처=https://terasu.biprogy.com › article › bt_talk_ai-ethics_1

 

대담자===

에마아리사(江間 有沙)

도쿄대학미래비젼연구센터 특임강사,

2012년 도쿄대학대하권종합문화연구과박사과정수료, 박사(학술). 교토대학백미센터특저조교, 도쿄대학교양교육고도화기구특임강사. 주저 AI사회의 걷는 방법-안공지능과 어떻게 만날 것인가』(化学同人2019

 

하다아키히로(羽田 昭裕)

일본뉴시스주식회사 펠로 CTO,

1984년 일본유니바크(현일본유니시스)입사, 연구개발부문에 소속하여 경영과학, 정보탐색, 뉴로컴퓨팅 시뮬레이션기술, 통계학 등에 기초한 새로운 수요예측 기술 등의 연구나 시스템의 실용화에 종사.2007년 일본유니시스종합기술연구소 첨단기술부장, 2011년 종합기술연구소 소장. 2016년 현직.