온고창신 溫故創新 ongochangsin

AI(인공지능)에 대하여

대담; <인간중심의 AI>의 사회실장을 목표로 하여(전편)

간천(澗泉) naganchun 2022. 7. 7. 02:54

대담; <인간중심의 AI>의 사회실장을 목표로 하여(전편)

-AI윤리가 묻는 <사람과 테크놀로지>의 관계성-

 

 

 

AI기술은 사람들의 생활 향상에 크게 공헌하기 시작하였다. 그 한편 적절한 사용, 운용, 관리되지 않는 일에 의해서 개인의 프라이버시나 다양성, 공평성을 손상시킬 두려움이 있다고 지적되고 있다. 그런 가운데 20193월에 일본정부는 <인간 중심의 AI사회원칙>을 발표하였다. AI의 사회실장(實裝)을 향한 광범한 과제가 클로즈업(close-up)되었다. 일본 유니시스 그룹(Nihon Unisys, Ltd.)20202<AI윤리지침>을 발표하여 미래를 향한 새로운 모색을 출발하였다. 본고에서는 AI활용에 관한 여러 가지 문제를 밟고 이제부터의 AI의 윤리가 어떻게 있어야 할 것인지를 도쿄대학미래비전연구센터 특임강사인 에마아리사(江間有沙) 씨와 일본유니시스주식회사 펠로CTO종합기술연구소장인 하네다아키히로(羽田昭裕)가 말했다.

 

AI활용 중에 주목된다.

 

<품질보증><이노베이션>의 딜레마

하다(羽田)===

AI활용이 사회에 침투하는 가운데 이제 윤리문제에 주목이 모여지는 배경에는 IT시스템에 AI가 더해짐으로써 <일찍이 없었던 리스크나 품질 상의 과제가 생겨난다.>는 두려움이 있다. 더해서 기술개발에서 근년은 다양한 엔지니어 층이 AI를 탑재한 시스템 개발에 참획하는 환경도 갖추어졌다. 다시 개발자의 집에서도 프로닥터를 사회에 발신할 수 있게 되어서 점점 그 걱정을 깊게 하고 있다.

이제까지 대규모생산을 전제로 한 프로닥트의 품질담보나 트러블 때의 책임소재에 대해서는 <제조물 책임> 등이 있다. 그런 때문에 AI활용에 있어서도 <리스크나 품질향상의 과제를 극복하기 위하여서는 기술개발에 즈음하여 일양의 규칙을 강화하년 좋다.>고 하는 움직임도 있다. 그러나 나 자신은 그렇지 않다고 느끼고 있다. 예를 들면 당사에서 이노베이션의 싹은 다종다양한 이용자기업 등과의 공창(共創) 관계에서 생겨나는 일이 많다. 이러한 이노베이션의 생성과정에 규제를 들여놓는 장점. 단점은 아직 충분히 가려진 의론이 되고 있지 않다.

에마(江間) 선생은 어떻게 느끼고 있는가.

 

에마(江間)===

AI활용을 전제로 한 시스템개발. 기술개발 면에서는 이용자와 판매업자도 포함해서 울타리가 애매한 상황이다. 지금의 AI기술의 주류이기도 한 딥 러닝(Deep Learning)도 이용자가 더함으로써 데이터의 확보나 사회실장으로 향한 개량의 진행된다. 울타리가 애매하기 때문에 이노베이션도 진행하기 쉽다. 그 한편 <트러블이 발생했을 때의 책임은 누가 질것인가.>하는 점은 애매하다. 단지 이제까지 가속도적으로 사회를 바꾸어온 IT기술 분야 일반에서도 같은 과제를 적지 않게 안고 있는 것이 아닌가.

 

하다(羽田)===

바로 그렇다. 나는 몇 십년간이나 결론이 나지 않은 제 과제를 한꺼번에 정리할 수 있는 좋은 기회를 잡고 있다. 원래 소프트웨어 문화에는 사용자 책임과 제조자 책임이 애매한 <무법상태적인 부분>이 있었다고 느낀다. 현재는 개발 중에 AI 활용이 진전함으로써 선반 위에 올려놓았던 과제점이 수많이 노정되었다고 생각한다.

나는 이를 계기로 책임의 분담에 대한 사고방식을 명확히 하여 차세대에 배톤(baton)을 넘겨주고 싶다는 마음을 가지고 있다.

 

에마(江間)===

논의해야 할 포인트는 3개가 있다고 생각한다. 먼저 <AI이니까 특별하다고 생각하지 않는다.>하는 것이다. AI활용에 관한 법 규제나 윤리적과제에 대한 대응은 IT시스템이나 데이터의 취급에 관하여 지금까지 쌓아온 의론을 기초로 하는 것이 중요하다. AI에만 크로스업한 대처법으로는 <우리들이 만들고 있는/사용하고 있는 것은AI가 아니다.>라는 것으로 규제나 운용의 <벗어날 구멍>이 생길 무서움이 있기 때문이다. 다음으로 <인간과 기계의 관계성>을 재고할 필요가 있다. 앞에서의 사람과 기계의 책임 배분의 문제만이 아니고 <개인과 무엇이>를 고쳐 생각할 필요가 생기고 있다. 예를 들면 고인의 데이터는 현재, 개인정보보호 밖에 있지만 고인의 여러 가지 데이터를 써서 재현하는 것 같은 기술이 있다. 이것은 정보윤리만이 아니라 생명윤리의 문제하고도 관련하고 있다. 그래서 최후에 <AI는 단순한 도구가 아니라 인프라로 되어 있다.>고 이해할 일이다. 민간만이 아니라 의료나 교통, 법집행 분야 등의 공공분야의 의사결전지원에도 AI가 사용되기 시작하는 가운데 프라이버시나 안전, 공평성을 둘러싼 공공과 개인의 이익의 균형을 생각할 필요가 있다. COVID-19대책에서도 이 균형은 중요한 시점이다.

 

정보윤리만이 아니라 생명윤리의 시점도 근거로 하여 AI윤리를 잡는다.

<본 기사 자료중에서 참고 편집>

하다(羽田)===

에마 선생에게는 AI윤리에 관한 미쓰이(三井)그룹의 연구회에서 신세를 졌다. 이 회의 검토를 근거로 20202월에 일본 유니스그룹으로서의 <AI윤리지침>을 내놓아 금후의 기술개발에 AI를 전용할 때에 지켜야 할 것을 공표하였다. 의론의 출발점은 <AI 활용에서는 무자각한 가운데 사람의 신체나 사고, 행동에 개입하고 마는 일>에 있다. 그것을 설계하는 기술자가 무자각한 채로 이 민감한 영역에 들어 가버리는 두려움이 있다. 이 점에 머물지 않고 이해관계자의 다양한 관심에로의 배려도 요구되는 점에서 기술자 개개인의 노력만으로는 해결할 수 없는 사상(事象)을 커버하는 점이 당사의 AI윤리지침의 요점이 되어 있다. AI활용을 둘러싼 의론의 초점은 생명윤리에 가까운 양상을 노정해왔다. 거기서 당사에서는 <생명과학연구윤리위원회>라는 조직을 구축하여 대응하고 있다.

 

에마(江間)===

일반적으로 지침은 <만들어서 끝난다.>는 일이 있다. 잘 쓰였다고 해도 형해화할 가능성도 남아있다. 또 자유로운 이노베이션을 저해하는 일도 없다 할 수 없다. 그것은 어떻게 생각하는가.

 

하다(羽田)===

반복하지만 이노베이션은 다양한 배경을 가진 이용자와의 공창관계 가운데서 생긴다고 생각하고 있다. 그에 기초하여 이해관계자와의 관계를 중시함으로써 시대와의 긴장감을 지탱하면서 AI윤리를 생각하는 가운데 떠오르는 윤리적인 과제에 대해서는 생명과학연구윤리심사위원회와의 연계를 통하여 이노베이션과의 균형을 꾀하려 하고 있다.

 

AI윤리를 기점으로 인간과 기술의 관계성을 물어 고친다.

 

에마(江間)===

앞에서 <AI활용과 생명윤리영역의 근접>이라는 이야기도 있었지만 AI를 생각하는 데에서는 <인권>이나 <인간 존엄>을 붙잡을 때의 시점이 중요하다고 생각한다. 예를 들면 뇌사한 경우 <자신의 장기를 어떻게 쓰기 원하는지>를 의사 표시할 카드가 있는 것처럼 사후 자신의 정보를 어떻게 써서 좋은지를 자신이나 주변 사람들의 장점, 단점을 고려하여 의사 표시하는 구조를 제시할 의론이 시작되고 있다.참고D.E.A.DDigital Employment After Death= 사후의 디지털노동])

 

하다(羽田)===

당사는 내각부의 전략적 이노베이션 창조 프로그램 <AI 구호시설(hospital)>에 참획하고 있다.(참고:「AI 호스피탈(hospital)이 일으키는 의료혁명, 거기서는 에마 선생이 말한 바대로 인포메드 콘센트informed consent=설명을 받아서 납득하고 동의함)(충분한 설명과 동의)의 장면 중에서 AI활용에 의해서 환자를 어떻게 지원할 것인지도 의론하게 되어있다.

<어떤 사용방법을 쓰면 *클라이언트 (client/광고주)는 납득할까> <어떤 전달방법을 쓰면 좋은가>등이다. 이 의론에서 떠오르는 것이 어떤 기술을 만들어도 <이용자측이 무엇을 요구하고 있는지><제공측이 무엇을 축으로 할 것인지>가 정리되어 있지 않으면 현실적으로 쓸모가 없다는 점이다. <인간과 기술의 관계성>을 고쳐야 할 본질적인 물음이다.

 

===*클라이언트 (client)

컴퓨팅--컴퓨터 네트워크에서 클라이언트는 네트워크를 통하여 서버라는 다른 컴퓨터 시스템 상의 원격 서비스에 접속할 수 있는 응용 프로그램이나 서비스를 말한다. 위키백과===

 

에마(江間)===

나도 전하는 쪽도 받아들이는 방법의 의론은 중요하다고 느낀다. <기술을 수용해주게 하려면 어떻게 하면 좋은가>라는 질문을 자주하지만 일 방향적인 사고방식이라고 생각한다.

전하는 쪽, 받아들이는 쪽에 따라 사람 사람에 대하는 반응은 달라짐으로 상호간 커뮤니케이션을 꾀하여 가는 것이 중요하지 않을까.

 

하다(羽田)===

나는 소프트웨어의 전문가의 일은 풀고 싶은 문제를 특정한 후 그 풀이가 되는 시스템을 설계하여 프로그램을 개발해야 한다. 이 만들어진 프로그램이 이용되는 것을 통하여 새로운 문제를 만들어낸다는 것은 소프트웨어공학의 기본적인 테마의 하나였다. AI활용에서는 거기가 선예적(先銳的)인 초점이 되는 셈이다. 이것은 설계나 구조가 아니라 프로세스로서 대처하는 것이 좋을 것 같다. 그러나 AI윤리에 있어서 이 프로세스기술에 대해서는 충분히 의론되지 않은 것처럼 느낀다.

 

에마(江間)===

말씀대로이다. 개발에서 에용까지 관계자가 대화할 수 있는 장의 디자인이나 도구가 필요해진다. 그러나 단지 정보를 개시(開示), 설명하면 좋다고 하는 것도 아니다. AI기술의 개발자와 서비스제공자가 다른 경우 등도 많기 때문에 단일의 기업만으로는 대응할 수 없는 부분도 나온다. 그런 때문에 업계단체에서의 가이드라인 만들기나. 나라끼리, 나라와 기업 간. 다시 이용자도 말려들어서 베스트 프라스틱(best practice/최선의 방법을 만들어 가는 것이 중요하게 된다. 다시는 <문제는 반드시 일어나는 것>이라는 전제로 감사나 보험 등의 구조도 함께 개발해가는 것이 중요하게 된다.

 

하다(羽田)===

흥미롭군. AI의 판단 프로세스에 고집하면 품질의 담보나 편리성의 향상이라는 본질적인 가치를 잃어버린다는 것도 있을 수 있을 것이기 때문이다.

 

에마(江間)===

예를 들면 <기업의 채용판단을 AI에 지원시킨다.>고 하면 많은 사람은 <AI의 구조가 블랙박스라면 곤란하다.>고 속을 보고자 할 것이다. 한편에서는 같은 대학 출신이니까 라든지 직감적으로 좋다고 생각했다는 등 인간의 판단 쪽이 매우 불투명한 경우도 있는 셈이다. 인간의 판단이라면 불문에 부치고 말 수도 있는 것도 기계의 판단이라 하면 얼른 허용할 수 없는 것은 어째서인가. 품질의 담보의 존재방식을 다시 고쳐 생각할 필요가 있다고 생각한다.

 

하다(羽田)===

IoT의 사회실장에서도 같은 일이 일어나고 있다. 실증실험은 좋지만 현장에 들여놓으려 하면 도입에 의하여 일어나는 부정적인 면이 분명해지는 일이 많다. 인간과의 관계를 바탕으로 AIIT라는 인공물 전반의 책임문제를 재구성해가는 것이 금후 요구될 것이다.*

 

==대담자 프로필==

에마아리사(江間 有沙)

도쿄대학미래비젼연구센터 특임강사,

2012년 도쿄대학대하권종합문화연구과박사과정수료, 박사(학술). 교토대학백미센터특저조교, 도쿄대학교양교육고도화기구특임강사. 주저 AI사회의 걷는 방법-안공지능과 어떻게 만날 것인가』(化学同人2019)。

 

하다아키히로(羽田 昭裕)

일본뉴시스주식회사 펠로 CTO,

1984년 일본유니바크(현일본유니시스)입사, 연구개발부문에 소속하여 경영과학, 정보탐색, 뉴로컴퓨팅 시뮬레이션기술, 통계학 등에 기초한 새로운 수요예측 기술 등의 연구나 시스템의 실용화에 종사.2007년 일본유니시스종합기술연구소 첨단기술부장, 2011년 종합기술연구소 소장. 2016년 현직.

 

일본어원문=対談:「人間中心AI社会実装目指して前編

출처=https://terasu.biprogy.com › article › bt_talk_ai-ethics_1