AI의 디지털변혁에서의 가능성과 활용
<AI(Artificial Intelligence:人工知能)가 인간의 지능을 초월하는 싱큐라리티가 2045년에 찾아온다.> <AI가 일을 빼앗는다.>는 등 AI의 위협이 밀려오고 있다. 미국 구글(Google)에서는 세계 최강의 기사를 이기는 <AlphaGo>를 웃도는 강함을 가진 <AlphaGoZero>가 발표되었다. 비즈니스면에서도 미국 IBM이 프랫트홈 <Watson>의 무상제공을 개시하고, 미국 Amazon이나 Google이 AI스피커를 일본 시장에도 투입하는 등 움직임이 활발하다. 이번 AI의 현황을 바탕으로 디지털 트랜스포메이션(Digital transformation=DX(IT의 침투가 사람들의 생활을 모든 면에서 보다 나은 방향으로 변화시킨다는 개념이다. 2004년에 스웨덴의 우메오대학 에릭 스톨다만 교수의 제창이라 한다.)에서의 가능성이나 과제를 생각해보고자 한다.
AI는 미래의 기술이 아니라 형상의 실리를 잘라 취하는 대상에
그런데 작금 화제는 AI이다. 단지 미국 조사회사의 가트너(Gartner)가 발표한 <일본에서의 테크노로지의 하이프 사이클(hype cycle、하이프곡선=특정 기술의 성숙도, 채용도, 사회의 적응도를 나타내는 그림이다. 가드너사가 이 용어를 만들어 냈다.) 2017년>은 AI에 대하여 <‘과도의 기대’의 피크기>에서 <환멸기>로 향하려 하고 있다고 한다.
* 가트너(Gartner)=IT와 관계되는 의사결정자를 위하여 최신, 최적한 정보와 아드바이스 커미티를 제공한다. 가트너는 신뢰되는 어드바이서 및 객관성을 갖춘 리소스로서 세계 100개국 이상, 15000사를 넘는 기업의 지지를 받고 있다.)
하이프 사이클은 기술의 등록에서 안정기까지를 <여명기> <‘과도한 기대’의 피크기> <환멸기> <계몽활동기> <생산성의 안정기>의 5개의 스테이지로 나누어 설명하는 것이다. <환멸기>로 향하고 있다는 현상은 <AI가 만능이고, 모든 분야에서 일이나 생활을 바꾼다.>고 말해온 과도의 기대에서 <현상의 AI가 유효하게 쓰이는 분야가 명확해지고 실제의 활용이 넓혀지려고 하는 시기>에 옮겨왔다고 본다.
디지털 테크노로지의 가능성이나 과제를 생각할 때에는 그 디지털 테크노로지가 어떻게 진화해 왔는가를 보는 것이 중요하다. AI의 진화로 말한다면 다음의 3개의 테크노로지 이노베이션이 크게 영향을 끼치고 있다. 이하 각각의 진화를 쫓아가 본다.
1, 기계학습/Deep Learning.
2, AI전용 칩이나 AI전용기 등의 처리장치
3, Internet 크라우드
(1) 기계학습(ML)/Deep Learning(DL)의 영향
기계학습(ML:Machine Learning)은 AI자신이 자율적인 데이터에 기초하여 학습하는 방법이다. 디프런닝(DL:Deep Learning)은 그 기계학습을 뉴랄 네트워크(Neural Network, NN)에 의하여 행하는 방법이다. 과거의 AI는 인간에 의한 프로그레밍이나 “지식”의 입력(인푸트)이 필요했다. ML/DL은 그 병목을 해소했다.
* 뉴랄네트워크(Neural Network, 인공 신경망)=설명
인공신경망은 기계학습과 인지과학에서 생물학의 신경망에서 영감을 얻은 통계학적 학습 알고리즘이다. 인공신경망은 시냅스의 결합으로 네트워크를 형성한 인공 뉴런이 학습을 통해 시냅스의 결합 세기를 변화시켜, 문제 해결 능력을 가지는 모델 전반을 가리킨다. 위키백과
* 보틀넼크(Bottleneck)=병목 현상은 전체 시스템의 성능이나 용량이 하나의 구성 요소로 인해 제한을 받는 현상을 말한다. "병목"이라는 용어는 물이 병 밖으로 빠져나갈 때 병의 몸통보다 병의 목부분의 내부 지름이 좁아서 물이 상대적으로 천천히 쏟아지는 것에 비유한 것이다. 위키백과
ML(기계학습)/DL(디프런닝)의 구조나 실력을 기계번역을 예로 보기로 한다. 기계번역은 구문을 해석하여 단어나 구절을 분해한 후 각각의 단어의 번역결과를 이어 합친 것을 번역 룰에 따라 문장으로 하는 형식으로 진행해 왔다. 이 방법에는 단어의 등록이나 해석 룰의 기술이나 고침에 방대한 시간이 걸려 번역의 정도(정확도)를 높이는 것이 어려웠다. 그것이 ML에 의한 어프로치로 정도(정확도)는 급속히 향상되었다.
예를 들면 AI를 사용한 기계번역기술을 개발하는 로제타의 케이스에서는 테라메드(tailor-made) 형의 자동번역 서비스 <T-400(ver.1)>의 번역정도(정확도)는 종래형이라면 60-80 정도인데 대하여 ML를 사용한 최신의 번역 모델에서는 수 종류의 분야(의학, 화학분야 등)의 영일번역에서는 95%에 도달했다고 한다.
ML/DL은 팽대한 파라메타(parameter)의 집합체
*파라메터(parameter=변수(變數)라 번역되고 있다. 변수 신에 의하여 값이 변화한다는 의미이다. IT세계에서는 소프트웨어나 시스템의 거동에 영향을 끼친다, 외부에서 투입된다)
ML/DL의 구조에 대하여 구글(Google)의 기술논문에서 풀면, 동사의 기계번역시스템「GNMT(Google Neural Machine Translation system)」은 뉴랄네트워크의 일종인 「LSTM(Long short-term memory)」을 쓰고 있다. LSTM은 다음의 단어를 예측하는 등시계열(時系列)에서의 모델을 작성하는 데에 알맞다.
* 엔코더(Encoder)=부호화 또는 인코딩은 정보의 형태나 형식을 표준화, 보안, 처리 속도 향상, 저장 공간 절약 등을 위해서 다른 형태나 형식으로 변환하는 처리 혹은 그 처리 방식을 말한다. 위키백과
GNMT는 8개의 엔고더와 8개의 데고다 레이야(Decoder layer)를 갖춘 깊은 LSTM을 가진다. 이것에 따라 방대한 예문의 통계적 처리부터 필요한 데이터와 룰을 수집하고 룰의 조합을 고려한 LSTM예측 모델을 만들어낸다. 출현 빈도가 낮은 단어에 관해서도 거의 같은 의미를 가진 사용빈도가 높은 단어나 복수의 단어에 치환함으로써 번역정도(翻譯精度)의 저하를 회피하고 있기 때문이다.
ML/DL에 따른 자율적인 학습이나, 룰의 이해, 예측 모델의 구안에는 팽대한 데이터가 필요하고 통계적학습에서 발생하는 과제고 있다. AI연구자로 현재는 구글의 동보문의 대외발신에 책임을 가진 Charina Choi씨는 인터뷰에서 다음과 같이 말하고 있다.
<GNMT는 다른 대규모의 뉴랄모델과 같다. 방대한 파라메터의 집합이고 훈련의 성과가 어떤 내부처리로 되어 있는가를 전망하기 어렵다. (중략) 무엇인가가 잘 나아가지 않은 것을 눈치 채도 그 부분을 간단히는 치환되지 않는다. 훈련에 따라 새로운 시스템을 만들어 내는 것은 곤란을 수반하는 일이다.>
학습 데이터 문제를 해결하는 <강화학습>이라는 개념
이 학습하는 데이터량의 팽대함과 통계적학습의 벽에 의하여 국립정보학연구소(NICT)가 중심이 되어 진행해온 <로봇은 도쿄대학에 넣을 것인가>를 테마로 한 <동로봇군> 프로젝트는 동결되었다. 프로젝트는 영어 공난의 빈 곳 채우기나 나란히 바꾸기 문제에서는 정답률 90%가 넘을 정도까지 되었다. 그러나 그 때문에 읽은 어수는 500억 어이고 문의 수는 19억 문이었다. 동 프로젝트를 이끈 NICT의 아라이 노리코(新井紀子) 교수는 <동로봇군은 문의 의미를 이해하고 있는 것은 아니다. 가까운 패턴을 찾아내어 회답하는 것으로 인간의 해법과는 분명히 다르다. 통계적 수법을 써서 의미를 알고 있는 척할 뿐으로 본질적인 의미는 모르고 있다.>고 말하고 있다.
ML/DL는 대상 분야가 복잡하여 광범위일수록 모델화가 어렵고 많은 파라메터가 필요하여 방대한 데이터에 따른 학습이 필요하다. 학습 결과는 테스트 이외로 검증이 어렵고 결과에 오류가 있는 경우의 개수도 어렵다. 그런 때문에 방대한 데이터에 따라서 학습하고 검증된 AI는 커다란 가치를 가지고 학습을 필한 AI를 쓴 서비스에로 이어진다. 한편 새롭게 시작한 경우에는 가능한 대로 도메인을 짜내어서 학습시키는 것이 중요해진다.
이 데이터 문제의 해결방법의 하나를 2017년 5월에 세계 최강의 기사를 이긴 <AlphaGo>가 나타내었다. 자기 스스로 데이터를 생성하는 <강화학습>이라는 개념이다. 바둑과 같은 게임은 룰이 명확해서 그 결과인 승패도 정확하다. 사이버 상에는 AlphaGo끼리 대전할 수 있다.
그 대전을 팽대한 회수 반복함으로써 필요한 데이터를 생성하고 그 데이터에서 여러 가지 국면에서의 가장 알맞은 수나 어느 것이 가장 알맞은 수인가를 판단하는 룰을 학습하고 보다 강한 모델을 구축한다.
AlphaGo는 과거의 기보를 학습하고 그것을 베이스로 하여 강화학습을 행하였다. 그런데 그 차세대판인 <AlphaGoZero>는 과거의 기보를 학습하지 않고 인간에 일체 의지하지 않은 <교사 없는 학습>으로 강해졌다. 게임이라는 폐쇄된 세계라고는 하지만 AI가 룰에 바탕을 두고 자기 스스로 자신을 강화하는 학습이 된 것은 커다란 진화이다. Google은 금후 AlphaGoZero로 난치병의 조기발견이나 전력의 수요조정에 참여한다고 발표하고 있어 그 결과가 기대된다.
모든 것을 사이버 상에서 실행하는 것이 어려운 케이스라 해도 현실과 사이버의 시뮬레이션을 조합함으로써 효율적으로 데이터를 수집하고 모델링을 행하는 추진에도 시작하고 있다.
<Digital Twin(디지털 트윈)>이라 부르는 어프로치이다. 제조의 디지털 트렌스포메이션인 독일 정부의 <Industry 4.0> 프로젝트나 미국 GE사가 진행하는 <Industrial Internet>에서는 제품이나 제조 프로세스를 사이버 상에서 모델화하여 시뮬레이션에 의하여 최적화를 꾀하려 하고 있다.
(2) 전용(專用) 칩이나 전용기(專用機) 등의 처리장치의 영향
컴퓨터의 고속화나 전용 칩, 전용기에 의하여 팽대한 데이터 처리나 추론이 실행할 수 있게 되었다. 복잡하고 고도한 AI처리를 실행하기 위해서는 다시 팽대한 처리를 위한 하드웨어가 필요하다고 한다. 구글(Google)의 알파고(AlphaGo)에서는 그것을 가동시키는데 2만 왓트의 전력을 필요로 하는 전용기를 사용하고 있다.
또 미국의 인기퀴즈 프로 <Jeopardy!>에서 퀴즈왕을 내리는 실적을 올려서 유명해진 미국 IBM의 <Watson>은、합계2880개의 프로세서(processor=연산장치)를 가진 대형 서버 90대와 약 100만 책 분의 상당하는 정보를 보존할 수 있는 스토레지(storage=보관 창고)를 필요로 한다. 금후의 진화에 따라 소형화, 성(省)에너지화가 틀림없이 진행되어 적용 장소가 증가하고 고속화도 실현될 것이다.
(3) 인터넷 클라우드의 영향
인터넷과 클라우드 스토레지(Cloud-storage)에 따라 데이터 수집이나 축적이 간단하게 염가로 행해지게 되었다. 금후 활용이 넓어지면 수집하는 데이터의 종류가 증가하고 응답시간 등 처리에의 요구도 다양화된다. 여러 가지 데이터 수집을 위하여 IoT(Internet of Things)나 Fog Computing(포그 컴퓨팅)이라는 분산처리의 테크노로지가 필요로 하게 되는 것도 이 때문이다.
*클라우드(Cloud) 컴퓨팅
클라우드 컴퓨팅은 인터넷 기반 컴퓨팅의 일종으로 정보를 자신의 컴퓨터가 아닌 인터넷에 연결된 다른 컴퓨터로 처리하는 기술을 의미한다. 공유 컴퓨터 처리 자원과 데이터를 컴퓨터와 다른 장치들에 요청 시 제공해준다. 위키백과.
* 출처=https://dcross.impress.co.jp ›
글= 야마도 도시히코(大和敏彦)(ITi대표취체역)
'AI(인공지능)에 대하여' 카테고리의 다른 글
<범용인공지능>으로 산업은 어떻게 변하는가? (2/2) (0) | 2022.06.17 |
---|---|
<범용인공지능>으로 산업은 어떻게 변하는가? (1/2) (0) | 2022.06.16 |
레이 카츠와일(Ray_Kurzweil)의 미래예측 (0) | 2020.04.01 |
4, AI 시대에서 변하는 직업/1) 가까운 미래의 AI의 모습 (0) | 2019.07.17 |
인공지능(AI)은 어디까지 진보하고 있는가? (0) | 2017.04.21 |