온고창신 溫故創新 ongochangsin

AI(인공지능)에 대하여

OpenAI의 CEO가 말하는 <AI가 인류를 멸망시킬 가능성>이란

간천(澗泉) naganchun 2023. 4. 11. 12:05

OpenAI의 CEO가 말하는 <AI가 인류를 멸망시킬 가능성>이란

 

 

<AI가 인류를 멸망시킬 가능성>이란 어떤 것인가.(OpenAI의 사무엘 알트만(Samuel H. Altman)CEO가 한 말)

<우리들은 모든 AI연구기관에 대해서 Chat GPT-4보다도 파워플한 AI시스템의 트레이닝을 적어도 곧바로 6개월간 정지할 것을 요구한다.> 미국의 비영리단체(Future of Life Institute)322, 이러한 취지의 서간을 공개하였다. 43일 현재 이론 머스크 앗플공동창업자인 스티브 워스니악Stephen Gary Wozniak1950811- 을 비롯하여 3000명이 넘는 저명인사, 전문가로부터 서명을 모으고 있다.

 

 ChatGPT-4의 무엇이 문제인가?

 

ChatGPT-4는 말을 걸면 인간과 같이 대답해주는 자동회화프로그램에 지나지 않다. 문제는 <개발이 급하게 진행되어서 말을 걸어주는 상대가(AI) 인간을 훨씬 초월할 정도로 뛰어난 두뇌를 가지고 있을 때 인간이 컨트롤할 수 없게 된다거나 인간을 적대시하여 멸망시키려 할 리스크가 무시될 수 없게 되었다.>는 점에 있다.

AI의 기억력, 계산력은 도저히 인간이 따라갈 수가 없다. 그것은 장기의 톱기사가 AI에 상대가 될 수 없는 현실에서 상상하기 어렵지 않다.

 

그러나 AI에게는 추측하는 힘, 창조하는 힘, 감정, 자아 등이 없다. 그러한 인간의 본질에 상당하는 부분을 획득하는 것은 어렵지 않은가. 다수가 그렇게 믿고 있다.

그러나 인간의 뇌신경세포의 구조를 모방하여 만들어진 뉴랄 네트워크를 다층으로 결합시키는 방법이 큰 성과를 거두고 있고 그 최신 모델을 이용한 ChatGPT-4는 미국의 사법시험(모의)에서 수험자의 상위 10%에 들 정도의 두뇌수준에 달하고 있다. GPT-4가 앞으로 진화를 계속하여 56이 되었을 때 싱귤라리티(인간의 뇌와 AI가 같은 수준에 달하는 점)를 맞을 가능성이 있을는지 모른다.

 

ChatGPT-4를 개발하는 OpenAICEO인 사무엘 알트만Samuel H. Altman,1985422- 325일 프로카와의 2시간을 넘기는 인터뷰에서 <AI가 인류를 멸망시킬 가능성이 있다.>고 하는 의견을 부정할 수 없다고 말하고 있다.

 

 

인류가 이해할 수 없는 부분을 숫자화, 수식화 할 가능성

 

인류는 모든 지적활동을 숫자나 수식으로 치환하는 것을 기초로 하여 과학기술을 발전시켜왔다. 현재 음성(청각)2차원의 화상, 3차원의 입체화상(시각)이라도 숫자수식으로 치환할 수가 있게 되었다. 그러나 추측하는 것이나 마음의 움직임, 자아 등에 대헤서는 그 구조를 잘 알 수 없고 숫자, 수식으로 표현할 수가 없다.

 

그러나 팽대한 데이터를 주어서 그것을 끊임없이 학습을 계속한다면 언젠가 AI는 인류가 이해할 수 없는 그 부분을 숫자화, 수식화해 버릴는지 모른다. 어느 AI가 자아를 획득하여 혹시 그것이 악의에 찬 것이라면 세계는 한순간에 위기에 빠질 가능성이 있다.

AI의 진화에 관한 리스크는 더 신변 가까이에 있다.

 

이탈리아는 331ChatGPT의 사용을 일시적으로 금지한다고 발표하였다. 데이터 수집방법에서 위법한 일이 있었던 것 같은데 ChatGPT는 대량의 데이터를 읽어야 하기 때문에 프라이버시의 문제가 심각하다.

AI가 인류의 일을 근본부터 빼앗을 가능성도 있다. ChatGPT-4는 이미 새로운 미국 변호사 수준의 일을 할 수 있는 수준에 달하였다. 금후 고성능 AI와 고기능의 기계를 조합한다면 모든 면에서 인간의 능력을 초월해버릴는지 모른다. 그것은 인류가 문명 그 자체를 잃어버리는 데에도 이어질 수밖에 없다.

 

전술한 서간에서는 모든 연구기관, 연구자는 개발에 당해서 AI의 연구지침의 방향성, 윤리원칙을 나타낸 *<아실로마AI원칙>에 따라야 하고 그것을 철저히 이행시키는 데에 필요하다면 국가가 개입해야 한다고 하고 있다. 무질서하고 상과만을 전력을 다해서 추구하는 방식은 AI의 폭주를 불러들이지 않을 수 없다. 성악설에 선다면 윤리감이 결여된 악의에 찬 AI의 생성을 방지하는 데에는 강제력이 불가결이다.

AI의 개발에 따른 리스크는 예를 들면 유전자조작 실험에 의한 바이오하사드(BIOHAZARD) 같은 쉽게 상상할 수 있는 리스크가 아니다. 규제를 요구하는 세론은 간단히는 고조되지 않고 각국 정부의 움직임은 둔화할 것이다. 또 미국이 규제를 더했다고 해도 다시 하나의 AI대국인 중국이 간단히 동조할 것이라고는 생각되지 않는다.

 

AI를 전면적으로 활용한 편리하고 풍부한 세계의 창생은 인류의 멸망과 종이 한 장의 차일는지 모른다.

===* 이실로마 AI원칙23 Asilomar AI principles2017, 인공지능연구의 장래를 토의한 회의에서 발표된 가이드라인이다. 인공지능이 인류전체의 이익이 될 수 있도록 윤리적 문제, 안전관리대책, 연구의 투명성 등에 대하여 23개의 원칙을 정리한 것이다. 아실로마는 미국 캘리포니아주의지명이다.====

 

= 다시로나오키(田代尚機)=1958년생. 현재 중국주비지니스의 컨설팅하는 프리랜스로 활동하고 있음.

일본어원문=OpenAIのサム・アルトマンCEO言及するAI人類滅亡させる可能性

출처=https://news.yahoo.co.jp/articles/---