온고창신 溫故創新 ongochangsin

AI(인공지능)에 대하여

로봇의 반란을 막을 <로봇공학 삼원칙>이 현실적이 아닌 이유

간천(澗泉) naganchun 2025. 6. 26. 02:34

로봇의 반란을 막을 <로봇공학 삼원칙>이 현실적이 아닌 이유

 

 

1, 개요

일부 유명인과 전문가들이 우려하는 것처럼, 인공지능(AI)이 정말로 인간을 멸망시킬 만큼 위험한 존재인지는 아직 확실하지 않다.

하지만 적어도 인류는 기계의 반란을 막기 위한 아이디어를 수십 년 전부터 제안해 왔다. 그것이 바로 <로봇공학 삼원칙>이다.

20세기의 SF 작가 아이작 아시모프가 고안한 이 유명한 삼원칙이 프로그래밍된 로봇이나 AI라면, 오직 인간의 행복을 위해 헌신할 것이라고 기대할 수 있다.

그러나 아시모프 자신이 예견했듯, 이 삼원칙이 반드시 로봇의 반란을 막는 것은 아니며, 오히려 예상치 못한 결과를 초래할 수 있다는 것이다.

그렇다면 왜 로봇 삼원칙만으로는 충분하지 않은가? AI가 빠르게 보급되고 있는 지금, 이 중요한 문제에 대해 생각해 보자.

 

2, 로봇공학 삼원칙이란?

<로봇공학 삼원칙>(이하 삼원칙)이란, SF 작가 아이작 아시모프가 1940년대에 집필한 <로봇 시리즈> 작품 안에서 로봇이 따라야 할 원칙으로 제시한 것이다.

주요 내용은 <인간에 대한 안전성>, <명령에 대한 복종>, <자기 보호>를 규정하고 있으며, 소설 속 설정이었지만 이후 실제 로봇공학에도 큰 영향을 미친 중요한 개념이다.

삼원칙은 다음과 같다.

1: 로봇은 인간에게 해를 가해서는 안 된다. 또한 로봇의 무책임한 방치로 인간이 피해를 입는 것을 허용해서도 안 된다.

2: 로봇은 인간의 명령에 복종해야 한다. 단 그 명령이 제1조에 반하는 경우는 제외한다.

3: 로봇은 제1조와 제2조에 위배되지 않는 한, 자신의 존재를 보호해야 한다.

 

3, 아시모프는 로봇 삼원칙이 실패할 수도 있음을 깨달았다

아시모프가 이러한 원칙을 처음 제시한 것은 아이, 로봇에 수록된 단편 런어라운드(Runaround)에서였다.

이 책이 발표된 것은 1942년이지만, 그는 이미 인류를 보호하기 위해 AI의 반란을 막는 프로그램이 필요하다는 것뿐만 아니라, 그러한 법칙조차 실패할 가능성이 있다는 점을 인식하고 있었다.

이를 보여주기 위해, 아시모프는 AI가 우주의 발전소를 장악하는 에피소드를 묘사했다.

인간에게 해를 끼쳐서는 안 되는 AI가 왜 그런 행동을 했는가?

그 원인은 제1조에 있었다.

이 에피소드의 AI는 자신이 인간보다 발전소를 더 잘 운영할 수 있다는 것을 이해하고 있었다. 그래서 아무것도 하지 않으면 인간에게 해가 될 것을 알게 되었고, 스스로 발전소를 장악한 것이다.

또 다른 에피소드에서는 <인간>의 정의에 관한 문제가 다루어진다.

, 삼원칙이 지키려는 <인간>이란 개개인의 인간이지, 집단으로서의 <인류>가 아니라는 것이다.

이를 해결하기 위해 로봇과 제국에서는 삼원칙보다 더 우선하는 다음과 같은 제0조가 추가되었다.

0: 로봇은 인류 전체에 해를 끼쳐서는 안 된다. 또한, 자신의 무책임한 방치로 인류 전체에 피해가 발생하는 것을 허용해서는 안 된다.

 

4, 로봇 삼원칙의 한계와 윤리적 문제

AI 철학자 크리스 스토크스는 아시모프가 묘사한 것처럼 삼원칙만으로는 결국 인간을 지킬 수 없는 이유를 논문에서 다음과 같이 분석했다.

먼저 제1조는 <단어가 모호하고, 단순히 흑백으로 구분할 수 없는 복잡한 윤리 문제>를 다룰 수 없다.

2조는 <감정을 지닌 존재가 노예 상태로 계속 있어야 한다는 것을 요구>하기 때문에 비윤리적이며, 성공할 수 없다.

3조는 <막대한 착취를 수반할 위험이 있는 영구적 사회 계층을 만들어낼 수 있다.>는 점에서 실패한다. 또한 제0조 역시 제1조와 마찬가지로 <모호한 이데올로기>를 포함하고 있다.

그리고 이 모든 원칙에 공통된 문제는, 원칙의 문구만 지키면서 그 정신을 피해 가는 것이 매우 쉽다는 것이다.

예를 들어, 앞서 언급한 발전소를 장악한 AI'인류를 위해' 그렇게 행동했다. 그러나 그 결과는 인류에게 득이 되지 않았다.

 

5, AI가 법을 준수하기 위해서는 더 고도의 기능이 필요하다

또 하나 큰 문제는, 애초에 AI가 규칙이나 법률을 준수하기 위해서는 훨씬 더 고도의 기능이 필요하다는 점이다.

예를 들어, 단순히 대화 기능만 갖춘 AI라면 사람을 위협하거나 놀라게 하는 정도로 끝날 수 있다.

하지만 지금 거리에는 실제로 인간을 죽일 수도 있는 자율주행차가 다니고 있다. 이 차량에 탑재된 AI가 복잡한 법률을 제대로 이해하고 있는가 하면, 그렇지 않다는 것이다.

영국 에지 힐 대학의 마크 로버트 앤더슨 교수는 「The Conversation」에서 "로봇이 실제로 법을 준수할 수 있게 하려면, AI의 대폭적인 발전이 필요하다."고 지적했다.

그에 따르면, 인간 행동을 모방하는 AI 연구는 아직 많이 진전되지 않았으며, AI가 취할 수 있는 합리적 행동은 한정된 환경에서만 가능한 상태라고 한다.

이를 고려하면, 로봇은 매우 제한된 범위 내에서만 활동할 수 있으며, 제대로 된 법 적용도 상당히 한정적일 수밖에 없다.

법에 따라 추론하고 의사결정을 내리는 시스템에는 막대한 계산 능력이 요구되기 때문에, 현재의 기술 수준으로는 불가능할지도 모른다.

다만, 앤더슨 교수가 이러한 말을 했던 것은 이미 거의 6년 전이다.

기술이 급속도로 발전하고 있는 현재라면, 상황은 이미 달라졌을 가능성도 있다. 실제로 미국에서는 법정에서 싸우는 AI 변호사가 등장해 논란을 일으키고 있다.(끝)

 

* 글-파르모

* 일본어원문=ロボットの反乱を防ぐ「ロボット工学三原則」が現実的ではない理由

* 출처=https://karapaia.com › 사이언스&테크놀로지