AI혁명 4편
인간에게 아첨하는 InstructGPT ~(1/5)
주==InstructGPT : 인간의 지시에 따른 결과물을 완성해 내는 AI
■ 결정론과 확률론
ChatGPT에 무엇인가 질문하면, 어떤 형태로든 답이 돌아온다.
그런데, 똑같은 질문을 다시 해도, 같은 답이 돌아오리라는 보장은 없다.
도대체 어떻게 된 걸까?
AI는 기계 장치인데, 사실은 변덕쟁이인 걸까?
아니다. ChatGPT는 “결정론”이 아니라 “확률론”에 따라 작동한다.
결정론과 확률론은 과학사에서 가장 큰 수수께끼다.
거시 세계의 대이론인 고전역학은 결정론을, 미시 세계의 대이론인 양자역학은 확률론을 지지한다. 즉, 물리학의 두 거대 이론이 정면으로 대립하고 있는 것이다.
그렇다면 결정론이란?
입력이 정해지면, 출력은 유일하게 결정된다. 즉, 재현성은 100%다.
예를 들어, 산수.
“1+1”의 답은 “2”이지, 가끔 “3”이 되는 일은 없다.
그런데, 양자역학은 이 결정론이 통하지 않는다.
예를 들어, 보어의 원자 모형.
원자핵 주위를 전자가 회전하고 있지만, 전자의 위치는 특정할 수 없다. A점에 있을 확률이 90%, B점에 있을 확률이 70%라는 식으로, 확률로밖에 표현할 수 없는 것이다.
전자라면 반드시 어디엔가 존재할 텐데, 그것을 특정할 수 없다니 이상하지 않은가?
관측 정밀도의 문제일까?
아니다. 이론적으로 확정할 수 없는 것이다.
???
양자역학은 모든 게 이런 식이라, 깊이 파고들수록 수수께끼만 깊어진다. 시간 낭비이니, ChatGPT로 돌아가 보자.
ChatGPT도 양자역학과 마찬가지로 확률론에 따른다.
텍스트를 입력하면, 답변 후보를 <확도(신뢰도)>와 함께 나열하고, 그중에서 답변을 선택한다. 여기서 <신뢰도>란 확실성을 나타내며, 값이 클수록 정답에 가깝다(이는 ChatGPT의 기준이다).
예를 들어,
답변 A: 확도 90%
답변 B: 확도 70%
답변 C: 확도 50%
…이 경우, 확도(신뢰도)가 가장 높은 것은 답변 A이지만, 반드시 A가 선택되는 것은 아니다. 선택될 확률은 90%이지, 100%가 아니기 때문이다. 그래서 입력이 같아도 출력이 달라질 수 있는 것이다.
* 출처=https://benedict.co.jp › smalltalk › talk-527

'AI(인공지능)' 카테고리의 다른 글
| 인간에게 아첨하는 InstructGPT ~(3/5) (0) | 2025.11.12 |
|---|---|
| 인간에게 아첨하는 InstructGPT ~(2/5) (0) | 2025.11.11 |
| 대모신(大母神)・대규모언어(大規模言語)모델(4/4) (0) | 2025.11.06 |
| 대모신(大母神)・대규모언어(大規模言語)모델(3/4) (0) | 2025.11.05 |
| 대모신(大母神)・대규모언어(大規模言語)모델.(2/4) (0) | 2025.11.04 |