본문 바로가기
Science & Tech

ChatGPT에 대한 진실과 오해

by WritingStudio 2023. 2. 28.
반응형

Open AI사에서 만든 ChatGPT는 현재 뜨거운 주제이다. 많은 사람들이 ChatGPT를 사용하며 놀라움을 금치 못하는 중이다. 어떤 사람들은 ChatGPT를 보조수단으로 사용하여 업무 속도나 개인적인 일 처리 속도를 높이지만 또 어떤 사람들은 이를 악용하기도 한다. 벌써부터 ChatGPT를 사용하여 대학 과제를 낸다든가 하는 사례들이 나타난다.

 

무엇이든 상당히 새로운 무언가가 처음 생겼을 때에는 파장이 크다. 특히나 ChatGPT처럼 무료판도 공개되어 인터넷에 접속이 가능한 사람이면 누구에게나 열린 경우에는 더욱 그러하다.

 

워낙에 많은 관심을 불러 일으키는 중이어서인지 상당히 많은 테크 유튜버들도 ChatGPT에 관련된 영상을 올리는 중이다. 그 중에서도 'ChatGPT의 원리를 알려주마'와 같은 제목이 많다. 하지만 그 영상들 대부분은 ChatGPT에 대한 설명이 아닌 일반적인 기계 학습(Machine Leanring)에 대한 설명에 그치는 경우가 많다. 이유는 두 가지이다. 첫째, ChatGPT에 대해서는 제대로 된 설명이 애초에 불가능하다. 이는 어떤 사람이 어떤 색깔을 보고 '빨갛다'라고 했을 때 그 사람이 보는 빨간색의 빨간 정도가 어느 정도인지는 정확히 설명이 불가능한 것과 같다. 이에 대해서는 우리는 '저 사람이 빛 스펙트럼 상에서 어느 특정 부분(빨간색이 차지하는 부분)을 보는 중이다' 정도만 설명이 가능하다. 둘째, ChatGPT와 같은 사전 학습(pre-trained) 툴은 그 기반 원리보다는 그 기반 원리를 적용한 실제가 더 중요하다. 즉, 그 기초 원리에 대한 설명은 애초에 그렇게 중요하지도 대단하지도 않다. 머신 러닝 분야에서는 어떻게 학습을 시키고 어떻게 그것을 구현하는지가 결국 중요하다.

 

이 글에서는 이미 많이 떠돌아다니는 ChatGPT와 관련된 학습(learning) 모델이나 개념도 외의 다른 내용을 다루고자 한다. ChatGPT가 뜻하는 것과 ChatGPT가 해낸 것, 그리고 우리가 ChatGPT를 어떻게 받아들이고 해석하고 사용해야하는지, 강점과 한계는 무엇인지에 대해서 다뤄보고자 한다.

1. ChatGPT, 무슨 뜻일까?

ChatGPT에서 GPT는 Generative Pre-trained Transformer를 줄인 표기다. 여기서 'Generative'는 '생성형'이라고 번역이 되곤 하는데, 기계 학습 통계 용어다. Generative한 모델은 어떤 질문을 받았을 때 이미 정해진 답을 불러와서 대답하는 식으로 작동하지 않는다. Generative 모델은 질문을 해석을 해내고 그에 맞는 결과를 '생성(generate)'해낸다. ChatGPT의 경우 문장으로 질문을 받고 문장으로 대답을 한다. 하지만 ChatGPT가 만드는 문장은 그 모델 안에 저장된 문장이 아니다. ChatGPT는 말을 이해하고 그에 따른 자료를 찾고 이를 정리해서 다시 말로 대답하도록 만들어졌다.

 

Pre-trained는 '특정 목적을 위해 사전에 훈련이 된'이라는 뜻이다. 예를 들어 한국어를 배운 한국 사람은 한국어를 이해하고 말하는 pre-trained 된 셈이다. 한국인은 한국어에 pre-trained 되었기에 한국어로 질문을 받았을 때 한국어를 모르던 시절 상태에서부터 다시 한국어를 학습을 한 후에 한국어를 알아듣는 것이 아니라 이미 pre-trained 된 한국어 능력으로 한국어를 바로바로 알아듣고 즉각적으로 대답한다. GPT역시도 개발자, 혹은 개발팀에 의해 pre-trained 되었다.

 

Transformer는 ChatGPT가 개발에 사용한 아키텍처 명칭이다. 머신 러닝 분야에서 transformer란 입력된 데이터를 해석함에 있어 낱말만 보는 것이 아니라 전체를 의미적으로 해석하는 아키텍처를 말한다. 그런 면에서 ChatGPT는 현재까지 나온 transformer 중 최고 수준이라고 일컬을만하다. 현재 모든 사람들이 ChatGPT에 질문을 입력하고 답을 얻으면서 감탄하는 중이기 때문이다. 지금까지 이러한 수준의 transformer 아키텍처는 없었던 것이 사실이다.

2. ChatGPT에 대한 진실

무엇보다, ChatGPT는 놀라운 수준을 보여준다. 이는 사실이다. 지금까지 어떤 챗봇도, 어떤 AI도 자연 언어 이해 능력이나 출력 능력이 ChatGPT보다 뛰어나지 못했다. ChatGPT는 지금 이 수준으로도 판도를 크게 바꿀 만한 툴이다. 게다가 수많은 사람들이 사용을 하는 만큼, 그리고 Open AI사에서 지속적으로 버전 업을 시키는 만큼 앞으로 그 능력은 더 강력해지리라 전망한다.

 

ChatGPT는 무엇보다 정리에 막강하다. 개인적으로 느낀 ChatGPT의 최대 강점은 정리 능력이다. 특히나 사실 여부가 확실한 사건들에 대한 일지를 쓴다거나 정리가 필요할 때 ChatGPT만큼 유용한 도구는 찾기 힘들다. 물론 ChatGPT가 학습이 2021년을 마지막으로 끊긴 상태라 아주 최근 사건에 대해서는 아직 정리를 해 주지 못하겠지만 무언가에 대한 과거 사전 자료를 찾을 때에는 ChatGPT는 아주 막강한 비서가 되어준다.

 

ChatGPT는 어느 정도의 코딩도 해 준다. 유튜브 등을 보면 ChatGPT에게 코딩을 시키는 화면들이 나온다. 나도 개인적으로 즐겨 쓰는 python 코딩을 ChatGPT에서 시켜보곤 했다. 개인적으로 느끼기에는 ChatGPT가 해주는 코딩은 실전용이라기보다는 테스트용에 가까웠다. 특히나 'Write me a python scipt printing out lastest S&P500 index from google finance(구글 파이낸스에서 S&P500 가장 최근 지수를 가져와서 출력하는 파이썬 코드를 작성해줘)'와 같은 요구에 구글 파이낸스 사이트 html상 class id까지 정확히 불러오는 부분은 인상적이었다(하지만 생각해보니 ChatGPT가 직접 구글 파이낸스에 접속해서 html을 분석해서 id를 읽어내는 것은 아닌 것 같았다. 코드상 적힌 사이트 주소 자체가 틀렸기 때문이다. 아마 stack overflow 등의 글들에서 불러온 것 같다). 아무튼 ChatGPT를 통한 코딩은 아직은 아주 단순한 작업, 혹은 오히려 코딩 학습 보조용으로 쓰기에 상당히 적합하다는 생각이 들었다.

 

ChatGPT는 인류가 얼마나 엄청난 지식과 자료를 쌓아왔는지를 보여준다. 많은 사람들이 ChatGPT를 사용해보고는 '이제 사람은 뭘 하나'와 같은 말을 하곤 한다. 하지만 나는 개인적으로 ChatGPT를 사용해보고는 그와는 반대되는 생각을 했다. '이제야 인류가 지금까지 쌓아 온 기록물들을 편하게 꺼내서 볼 수 있게 되었구나.' ChatGPT는 기본적으로 신뢰할 수 있는 자료들을 주 기반으로 하여 학습을 했다. 여기에는 수많은 책들과 수많은 저널(journal)들에 실린 셀 수 없이 많은 논문들과, 정확성을 철직으로 여기는 제대로 된 언론사들에서 낸 기사 등이 포함된다. 사실 인터넷을 통해 자료를 찾을 때 가장 힘들고 고단한 부분이 관련 자료들을 하나하나 뒤져야 한다는 점이었다. 그런데 이제는 ChatGPT에 제대로 질문만 하면 완성본은 아니더라고 상당히 강력한 초고, 혹은 출발점 정도는 손쉽게 뽑아낼 수 있다.

3. ChatGPT의 한계

ChatGPT는 한계 역시도 분명하다. 이들 한계 중 일부는 앞으로 개선이 되겠지만 어떤 것은 현재로서는 구조적으로 해결이 불가능하지 않나 싶기도 하다. 마음 한 켠으로는 이 한계들이 극복되지 않았으면 하고 바라기도 한다. ChatGPT가 가지는 한계는 ChatGPT가 ChatGPT라서 갖는 한계이다. 만약 이 한계들이 가까운 미래에 극복이 된다고 하면 그 때에는 정말로 인간 존재에 대한 고민을 깊게 해야 하지 않나 싶다.

 

ChatGPT는 창의적이지 않다. 사실 이는 한계라기보다는 당연한 것인데, ChatGPT가 나온 이후로 '창의성'이라는 단어가 잘못 쓰이는 경우가 많아 언급해보았다. 많은 사람들이 하는 말과는 달리 내가 내린 결론은 ChatGPT는 창의적이지 못하다는 것이었다. ChatGPT는 엄청나게 방대한 자료를 아주 정확하게 기억하는 뇌와도 같다. 우리는 천 페이지 짜리 책 내용을 모두 암기하여 술술 풀어내는 사람을 창의적이라고 말하지 않는다. 또한 어떤 분야에 대해서 지금껏 발견된 사실과 논쟁점이 되는 사실 등을 일목요연하고 정확하게 구술하는 사람을 두고 '박식하다', '똑똑하다'고 말하지 '창의적이다'고는 말하지 않는다. '창의성'이란 입력된 데이터를 가지고 그 데이터만 가지고는 내릴 수 없는 결론이나 짐작을 해내는 능력이다. 예를 들자면 햇빛이 만들어내는 그림자를 보고 지구의 크기를 측정할 방법을 떠올리는 능력이 인간이 가진 창의성이다. ChatGPT는 당연하지만, 새로운 방법이나 새로운 예술 형식을 만들어내지는 못한다.

 

ChatGPT는 판단을 하지 못한다. ChatGPT가 정리를 잘 하고 종합을 잘 하기는 하지만 전문적인 목적이라면 전적으로 ChatGPT에 기대서는 안 된다. ChatGPT는 그저 학습한 내용을 출력할 뿐이기 때문이다. 물론 ChatGPT는 가능한 한 신뢰도 높은, 정확한 내용을 출력하도록 학습되었다. 하지만 인간이 하는 모든 작업은-기사든, 논문이든, 문학작품이든, 과학연구든-어느 정도 목적성과 논쟁점을 가진다. 논리적으로 보아도 '모든 논문은 참이다'는 모순이다. 모든 논문이 참이라면 학문적 논쟁이라는 것은 존재할 수 없다. '모든 과학적 연구가 참'이라는 말도 모순이다. 그랬다면 뉴턴까지는 모른다고 쳐도 아인슈타인은 나올 수 없었다. 철학적인 논의로까지 들어가면 이는 더 심각해진다. 이렇듯 어떠한 '판단'은 인간적인 활동에서 어느 정도는 늘 필수적이다. 하지만 ChatGPT는 판단을 하지는 못한다. 사실만을 정리 혹은 나열할 뿐이다.

 

ChatGPT는 때로 좌뇌와 우뇌가 연결되지 않은 듯한 모습을 보인다. 얼마 전에 한 신문에 어떤 사람이 ChatGPT에게 '세종대왕이 신하들에게 맥북을 던진 사건에 대해 이야기해줘'라고 물은 후 얻은 결과가 화제가 되었다. ChatGPT가 이야기를 꾸며내었기 때문이다(물론 이 문제는 그 기사가 나간 뒤 거의 곧바로 해결되었다). 그 기사를 보면서 좌뇌와 우뇌의 연결이 끊긴 사람에 대한 연구 내용이 떠올랐다. 인간의 좌뇌와 우뇌는 뇌량으로 연결이 되어있다. 이 연결이 끊긴 환자에게 아무런 연관성이 없는 사진 두 장을 보여주면 그 환자는 어떻게든 그 두 사진을 연관지어서 이야기를 꾸며낸다. 말이 되고 되지 않고는 중요하지 않다. 어떻게든 말을 만들어낸다. ChatGPT가 가끔 보이는 모습이 그러하다. 예상컨데, 질문에 '이야기(story 혹은 tale)' 과 같은 단어가 섞여있으면 ChatGPT는 소설을 쓰듯 써도 된다는 질문으로 받아들이는게 아닌가 싶다. 이는 시간이 지나면서 ChatGPT가 더 정교해져 갈 수록 빠르게 해결될 문제라고 생각한다.

4. 유심히 지켜봐야 할 ChatGPT

우리는 ChatGPT를 유심히 지켜보아야 한다. ChatGPT는 소설가를 대체할만한 문장력을 가지지도 못했고, 학자를 대신할 만큼 학문적 창의성을 지니지도 못했다. 하지만 보조 역할에 국한해서 본다면 이미 이와 관련된 인간 일자리를 위협할 정도이다. 특히 논리가 어려워서가 아니라 역사적으로 쌓인 문서 양과 그 관계가 복잡하여 어렵다는 말을 듣는 분야-법, 세금 등-에서는 이제 ChatGPT와 같은 AI에게 맡길 일과 사람이 해야 할 일이 점점 명확하게 분리될 것 같다는 생각이 들었다.

 

게다가 현재로서는 구조적으로 창의성을 가질 수 없는 ChatGPT지만, 앞으로 연구를 거듭한 결과 인간이 보여주는 창의성도 우리가 지금까지 알지 못했던 어떠한 규칙에 의한 것이었다는 결론이 나온다면 어떻게 될지는 또 모를 일이다. 창의적인 AI까지는 나오지 않더라도 '생각해볼만한 가능성'을 몇 가지 추려서 보여주는 AI는 충분히 나올 수 있지 않을까.

반응형

댓글