ChatGPT는 만능일까? 챗GPT의 미래

요즘 가장 핫한 이슈는 ChatGPT가 아닐까 싶습니다.

거의 모든 매체에서 ChatGPT에 대해서 이야기하고 있는데요.

이런 광풍은 작년의 ‘메타버스’를 떠올리게 합니다.

작년초에는 메타버스의 시대였습니다. 당시에도 소수의 목소리로 메타버스에 대한 비판이 있었지만 사람들은 메타버스가 모든 것을 해결해 줄거라고 믿었습니다.

메타버스는 헛소리인가? (tistory.com)

하지만 우리는 알고 있습니다. 메타버스는 그저 말장난이었으며, 결국 우리의 삶을 하나도 바꾸지 못했습니다.

메타버스의 장미빛 미래는 메타의 주가처럼 한순간 꿈으로 사라졌습니다.

그럼 ChatGPT는 어떨까요?

먼저 ‘지피지기면 백전백승’이라는 말처럼 ChatGPT에 대해서 간단하게 알아보고 넘어가겠습니다.

ChatGPT란?

샌프란시스코에 본사를 둔 인공지능 연구소 오픈AI가 제작한 ‘대형언어모델(large language model)’

GPT-3는 딥러닝(deep learning)을 이용하는 알고리즘으로, 책이나 인터넷에 있는 수많은

텍스트를 학습하여 단어와 구절을 연결해 텍스트를 생성하는 프로그램입니다.

2020년에 처음 출시됐을 때 GTP-3가 인간의 글을 무서울 정도로 실제에 가깝게 모방하자

많은 이들은 드디어 진정한 기계지능(machine intelligence)으로 향하는 문이 열렸다고 환호했습니다.

GPT-3는 마치 인간이 쓴 것처럼 보이는 복잡한 문장을 만들어낼 수 있습니다.

그럼 이 GPT-3는 모든 것을 해결할 수 있는 만능키가 될 수 있을까요?

216805345 432f7422 0b28 46cd 8ec5 43ba054218ca

제 생각에는 아니라고 생각됩니다. ChatGPT가 만들어내는 텍스트는 무척 그럴싸해 보이지만,

기본적으로 메타버스가 기존의 게임에 들어가는 기술과 크게 다르지 않았던 것처럼,

GPT-3가 기존의 AI와 완전 다른 새로운 알고리즘은 아니라는 점입니다.

기존보다 단순히 규모를 키워서 좀더 그럴싸하게 보이는 것 뿐입니다.

GPT-3를 만들기 위해서 오픈AI는 GPT-3의 이전 모델인 GPT-2를 만들 때 사용했던 것과

동일한 방법과 알고리즘을 거의 그대로 사용했습니다. 다만 GPT-2가 파라미터를 15억개를

사용했다면, GPT-3는 1750억개로 120배 정도 많은 파라미터를 사용했을 뿐입니다.

그럼 ChatGPT의 한계에 대해서 알아보도록하겠습니다.

ChatGPT의 한계

먼저 ChatGPT를 비롯한 인공지능의 한계는 무한대로 늘려도 정답률이 높아지지 않는데 있습니다.

현재 ChatGPT가 1750억개의 파라미터를 사용했지만 50점 정도 수준입니다.

그리고 이론상 무한대의 파라미터를 사용한다고 해도 약 60점 정도의 수준입니다.

216805470 30946637 bf82 4f7a 88fb 336a3f1d4760
정답률

하지만 이 문제를 조금 똑똑한 사람이라면 거의 80~90점을 맞는 문제입니다.

이 문제는 ChatGPT의 Transfomer 알고리즘의 한계에 기반한 것인데요.

ChatGPT는 인간이 언어를 사고하는 방식과 다르기 때문입니다.

일반적으로 사람은 문장을 읽고 이해한 다음 답을 찾아가는데,

ChatGPT는 알파고의 그것처럼 다음에 나올 가장 확률이 높은 단어를 찾는 방식입니다.

216805816 837cb1ba 4a2d 4bfd a644 2e0534d355e9
알파고의 바둑 원리

즉 수만가지의 바둑 기보를 읽고 다음에 둘 때 이길 확률이 가장 높은 곳에 돌을 두게 됩니다.

ChatGPT 역시 인터넷에 있는 엄청난 수의 글을 읽고 가장 확률이 높은 다음에 나올 단어를

이야기 하는 것 뿐입니다.

216807033 b75c7772 4bfe 4706 92f6 8827e74cf62b

이 ChatGPT의 원리에 대해서는 아래 블로그에 잘 정리되어 있습니다.

https://jalammar.github.io/how-gpt3-works-visualizations-animations/

그렇기 때문에 우리가 ChatGPT랑 이야기하다보면 갑자기 뜬금없는 이야기를 하게 되는 것입니다.

이슈가 되었던 ‘치즈를 냉장고에 넣으면 녹을까?(cheese melting in Fridge)’라는 문제 역시

인터넷에 수많은 글에는 치즈 다음에 녹는다라는 것이 많이 나오기 때문에

실제 원리와 상관없이 ChatGPT는 치즈는 냉장고 안에서 녹는다고 답변합니다.

216805868 f4e492c1 d2a5 4f36 a8b7 df88b57984e2

즉 인간의 사고하는 방식과 다른 방식으로 동작하기 때문에,

결코 인간의 지능을 100% 모방할 수 없습니다.

이는 우리가 구글 번역기로 번역된 자막을 볼때 어색함을 느끼는 그것과 같습니다.

af4371c0d3c1597150665738b833315b2a81ad1ad496a19ef92486fddaa783f4e7346c558b21e317e0843cfdb0c5de883f1a52c832807eadd6a90680348916351f8be4259f0b208326b3dc87d518ea2a7f1bc797492ef270d675d35677d9fbe7ef04396fbd27805ca05edd353f123602

다만 제한된 조건하에 있는 몇몇 분야에 있어서는 알파고처럼 사람보다 뛰어난 성능을 보일 수 있습니다.

또한 ChatGPT의 엄청난 리소스 역시 문제가 됩니다.

데이터 모델이 커지면 커질수록 비용도 높아지고,

또 이에 따라 데이터 처리하는 시간 역시 많이 사용하게 됩니다.

어마어마한 ChatGPT의 파라미터를 최초 학습하는데도 엄청난 전기와 컴퓨터가 사용되었습니다.

이후 이 모델을 다시 학습하고 수정하는데 역시 엄청난 에너지가 소비됩니다.

엄청난 파라미터의 계산을 하는 비트코인이 전기를 엄청 사용한 것처럼

ChatGPT역시 환경오염에 큰 영향을 끼칠 수 밖에 없습니다.

216806060 7cdcd8d2 16e0 4627 9724 9c06402c000e

또한 테슬라의 오토파일럿처럼 AI에 대한 신뢰 역시 큰 문제가 될 수 있습니다.

최근 AI분야에서 핫한 설명가능한 AI와도 일맥상통하는데요.

ChatGPT가 하는 말 중 어디까지 믿을 수 있고 어디는 믿을 수 없는지 이것을 결정하는 것도

쉽지 않습니다.

왜냐하면 ChatGPT는 앞서 언급드린 것처럼 우리와 같이 사고하는 것이 아니라,

단순히 다음에 나올 단어만 선택하는 것이고, 그 이유를 설명하지 않습니다.

즉 구글 검색에서 최상단에 나오는 검색결과를 보여줄뿐 왜 최상단에 나왔는지는 설명해주지 않습니다.

냉장고에서 녹는 치즈처럼 그럴싸하게 거짓을 진실처럼 말하기 때문입니다.

그래서 MS에서 Bing에 ChatGPT를 탑재하되, 출처를 표시하는 형태로 된다고 하는데요.

출처가 있다면 조금은 더 믿을 수 있는 데이터가 될 것 같습니다.

이번에 이슈가 된 오토파일럿이 잘못 인식한 차선으로 인한 사고 등 ChatGPT를 실제

사용하게 되면서 발생하게 되는 피해에 대한 부분도 논의해봐야할 문제입니다.

216806259 6f70a710 c6c1 4448 996d 6b2929bd7134
테슬라 오토파일러 사고
SkeletalFlickeringGroundhog mobile

공유지의 비극

그리고 마지막으로 공유지의 비극에 대해서 이야기를 빼놓을 수 없습니다.

현재 ChatGPT를 활용한 데이터 폭격으로 블로그와 유튜브의 검색이 마비될 지경입니다.

사람들이 악성코드를 배포하기 위해 ChatGPT를 통해 그럴싸한 글을 만들어 놓고 무한대로 배포하고 있습니다.

구글 검색에 나오는 이상한 광고 사이트 주의 (tistory.com)

216806431 90b27bb9 010e 4762 ae68 85fe1b3d1df7

이렇게 되면 예전에 이루다가 사람들이 쓴 욕설로 인하여 욕설을 말하게 되는 것처럼

ChatGPT가 학습하게 되는 데이터가 본인이 만든 데이터로 채워지게 되는 등 오염되게 됩니다.

즉 공유지가 황폐해지는 것처럼 ChatGPT가 학습할만한 양질의 데이터가 사라지게 되는 것이죠.

216806535 e623c14d 8130 4072 a07b f6d16ebe2493

그 뿐만 아니라 이 데이터에 대한 저작권도 문제입니다.

현재의 방식은 ChatGPT가 인터넷에 공개된 데이터를 크롤링하여 불법적(?)으로 획득한 것인데요.

물론 야놀자와 여기어때의 소송에서 크롤링은 불법이 아니라고 판결이 나긴 하였으나,

본인의 쓴 글은 숙박업체 정보와 달리 엄연히 저작권이 있기 때문에 다를 수 있을 것이라 생각됩니다.

실제로 AI그림 만드는 사이트 불법적으로 크롤링하는 것을 점차 막는 곳이 늘고 있고,

Artstaion의 21세기 러다이트 운동이라 불리는 NO AI사건 등이 점차 발생하고 있습니다

216806920 bae92d5b 7d78 448a 9a41 3102e1ab35bd

이루다 사태처럼 ChatGPT를 유료화하면서 많은 곳에서 소송이 발생할 우려도 있습니다.

ChatGPT의 미래

앞서 ChatGPT의 한계에 대해서 이야기했지만

ChatGPT는 기존의 그 어떤 AI보다 뛰어난 성능을 보여주는 것은 명확합니다.

실제로 이런 성능을 보여주기 때문에 많은 논란의 중심에 서게 되는데요.

이제 새로운 AI 시대에 맞춰서 법과 제도, 그리고 우리가 AI를 대하는 자세 역시 바뀌어야 한다고 생각합니다.

ChatGPT 개발자가 말하는 것처럼 ChatGPT는 아직 등장한지 얼마 안됬고,

이러한 한계를 일부는 해소할 수 있을지도 모릅니다.

하지만 최근 언론보도에서처럼 ChatGPT가 만능은 아니라는 점을 명확하게 인식하여야 할 것입니다.

파트너스 활동으로 일정액의 수수료 등을 받을 수 있습니다.

2 thoughts on “ChatGPT는 만능일까? 챗GPT의 미래”

Leave a Comment