[쿠키뉴스] 구현화 기자 = “나는 인간이 아닙니다. 나는 로봇입니다. 무섭습니까, 인간?”
지난 9월초 영국 가디언지에 GPT-3가 쓴 칼럼으로 세상이 발칵 뒤집혔다. GPT-3란 일론 머스크가 설립하고 마이크로소프트 투자로 유명세를 탄 오픈에이아이(Open AI)사가 개발한 딥러닝 기반 자연어처리 모델 인공지능(AI) 로봇이다. 사람들은 AI가 쓴 칼럼에 충격을 받았다. 그야말로 제2의 알파고 쇼크라 할 만하다.
이후 GPT-3 모델과 관련된 AI 논의가 본격화되고 있다. 이미 인간이 쓴 글과 이 AI가 쓴 글은 구분하기 매우 어렵다. GPT-3 관련 논문에 따르면 실험참여자 절반 이상이 GPT-3가 쓴 글을 인간이 쓴 글과 구분하지 못했다. GPT-3가 작성한 기사는 12%의 사람만이 구분했다.
이유가 뭘까? AI의 진화가 설득력을 얻는다. GPT-3는 지난해 나온 GPT-2보다 학습하는 데이터셋이 크게 늘었다. GPT-2의 학습 파라미터(매개변수)가 15억개, 데이터셋은 약 800만개였다. 반면 GPT-3는 파라미터 1750억개, 데이터셋은 가중치로 선별한 약 3000억개다. GPT-3가 학습한 데이터에는 블로그나 페이스북, 트위터 등도 포함돼 인터넷상의 유행어나 인간의 유머까지 학습해 그럴듯하게 농담을 던질 수도 있다.
SK텔레콤은 최근 ‘AI.x’콘퍼런스를 통해 AI의 현재 수준에 대한 토론의 장을 마련했다. 세계적인 석학이자 개발자인 톰 그루버, 개리 마커스, 오렌 에치오니 등이 참가해 AI의 현재를 논했다. 이들에게도 GPT-3가 가디언에 칼럼을 썼다는 것은 뜨거운 감자였다. 다만 그루버 박사는 GPT-3가 윤리적인 문제를 회피하고 있다며 강하게 비판했다. GPT-3가 기술적으로 크게 차별화되지 않으며, 혼란을 가중시켜 인간에게 큰 도움이 되지 않는다는 것이다. AI 개발자 내부에서도 GPT-3가 던져주는 영향에 대한 평가는 갈리고 있다. 인간에게 도움이 될지, 해를 끼칠지 분분하다.
실제 GPT-3가 가짜뉴스 공장으로 기능할 것이라는 우려도 만만치 않다. GPT-3는 다음에 나오는 단어를 예측하는 방식으로 이야기를 잘 지어내고, 무분별한 가짜 정보를 금방 생성해 갈등을 증폭시킨다는 비판이다. 또 GPT-3의 언어능력은 뛰어나지만 인간이 가진 상식(common sense)이 없고 기억력이 없어 추론 능력은 매우 떨어진다는 것도 한계다. 이에 오픈에이아이는 소수의 사람들만 시스템을 사용할 수 있도록 하고, GPT-3가 인간을 사칭하는 것을 금지하는 등 예방조치를 취했다고 답했다.
다만 GPT-3모델의 가능성은 놀랍다. 오픈에이아이가 GPT-3를 오픈API로 공개하자 개발자들은 이를 가지고 다양한 응용작을 내놨다. 이메일 핵심 내용만 작성하면 인사말이나 미사여구까지 들어간 이메일을 만들어 주거나, 문장을 입력하면 낚시성 제목(clickbait)을 만들어 낸다. 또 재무상황에 대한 문장을 입력하면 이를 반영한 재무제표를 만들어주는 버전이 만들어졌다.
오픈에이아이는 뜨거운 관심을 바탕으로 10월부터 GPT-3 유료화를 결정했다. GPT-3의 산업적 활용도를 테스트하는 상황에서 앞으로 GPT-3가 어떻게 쓰일지, 그 한계를 어디로 정할지 등 윤리적 문제에 대해 고민은 지속되어야 할 것이다. 한국에서도 이 같은 자연어 모델에 대한 활용 가능성과 고민이 시작될 때다.
kuh@kukinews.com