[박영준 칼럼] 챗GPT, AI 기술개발에 ‘도덕적 딜레마’ 던지다
오펜하이머의 맨해튼 프로젝트 성공은 인류에게 과학적 성취와 함께 도덕적 딜레마를 안겼다. 분명 원자탄은 전쟁을 종식해 인류를 이롭게 한 면이 있다. 반면에 절제되지 못한 탐욕은 온 세상을 핵전쟁의 위협에 올려놓았다.
딜레마(dilemma)는 둘 중의 하나를 골라야 하는 상황을 의미한다. 주로 해도 문제, 안 해도 문제인 선택지에 사용되기에 부정적인 의미에 가깝다. 맨해튼 프로젝트를 중단하면 전쟁이라는 거악을 종식할 확실한 비책이 없었다. 반면에 프로젝트의 성공은 인류를 통째로 공멸시킬 두려운 파괴력으로 이어질 수 있었다.
딜레마를 인공지능(Artificial Intelligence, AI)으로 가져가 보자. 노벨 경제학 수상자 대니얼 카너먼(Daniel Kahneman)은 인간과 AI의 대결에서 AI가 압도적으로 승리할 것이라고 말한다. 인간의 발전 속도가 산술적인 것에 반해, AI는 기하급수적으로 발전하기 때문이다. 이제는 AI 기술개발이 가져올 결과에 대한 도덕적 딜레마에 대해 고민할 시점이다.
오픈AI 최고경영자 샘 올트먼의 해임, 그리고 복귀
지난 11월 17일 오픈AI 최고경영자 샘 올트먼(Sam Altman)이 전격 해임된다. 11월 20일 마이크로소프트가 샘 올트먼의 영입을 발표한다. 동시에 오픈AI 이사회 의장인 그레그 브룩먼(Greg Brockman)의 사임 발표와 함께 마이크로소프트 합류 소식이 전해진다.
770여 명의 오픈AI 직원 가운데 500명 이상이 샘 올트먼을 해임한 이사회 결정을 비난한다. 아울러, 샘 올트먼과 그레그 부룩먼이 복귀하지 않으면 그들과 함께 마이크로소프트로 이직할 뜻을 밝힌다.
11월 22일 오픈AI는 샘 올트먼의 최고경영자 복귀와 이사회 재구성을 발표한다. 이 사건은 오픈AI가 AI 열풍을 일으킨 챗GPT 개발을 주도한 터라 세간의 큰 화제가 되었다.
챗GPT를 낳은 거대언어모델(LLM, Large Language Model)
AI는 컴퓨터가 인간처럼 언어를 이해하고 표현한다. 컴퓨팅 성능의 비약적 발전에 힘입어 인간의 뇌를 흉내 내는 딥러닝 기술까지 발전한다. 다만, 딥러닝 기술은 앞뒤 데이터를 차례대로 해결하기에 대량의 데이터 처리가 어려웠다.
이러한 한계를 구글이 데이터를 병렬로 처리하는 알고리즘인 ‘트랜스포머(Transformer)’를 내놓으면서 AI 세계는 새로운 전기를 맞이한다. 즉, 인간이 사용하는 자연어를 처리하는 LLM(Large Language Model, 거대언어모델) 시대를 연 것이다.
LLM은 인간의 언어를 이해하고, 질문에 응답한다. 또한, 글을 분류하며, 요약하고, 생성할 수 있다. 대표적 LLM으로 챗GPT에 탑재된 GPT, 구글의 BERT, 메타의 LLaMA 등을 들 수 있다.
오픈AI 기술자들이 개발한 GPT는 ‘Generative Pre-trained Transformer’의 약자이다. AI가 엄청난 양의 데이터를 사전에 트랜스포머라는 알고리즘을 통해 학습한다. 이를 토대로 문장의 의미를 추론하고 생성하는 기능을 구현한다. 챗GPT는 인간과 GPT가 챗봇의 형태로 대화하는 일종의 애플리케이션이다.
챗GPT는 바로 앞 문장에 의존하여 질문에 답변하는 싱글턴(Single-turn) 수준의 시리(Siri), 빅스비(Bixby) 등과는 차원이 다르다. 이전 대화를 기억하고, 전체 문맥을 고려할 수 있다. 이를 통해 멀티턴(Multi-turn) 기능으로 인간과 대화할 수 있는 충격적 기능을 시장에 선보인 것이다.
챗GPT가 일반인에게 서비스를 시작하자 닷새 만에 가입자가 100만명을 돌파한다. 오픈AI의 지분 49%를 보유한 마이크로소프트가 검색엔진 빙(Bing)에 챗GPT 기술을 탑재한다. 마이크로소프트가 검색시장의 절대강자였던 구글을 한순간에 내리누르는 파란을 일으킨다. LLM의 핵심인 트랜스포머를 개발한 구글은 억장이 무너졌을 것이다.
공격적 기술개발이 인간에 미칠 해악에 대한 우려
오픈AI 사태의 이면에는 ‘AI 부머(boomer)’와 ‘AI 두머(doomer)’ 간의 치열한 싸움이 있다. 전자는 AI가 인류 발전에 이바지할 수 있다는 긍정적인 견해를 바탕으로 AI 기술개발에 공격적이다. 반면, 후자는 AI가 자칫하면 인류에 해를 끼칠 수 있기에 경계적 자세를 취한다. 당연히 AI 기술개발에 신중할 수밖에 없다.
오픈AI는 ‘인류에 이바지하는 안전한 AI 구현’을 목표로 2015년 비영리 회사로 출발했다. 하지만, 오픈AI는 LLM 개발에 막대한 금전적 부담이 불가피한 터라 결국 마이크로소프트의 투자를 받아들인다. 이 과정에서 오픈AI는 비영리와 영리 법인이 결합한 독특한 기업구조를 갖는다.
오픈AI 사태에서 샘 올트먼은 AI 부머를 대표했고, 올트먼의 해임을 주도한 이사회 구성원들, 특히 일리야 수츠케버(Ilya Sutskever)는 AI 두머의 수장이다. 일리야 수츠케버는 오픈AI 이사회에 남아 AI의 위험성을 계속하여 알릴 것으로 예상된다.
2018년 오픈AI 이사회를 떠난 창립멤버인 일론 머스크 또한 AI 두머를 지지한 것으로 알려져 있다. 물론, 표면적으로 알려진 사임의 배경에 오픈AI의 GPT와 테슬라의 AI 모델 간 충돌 가능성을 배제할 수 없다. 어찌 되었든 일론 머스크는 오픈AI의 영리법인 설립과 마이크로소프트 투자 등에 반대하였고, 결국 본인이 떠나는 방법을 선택했다.
한편, LLM 개발에는 막대한 데이터와 자본, 기술이 요구된다. 이를 해결하기 위해서는 AI 부머의 입지가 강해질 수밖에 없다. 다만, 공격적 기술개발이 인간에게 해악을 끼치는 곳으로 연결되는 것을 조심해야 한다.
인류발전을 가로막는 지나친 신중론
한편, 구글은 음성 비서인 구글 어시스턴트, 대화형 앱을 위한 언어모델인 람다(LaMDA, Language Model for Dialogue Application)를 지속해서 업그레이드 해오고 있었다. 하지만, 구글은 AI의 놀라운 성능 이면에 있는 오류나 부정적인 결과물에 대한 악영향을 걱정해 왔다. 이 때문에 개발된 모델을 공개하지 않고 다듬는 작업을 지속해 왔다.
아울러, 구글이 마이크로소프트와 팽팽한 대결을 이어가는 상황도 관전 포인트이다. 구글은 앤트로픽(Anthropic)에 4억 달러를 투자하면서 지분의 10%를 보유하고 있다. 앤트로픽이 개발한 클로드(Claude)는 오픈AI의 챗GPT에 대항마로 주목을 받고 있다. 구글은 앤트로픽과 함께 신뢰할 수 있고(Reliable), 해석할 수 있으며(Interpretable), 조정 가능한(Steerable) AI 개발을 지속해서 추구하고 있다.
앤트로픽에는 오픈AI의 이사회를 구성했던 다리오 애머데이(Dario Amodei), 다니엘라 애머데이(Daniela Amodei), 톰 브라운(Tom Brown) 등이 포진해 있다. 이들은 오픈AI를 떠난 이유는 영리 추구가 불가피한 마이크로소프트의 투자를 반대했기 때문이다.
이외에도 두머의 견지에서 막강한 자본, 기술, 데이터로 AI 기술개발을 추진하는 기업이 여럿 있다. 하지만, 지나친 신중론은 선점 효과가 중요한 AI 시장에서 한순간 승기를 놓친 것이 자칫 장시간 회복 불가의 결과를 야기할 수 있다. 아울러 AI가 이바지할 인류 발전을 가로막는 모양새로 비칠 우려를 간과해서는 안 된다.
AI 기술개발의 지향점은 인류 공헌
발달심리학자 콜버그(L. Kohlberg)는 인간은 성장과 함께 도덕성이 발달한다고 주장한다. 도덕성 발달의 여섯 단계로 ①처벌과 복종 ②도구적 목적 ③좋은 사람 원리 ④준법정신과 질서 ⑤사회적 계약으로서의 법 ⑥보편적 가치를 제시했다. 흥미로운 것은 인간이 도덕적 딜레마 상황에서 도덕성 발달 단계에 맞게 도덕적 선택을 한다는 것이다.
콜버그의 주장에는 일부 논란이 있다. 하지만, 도덕적 딜레마 상황에서 한 개인의 혹은 온 인류의 선택을 이해하거나 지향점을 찾는데 분명 좋은 잣대가 될 수 있다. 맨해튼 프로젝트에서 오펜하이머는 ‘③좋은 사람 원리’ 단계에서 원자폭탄 개발을 이어갔을 것이다. 한편, 수소폭탄의 개발 요구에 ‘⑥보편적 가치’ 단계에서 거부를 선택하며 온갖 정치적 고난을 감내했다.
AI 부머와 AI 두머의 입장은 AI 기술개발의 성취가 가져올 도덕적 딜레마를 대변한다. 챗GPT로 촉발된 AI 기술 경쟁이 콜버그의 ‘⑥보편적 가치’ 단계에서의 대의명분을 찾고 인류에게 공헌하는 방향으로 진행되길 소망한다.
“To ensure that artificial general intelligence, AI systems that are generally smarter than humans, benefits all of humanity.”(OpenAI)