현재 챗GPT 4o가 발표되면서 AI의 새로운 전기를 맞이하고 있는 것같습니다. 일설에 따르면 “SAT 상위 10% 수준”이라는 말도 있습니다. 이 글은 기독교세계관 정론지 월드뷰 2023년 11월호 발행사로 내보냈던 글입니다. 글 제목이 당시에도 똑같이 “인공지능에는 지능이 없다”였는데, SAT 상위 10% 수준으로 일취월장한 챗GPT 4o에도 적용될 지 한 번 일독을 권합니다.
_이영진 / 월드뷰 편집장
챗GPT의 조상
AI는 인공지능(artificial intelligence)의 약자로 알려져 있습니다. 인공지능이란 말을 실생활에서 처음 접했던 것은 1990년대 말쯤 어떤 세탁기 광고였던 것으로 기억합니다. 당시 광고는 이랬습니다. “세계가 놀란 인공지능 ☐☐세탁기!” 그 밑에는 이런 카피가 붙었습니다. “스스로 판단하고 ‘알아서’ 세탁해요.” 세탁기가 빨래를 하면서 뭘 스스로 판단하고, 뭘 ‘알아서’ 한다는 걸까요? 빨랫감의 무게를 판단하고 물의 양을 ‘알아서’ 조절한다고 했던 것 같습니다. 그건 그냥 저울 아닌가? 그 뒤로 인공지능이란 말은 한동안 가전제품의 광고 문구 또는 영화 속 이야기로만 접했습니다. 그런데 그 인공지능이 다시 우리의 관심을 강타한 것은 바둑에서였습니다. ‘알파고(AlphaGo)’라는 명찰을 달고 새롭게 등장한 AI가 이번엔 사람과 바둑을 두게 된 것입니다.
사실 체스나 바둑 게임을 컴퓨터와 겨룬다는 소재는 새로울 게 없지만, 당시 큰 관심을 끌게 된 계기는 아마도 알파고 제작사가 내건 100만 불(당시 한화 11억)이라는 상금 때문 아니었나 생각해봅니다. 2016년 당시 알파고와 맞붙은 이세돌 바둑기사는 자신이 알파고에 4대 1로 이길 것이라 예상했지만 결과는 4대 1의 패배였습니다. 사람들의 충격도 상당했습니다. 인간 고유의 연산-추론 영역이라고만 여기던 바둑을 컴퓨터가 정복한 것으로 여겼기 때문입니다. 그러나 사실 이 결과로 알게 된 것은 알파고의 엄청난 능력이라기보다는 바둑이라는 정방형 모눈판 게임의 상/변수가 만들어내는 경우의 수가 무한하지 않았다는 사실입니다. 상당한 분량의 바둑 대결 데이터를 미리 확보한 알파고는 상대의 수가 가져올 경우의 수와 확률을 예측할 뿐 아니라, 상대가 구사하는 상/변수의 패턴, 즉 습관까지 ‘학습’하고 적용해 승률을 높인 것입니다. 여기까지는 우리가 이제 말하려는 챗GPT라는 ‘가공할’ AI의 조상쯤 되는 AI 이야기라 할 수 있겠습니다.
챗GPT와 통역
알파고의 출몰로부터 10년이 채 안 되어 AI는 챗GPT라는 이름으로 다시 우리 일상에 찾아왔습니다. 30년 전에는 빨랫감 저울을 들고 나타났고, 7년 전에는 바둑돌을 들고 나타나더니 이번에는 우리 인간의 ‘언어’를 들고 나타난 것입니다. 챗GPT가 구현하는 언어 능력에 다들 두려움을 느낀다고 합니다. 사실 구글을 포함한 기계의 번역 지능은 이미 섬뜩할 정도로 상당한 수준에 도달해 있습니다. 해마다 그 수준이 다릅니다. 향상되고 있다는 거죠. 그렇지만 챗GPT를 포함한 기계 번역에는 반드시 한계가 있습니다.
가령, 다음과 같은 기원전 340년 경의 고대 그리스어 문장 하나를 가지고 살펴보겠습니다.
“…τῇ γλώττῃ ἐπί τε τὴν γεῦσιν καὶ τὴν διάλεκτον, ὧν ἡ μὲν γεῦσις ἀναγκαῖον (διὸ καὶ πλείοσιν ὑπάρχει), ἡ δ’ ἑρμηνεία ἕνεκα τοῦ εὖ.”
Περὶ Ψυχῆς
이걸 기계 번역기에 넣으면 이렇게 나옵니다.
“…미각과 미각이 필요한 방언(복수형도 있음)에 대한 혀의 네 번째 해석은 eὖ 중 하나입니다.”
뭐라는 걸까요? 이게 무슨 뜻일까요? 한글은 한글인데 영 의미를 알 수 없습니다. 영어로 추출해도 이런 정도 수준에 그칩니다. 번역 단어도 틀리고 뜻도 알 수 없습니다.
“…to the tongue on the taste and the dialect, where the taste is necessary (there is also a plurality), the fourth interpretation is one of the eὖ.”
약 150년 전의 한 영국인은 번역기 없이 저 문장을 이렇게 옮긴 바 있습니다.
“…the tongue is used both for tasting and for articulating; in that case of the two functions tasting is necessary for the animal’s existence (hence it is found more widely distributed), while articulate speech is a luxury subserving its possessor’s well-being.”
“…혀는 맛을 보는 것과 또렷이 발음하는 데 사용한다. 이 두 가지 기능의 경우 맛보기는 동물이 존재하기 위해 필요하며(따라서 더 널리 분포되어 있음), 명료한 말은 그 기능을 소유한 자의 안녕과 영합하는 사치이다.”
하지만, 저 그리스어 원문의 진정한 의미를 요약하면 다음과 같은 내용입니다
—혀는 맛을 보거나 대화하는 데 사용한다—
—맛을 보는 것은 생존에 필수적인 것이며—
—해석(ἑρμηνεία)은 행복이다—
저 문장에 대한 궁극적인 번역은 고대의 원저자가 ‘대화(διάλεκτον)’와 ‘해석(ἑρμηνεία)’을 대등한 의미로써 상승 구조 안에서 기록했다는 지점에서 발생합니다. 150년 전 이 고대 문헌에 관한 최고 권위자였던 저 영국인은 대화를 ‘발음’으로 옮기고, 해석은 ‘말하기’로 한 단계씩 도리어 낮추어 번역했습니다. 이 고대 그리스어 원전은 혀의 기능을 사람/인간에 평균을 맞추고 있는 것과는 달리, 영국 번역가는 단지 동물적인 혀 기능에 초점을 맞추어 번역했기 때문에 궁극적인 번역에 이르지 못한 것입니다. 핵심은 대화와 해석에 관한 문장이란 겁니다.
자고로 괴테는 ‘대화’를 황금이나 빛 보다도 선재된 가치로 보았습니다. 괴테의 그 유명한 <동화>에서 왕이 뱀에게 묻기를, “빛보다 상쾌한 것이 무엇이냐?”고 했을 때, “대화입니다.” 라고 뱀이 말하지 않던가요? 최고의 행복은 대화이며, 최고의 대화란 바로 헤르메네이아(ἑρμηνεία), 즉 해석/통역이라는 것이 2,300여년 전의 시대를 살던 저 고대 그리스인의 통찰이었습니다.
자, 여러분 어떠셨는지요. 읽기 힘드셨지요? 여기까지가 인간 언어의 초급 수준에서 최고급 단계에까지 이르는 언어 구현 영역이라 하겠습니다. 과연 챗GPT에게 이런 통역 능력이 있겠는지요. 챗GPT에서 GPT가 ‘Generative Pre-trained Transformer’라는 뜻이라고 하니 ‘미리 훈련된 변성기기’ 정도로 이해됩니다. 현대 AI 기술은 아마도 언어를 그 기술의 총화로 보는 것 같습니다. 그러나 챗GPT가 상기의 해석-언어 단계에까지 도달하여 자연스럽게 ‘챗(대화)’으로 구현 가능해지려면 앞으로 얼마나 더 학습 받으면 될까요. 100년? 50년? 10년? 1년?
이 학습 속도는 강력한 두 가지 요건에 제약 받을 것으로 보입니다. 첫째는 비용이요, 둘째는 조작입니다. 비용이라 함은 과연 저런 혀의 기능에 대한 가치를 누가 찾겠느냐는 문제이며, 조작이라 함은 통역에는 언제나 조작이 깃든다는 문제입니다. 대중성 없는 고급언어는 인간의 사어(死語)로써 보전되기 마련입니다. 성경처럼 말입니다. 그리고 대중성 넘치는 저질언어에는 왜곡이 필연적입니다. 해석이 봉쇄당하는 것입니다. 공산국가에선 뉴스가 왜곡됩니다. 자유민주주의 국가인 우리 사회도 오랜 시간 왜곡된 뉴스에 시달리고 있습니다. 챗GPT가 이 비용 문제 또는 그 모든 인공언어 체계를 뚫고 인간 최상위 언어를 정복해 독차지하게 되더라도 걱정하실 필요는 없습니다.
이제 해석/통역의 마지막 단계가 하나 더 남아 있습니다. 저 고대 그리스어를 앞서 구글 번역기가 ‘방언’이라 옮겨 적으면서 자신은 뜻도 모른 채 통역했습니다만, 실제로 2천년 전 기독교인은 대화(διάλεκτον)를 방언으로, 해석(ἑρμηνεία)을 통변/역으로 표현했다는 사실입니다.
“…우리가 우리 각 사람의 난 곳 방언(διαλέκτῳ)으로 듣게 되는 것이 어찌 됨이냐…”
_행 2:8
“…방언도 있으며 통역함(ἑρμηνείαν)도 있나니 모든 것을 덕을 세우기 위하여 하라…”
_고전 14:26
방언이란, 기계 번역기가 자기도 모르는 말을 옮겨 적은 것처럼 알아들을 수 없는 언어 체계를 말합니다. 아울러 알아들을 수 없는 언어 체계를 해독하는 행위를 사도 바울은 앞서 고대 그리스인 문장처럼 똑같이 헤르메네이아(ἑρμηνεία)라 쓰고 있습니다. 그래서 언어 체계란 신적인 것입니다. 방언이란 하나님이 알아들을 수 없게 막아 놓았다 하여 붙여진 명칭이고, 통역이란 학습(Pre-trained)으로 되는 것이 아니라 타고나는 것이라 하여 붙여진 명칭입니다. 인간이 구사하는 최종 단계의 언어 영역입니다. 비밀을 알아듣는 것입니다.
챗GPT와 세계관
일반 대중의 강렬한 호기심을 등에 업고 등장한 챗GPT가 이와 같은 신적 영역으로서의 언어 권역에 도전장을 내밀면서, 기독교 세계관을 지닌 전문가들의 견해는 대체로 그것이 지닌 가능성과 위험성에 관한 의견으로 갈리는 것 같습니다. 그래서 <월드뷰>는 이번 11월호 기획에서 양자 모두의 견해를 건강하게 담은 여덟 편의 글을 모았습니다. 우선 본지 대표주간인 이상원 전 총신대학교 교수는 기독교윤리 관점에서 챗GPT 사태를 정리했습니다. 그는 챗GPT를 하나님 형상의 부산물로 정의합니다. “하나님의 형상을 지닌 인간의 이성이 만들어 낸” 인공물이므로 하나님 형상이 아니었다면 결코 등장할 수 없었다는 반증입니다. 그렇지만 챗GPT에는 피와 살이 없음을 경고합니다.
/*** 바쁘신 분은 결론: ‘챗GPT와 목단선녀’로 건너뛰셔도 됩니다. ***/
아울러 특집 원고 일곱 편 중 노동, 교육, 문화 등 사회적 측면에서 네 편을 묶었고, 나머지 세 편은 교회와 신앙적 측면을 조망합니다. 먼저 ‘챗GPT와 사회’ 파트에서 서울과학기술대학교의 나영돈 석좌교수는 “인공지능 일상화 시대의 일과 노동”에 관해 점검합니다. 이 글에서 그는 기계와의 협업 그리고 그에 따른 인간의 역량 변화와 또 그런 새 패러다임에 걸맞은 노동시장에 관해 다루고 있습니다. 저출산 문제나 저탄소 문제도 새로운 전기를 맞을 것으로 예견합니다. 이어서 본지 편집위원인 김정효 이화여자대학교 교수는 “학교교육에서의 기술에 대한 접근”이라는 소제하에 공교육이 기술을 대하는 다양한 태도를 소개합니다. 인간을 기계 부품 정도로 간주하는 비인간화의 ‘기술 결정론’, 가치 중립적으로 인공지능을 잘 이용하자는 입장의 ‘기술 중립론’(또는 낙관론), 그리고 적극적으로 인공지능을 수용하는 포스트휴머니즘 입장에 서 있는 ‘기술현실론’을 이 글에서 정리합니다. 이어서 ‘바른청년연합’의 이재영 기획조정본부장은 인공지능 문제를 기술철학적 측면에서 관찰합니다. 인간을 기술의 원천으로 보는 이 개념을 소개하면서 인간의 욕망이 산출한 인공지능을 반성합니다. 끝으로 총신대학교 서나영 객원교수의 “예술을 통해 보는 진리”는 우리에게 인공지능을 미학적 시각으로 인도합니다. 인간의 예술이란 완벽한 지능 앞에서도 결코 열등감을 느끼지 않는다는 응전의 태도를 역설합니다.
다음은 ‘챗GPT와 교회’ 파트입니다. 포항기쁨의교회를 섬기는 장선범 목사는 “성경이 예견한 인공지능”이라는 주제를 통해서 성경에 나타난 지식에 관한 경고와 함께 인공지능을 대하는 기독교인의 자세를 역설합니다. 서울기독교세계관연구원의 이윤석 원장은 기대의 창으로 포문을 연 AI, 그렇지만 사회와 교회 모두에게 위협이 되는 요인을 “인공지능의 위협과 기독교의 미래”라는 글에 담고 있습니다. 마지막으로 명지대학교의 전대경 객원교수는 감정 없는 생성형 인공지능이 과연 전도, 설교, 예배까지 인도할 수 있는가에 대한 그 한계와 경고를 담고 있습니다.
챗GPT와 목단선녀
목단선녀. 글을 마무리하는 이 단어에 혹시 놀라셨나요? ‘목단선녀’라니. 제가 주거하는 지역은 예나 지금이나 점치는 집이 좀처럼 줄어들지를 않고 있습니다. 점치는 집의 현수막 광고가 세탁기 광고보다 많습니다. 최근 길을 걷다 ‘사주없이 보는 목단선녀’라는 현수막을 보고는 하도 신기해서 사진까지 찍어 둔 일이 있습니다. ‘사주 없이 본다’라… 말하자면 직통 계시란 뜻인데… 사주란, 네 개의 기둥(柱)을 말합니다. 인간이 네 기둥에 갇혀 결코 벗어날 수 없다는 이 운명론은 출생한 연·월·일·시 또는 12간지를 활용한 중세 동양의 말하자면 유사 통계학입니다. 그런데 이 목단선녀는 통계를 참조하지 않고도 직접 ‘본다’니, 사주가 있어야만 ‘보는’ 자들을 압도한답니다. 마치 챗GPT처럼 말입니다.
챗GPT를 지탱하는 기둥은 자연어 기술과 데이터 기술, 두 개의 기둥입니다. 자연어란 “아버지가방에들어가신다”에서 주어와 목적어를 추출하는 기술입니다. 이 정확도가 다음 쿼리(query, 주문)의 정확도로 이어지기 때문입니다. 문제는 ‘학습’이라는 용어를 이 기술에 도입했지만, 여전히 기계는 ‘이해’를 못 한 채 언어를 구사한다는 사실에 있습니다. 이걸 무엇에 비유할까요.
옛날에 제가 발리로 여행갔을 때 현지 안내인을 한 분 고용했습니다. 어찌나 우리말에 능통한 지 발음이 우리보다 더 좋았습니다. 그런데 하루를 같이 지내보고 이 분의 한국어에서 결함을 발견했습니다. 말을 내뱉을 줄만 알았지 들을 줄은 모른다는 사실입니다. AI 분야에서 말하는 ‘학습’이란 데이터 추출의 기술입니다. 이는 당초 목적했던 자료에 대한 축적 데이터와는 별개의 언어 색인 영역입니다. 색인을 통해 유사도를 골라내는 것이지 ‘알아 듣고서’ 말하는 게 아닙니다. 들을 줄은 모르고 말만 할 줄 아는 그 안내자처럼 말입니다. 만약 들을 줄은 모르고 말만 할 줄 아는 챗GPT를 전폭적으로 신뢰해 활용했다간 마치 데이터를 읽을 줄은 모르는 목단선녀와 같다고나 할까요? 마치 성경 읽을 줄 모르는 사람이 설교하는 것과도 같은 이치입니다.
인공지능(artificial intelligence)에서 ‘intelligence’는 앞에서 인용한 2,300여년 전 고대 그리스어 시대와 동일한 언어 체계에서 유래한 단어로서, 지능(intellect)은 ‘마음’을 뜻하는 ‘누스(νοῦς)’에서 유래한 말입니다. 즉, 인공지능에는 정작 지능이 없는 셈이죠. 마음, 듣기의 기술(Art of Listening)을 말합니다.