나는 이번 학기 동국대 문창과 대학원에서 <인공지능 시대의 예술과 글쓰기>라는 수업을 선생으로서 진행하고 있다. 이 수업에서는 인공지능 기술이 글쓰기와 여타 예술에 미치는 영향과 그 새로운 가능성에 대해 다룬다. 이 기계를 이용해 글을 쓴다는 일의 의미를 탐구하고, 기존의 글쓰기와 다른 미적인 경험을 하는 것이 목표다. 누구도 현재로서는 생성 인공지능의 쓸모를 특정할 수 없기에 예술가만의 새로운 사용법을 먼저 제안하는 일이 중요하다고 생각했다. 이 수업은 무엇인가 가르치기보다는 다 같이 실험하는 일로 가득 차 있다.

챗GPT는 대표적인 생성 인공지능 중 하나로, 확률적 방식으로 토큰화된 단어와 단어 관계를 연결해 문장을 생성하는 기계다. 챗GPT는 거대언어모델(Large Language Model, LLM)로 분류된다. 거대언어모델은 거대한 양의 언어 뭉치를 기계 학습 알고리즘으로 학습한다. 어텐션 메커니즘(attention mechanism), 단어 임베딩(word embedding), 트랜스포머(transformer), 파인 튜닝(fine tuning) 등의 심층 학습 기술을 활용해 인공신경망을 구성해 자연어 입력에 대해 인간과 유사한 대답을 생성한다.

그런데 무엇이든지 쓸 수 있다는 세간의 평가와는 달리 챗GPT는 높은 확률의 결합이 보여주는 상식의 선에서만 문장을 생성함으로써 창조적 글쓰기에는 큰 도움이 안 되는 것처럼 보인다. 현재 이 기계가 문장을 생성한다는 것의 의미는 세상에 없는 생각을 즉각 내어주는 방식이 아니라 이미 존재하는 지식 사이를 비틀어 반복되지 않게 표현해 준다는 것에 가깝다. (물론 이 점도 사실 경이롭다) 이때의 ‘생성’이란 확률적 조합이라는 뜻이지, 창조라는 뜻은 아니다. 인공지능 시대의 예술을 가르쳐야 하는 선생 입장에서는 딜레마다. 범용으로 설계된 언어모델의 쓸모와 특수하게 사용하고자 하는 욕망 사이에 격차가 생긴다. 사용해 보면 해 볼수록 이 기계는 새로운 것을 창조하기보다는 기존의 것을 잘 흉내 내 사람을 속이는데 더 능하다는 판단이 든다.

우리가 챗GPT의 언어능력에 대해 놀란다면 일정 부분 그 ‘그럴듯함’에 속고 있는 것이 아닐까? 학습 데이터를 기반으로 만들어진 문장이라 항상 믿을 수 있는 것도 아니다. 때로는 "환각(hallucination)"이라는 문제가 발생하기도 하는데, 생성 인공지능의 목표가 정답을 찾아가는 정보 검색과는 다르게, 질문자의 의도에 맞는 문장을 조립하는 데 맞춰져 있기 때문이다. 이 기계를 신뢰할 만한 정보 출처로 사용하게 될 때 큰 문제가 발생할 수 있다. 워싱턴 대학의 컴퓨터 언어학 교수인 에밀리 벤더(Emily Bender)와 구글 연구 윤리팀에서 해고된 팀닛 게브루(Timnit Gebru) 등은 <확률론적 앵무새의 위험에 대하여: 언어 모델이 너무 커도 될까?>(2021)이라는 논문을 통해서, 거대 언어모델의 문제는 언어 모델이 진짜 사람의 언어를 아주 잘 흉내 내기 때문에 사람을 속이는 데 이용하기 쉽다고 지적하며, 잠정적 위험 중 하나라고 말했다. ‘사람처럼 말하게 하는 기술’인 줄 알았는데 실은 ‘말하는 것처럼 보이게 하는 기술’이었다는 것이다. 이 양자 사이에는 개념적으로나 윤리적으로나 큰 차이가 있다. 기술의 첨단성에 취한 채 아직 우리 사회는 이 문제를 제대로 파고들지 못하고 있다.

기계학습 분야를 딥러닝으로 도약시키는 데 일등 공신이었던 제프리 힌턴(Geoffrey Everest Hinton)은 ‘이해’가 무엇일까에 대한 기자의 질문에(2023. 3. 25. CBS Mornings) 현재 거대언어모델이 “트로피가 가방에 안 들어간다. 이게 너무 커서”와 “트로피가 가방에 안 들어간다. 그게 너무 작아서” 두 개의 질문에, 전자에는 이게=트로피, 후자에는 그게=가방이라는 대답을 정확히 도출하는 것을 예로 들면서, 생성 인공지능을 이해가 없는 자동완성 기술로 평가하기 어렵다는 대답을 들려줬다. 적어도 위 문장에 대해 선형적인 방식의 확률적 연결만으로는 절대 올바른 대답을 할 수 없는데, 현재 기계는 다차원의 공간에서의 연산을 통해 이해에 가까운 능력을 보여준다는 말이다.

한편, 힌턴의 제자였고, OpenAI의 공동설립자인 일리야 수츠케버(Ilya Sutskever)는 언어의 세계에서만 구성된 현 인공지능일지라도 어떤 ‘역할’을 가정하게 하는 방식의 프롬프트를 사용한다면 사건의 맥락을 이해하는 존재로 기능하도록 만들 수 있다고 주장한다. 이 기법은 실제로 유효하다. 프롬프팅 엔지니어링이라는 분야에서 자주 쓰이는 기법의 하나가 기계에 너는 어떠한 특징을 갖는 역할임을 세뇌했을 때 대답이 매우 잘 뽑히기 때문이다. “사과는”이라는 문장을 넣고 현재 인공지능에 아무런 명령을 주지 않으면 아래와 같은 결과물을 생성해 준다.

“사과는 맛있고 영양가가 높은 과일입니다. 색상도 다양하며, 여러 가지 요리나 음료에도 사용되는 다재다능한 과일입니다.”

반면, “사과는” 다음에 “뉴턴의 입장에서 서술해”라고 추가 프롬프트를 넣으면 다음과 같이 생성한다.

“뉴턴은 사과를 연구하는 과정에서, 지구에 작용하는 만유인력의 법칙을 발견했습니다. 그는 사과가 어떤 힘에 의해 떨어진다는 가설을 세우고, 이를 실험으로 검증하며 지구에 작용하는 만유인력의 법칙을 찾아내었습니다. 이 법칙은 물리학의 기초로 여겨지며, 뉴턴의 업적 중 하나로 꼽힙니다. 이러한 뉴턴의 발견은 과학사에 큰 영향을 미쳤으며, 현재까지도 많은 과학자가 그의 이론을 연구하고 발전시켜 나가고 있습니다.”

위 생성 결과는 실은 뉴턴의 입장을 가져온 것이 아니라 뉴턴이 끌고 온 수많은 단어가 결합한다고 보는 것이 온당하다. 두 답변 사이에, 정보가치에 있어 우열이 있다는 말이 아니라, 현실 세계의 맥락이나 뉘앙스와 같은 복잡한 이해를 언어적 공간 안에서 어떤 역할을 가정해 보는 프롬프트로 어느 정도 대체할 수 있다는 것을 의미한다. 거대언어모델은 텍스트 데이터만을 학습했으니 현실 세계의 해상도를 모두 고려하지 못한다. 하지만 그 언어 공간 안에서 역할을 통해 더욱 복잡한 키워드를 소환하고 연결함으로써 그 사건을 이해할 수 있다는 것이다.

나는 이를 종이접기에 비유하고 싶다. 2차원 평면에 불과한 종이접기를 통해 사물의 모양을 흉내 내기 위해서는 많은 접힘이 필요하다. 어떤 역할을 부여하는 일은 종이에 많은 접힘의 차원을 부여하는 일이다. 인간의 머리로는 연산이 불가능한 다차원의 접힘을 통해 실제 세계에서 인간의 이해에 육박하는 이해를 기계가 흉내 낼 수도 있을 것이다.

△ 가장 높은 수준의 종이접기라는 프롬프트를 주니 이미지 생성 인공지능 미드저니봇은 위와 같은 이미지를 생성해 주었다.
△ 가장 높은 수준의 종이접기라는 프롬프트를 주니 이미지 생성 인공지능 미드저니봇은 위와 같은 이미지를 생성해 주었다.

현재의 생성 인공지능이 마법에 육박하는 과학기술인지, 마술을 위한 과학기술인지 아직은 확실히 대답하기 어렵다. 다만 최고 수준의 종이접기는 현실 사물을 거의 다 흉내 낼 수 있지만 동시에 본질적으로 종이라는 물질의 차원에서 벗어나지 못한다는 점만은 지적할 수 있겠다. 달리 표현하면 최고 수준의 언어적 연산은 실제 세계를 시뮬레이션할 수 있지만 본질적으로 경험이 없는 언어적 세계 안에 머문다는 점이다. 챗GPT를 통해 창조적으로 문장을 생성하고, 새로운 예술적 배치를 만드는 일은 이 같은 한계와 가능성 모두를 이해하고, 기계가 만들어 내는 무한히 접히는 언어적 연산을 오히려 즐기는 일에서 가능하다고 판단한다. 인공지능 시대의 예술이 기존 예술을 인공지능이 흉내 내는 방식에서 머물지 않고 인공지능만의 미감으로 예술을 재구축하는 방식으로 나가려면 이 원리에 대한 음미가 꼭 필요하다. 따라서 이제부터 <인공지능 시대의 예술과 글쓰기>라는 수업의 목적을, 챗GPT를 단순히 활용하는데 두지 않고 보다 급진적으로 사용하는 방식을 탐구하는 쪽으로 변경하고자 한다.

저작권자 © 대학미디어센터 무단전재 및 재배포 금지