AI로 소설과 영화 각본을 써보자 – 1편

본 연재글 시리즈는 최근 유행하고 있는 ChatGPT류의 생성형 AI 서비스를 활용하여, 소설과 영화각본을 창작하는 내용을 담은 “입문자를 위한 맛보기 강좌글 시리즈”입니다. 대상 독자로는 현재 소설과 영화 각본을 쓰는 창작자인데 아직 생성형 AI에 대해서는 잘 모르고 있는 자를 상정합니다.

먼저 생성형 AI의 기술적, 예술적, 철학적 의미를 차례로 살펴본후, 직접 생성형 AI를 사용하여 간단한 단편소설과 이를 바탕으로 하는 영화 각본 창작을 시현해보이겠습니다. 끝으로 생성형 AI를 활용한 예술창작의 윤리적 문제에 대해 검토합니다.

본 연재글은 앞서 말했듯이 입문 맛보기용이므로 내용중에서 실전 창작과 관련한 부분은 아무래도 다소 부실할수 있습니다. 실전 창작에 필요한 더 자세하고 효율적인 방법은 시중에 유통중인 예술 창작에 특화된 프롬프팅 엔지니어링에 대해 설명하고 있는 유튜브 강좌나 서적들을 참고하시면 되겠습니다.

 

생성형 AI는 어떤 원리로 작동되는가?

2017년 구글의 연구팀에서 “Attention is all you need”라는 제목의 역사적인 논문을 발표합니다. 과학 기술 분야의 논문답지 않게 제목이 대단히 문학적으로 멋진데 제 생각에는 구글의 자유로운 연구 문화를 방증하는게 아닐까 싶습니다. “집중 — 당신에게 필요한 모든 것”이라는 제목처럼 이 논문은 우리 뇌의 주의집중 매커니즘을 “수학적”으로, “단순화”하여 “transformer”라는 이름의 모델을 만든 후, 여기에 대량의 자료를 쏟아 부어 학습을 시킨후 인공지능을 구현하는 것을 내용으로 합니다.

위에서 보듯이 이 모델은 우리 뇌의 극히 일부분을 그것도 “수학적”으로 “단순화”한 것에 불과합니다. 따라서 이러한 인공지능을 보고 기계가 의식을 가지게 되었다고 생각하는 것은 심한 오해입니다. 돌고래의 형상을 본따 만든 자동차를 보고 “돌고래가 창조되었다!”고 놀라지 않는 것과 비슷한 이야기입니다.

아무튼 위 transformer 모델을 정작 최초로 개발했던 구글은 이 기술을 제대로 상업화하지 못한채 시기를 놓치게 되었고, 잽싸게 openAI라는 스타트업이 낚아채 시장을 선점하게 됩니다. 그것이 바로 현재 생성형 AI중에서 가장 높은 시장점유율을 보이고 있는 ChatGPT 서비스 입니다. 구글 입장에서는 많이 억울할수도 있겠지만 사실 이러한 일들은 비즈니스 세계에서는 흔하게 있는 일입니다 (벨 연구소에서 최초 개발한 트랜지스터로 소니가 라디오를 만들어 대박을 내고, 제록스 연구소에서 만든 GUI디자인을 애플에서 사용하여 대박을 내는 등등).

그래도 꽤나 똑똑하던데?

이렇게 단순한 모델임에도 불구하고 사실 직접써보면 인간으로서 약간 자존심 상할 정도로 꽤나 똑똑하긴 합니다. 이건 어찌된 일일까요? 본 강좌는 인공지능 강좌가 아니므로 실감나는 이해를 위하여 정확성을 희생하여 아주 대략적으로만 설명하겠습니다.

여기 초인적인 기억력을 가진 중3 학생이 있다고 가정합시다. 이 중학생이 전국에 출판된 모든 중학교 교재들 수천종을 토시하나 빼놓지 않고 전부 암기합니다. 그리고 나서 올해 수능시험을 보러 갑니다. 고등학교 과정은 전혀 모르는 이 학생이 과연 수능 문제를 잘 풀수 있을까요? 아마 놀랍게도 생각보다 꽤 잘풀겁니다. 물론 수능 만점을 받아 의대에 가지는 못하겠지만 고등학교 과정을 전혀 모른다는 사실을 감안한다면 꽤나 선전을 하는 셈이죠. “대강” 중학교나 고등학교나 배우는 것에서 연관되는 부분이 있고, 중학교 과정을 완벽하게 아는 이 학생은 대충 때려맞추었지만 어느정도는 점수가 나오는 것입니다.

생성형 AI도 마찬가지인데, 워낙에 많은 데이터를 학습했으므로 이놈이 “대강” 통계적으로 때려맞추었음에도 신기하게도 얼추 정확한 것입니다. 사실 인간사가 거기서 거기이므로 답도 거기서 거기일테고, 따라서 이런 미심적인 방법이 대강은 통하는 것입니다.

생성형 AI의 이론적 한계

사실 과학은 간결한 것을 세련되고 우수하다고 보고 같은 값이라면 심플한 것을 지향합니다 (사실 예술도 마찬가지지요).  그래서 생성형 AI 기술이 가진 투박하고 지저분한 방법론을 이유로 이 기술에 대해 부정적으로 보는 학자들도 많습니다. 대표적인 분이 언어학자 노엄 촘스키인데, 그는 막대한 전기를 써가며 과일 이름 하나 학습하려고 엄청난 자료를 검토해야 하는 현재의 생성형 AI모델에 대해 촌시렵다고 고개를 돌리십니다. 확실히 인간의 뇌는 이에 비해 우아하고 세련되었는데, 어린 아이들은 막대한 자료와 전기없이도 밥 한끼 먹이고 딸기 한두번 보여주면 그것이 딸기라는 것을 쉽게 학습합니다.

참고로 예전에 이와 관련하여 서울대 문병로 교수가 촘스키에 대해 비판했던 글을 제가 재비판을 한 글이 있습니다. 위 사안에 대해 관심있으신 분은 참고하세요 : 링크(외부사이트) 

생성형 AI의 실전적 한계

그러나 우리 사용자 입장에서는 구현된 기술이 세련되었든 촌스럽든, 사실 별 상관없는 일입니다. 쉽게 말해 칼국수를 장갑끼고 위생을 철저히하고 만들던 맨발로 비벼가며 만들던 손님 입장에서는 똑같은 칼국수인거죠. 그것을 어떻게 만들었는지는 우리가 알바가 아닙니다. 좀 더러우니까 예술지향적인 또다른 예로서, 평생을 영화와 함께 정열을 불태우며 밤새도록 영화 기술을 연마하셨던 고다르 감독님의 영상보다, 방구석에서 대충 핸드폰으로 찍은 인기가수 츄의 꽁꽁얼어붙은고양이 영상이 훨씬 크고 신선한 감동으로 우리에게 다가온다는 사실을 들수 있겠습니다. 창작물을 구현한 기술은 정작 “대중 소비자”에게는 큰 의미가 없을수도 있다는 것이지요.

우리에게 신선한 감동을 주는 인기가수 츄의 모습

 

따라서 우리같은 AI이용자 입장에서는 생성형 AI가 실전에서 어떤 한계가 있는지가 더 중요하겠습니다. 제가 주로 ChatGPT를 사용하여 테스트해본 경험에 비추어 그것의 “실전적 한계”를 대략적으로 정리하자면 아래와 같습니다.

-전형적인 문제는 그럭저럭 잘 해결하나 예외적이고 새로운 문제는 대응을 못함
-교과서적인 답변은 제법하나 응답이 지나치게 교과서적이라서 영혼이 없어보임
-소크라테스 대화식으로 집요하게 추궁하듯이 비판하는 것에 대응하지 못함
-종종 황당할 정도로 사실관계에 어긋나는 답변을 함

종합하자면, 흔히 반복되는 전형적인 문제는 제법 잘 처리하나, 고도로 추상적이고 전문적인 토론은 거의 하지 못했습니다. 그리고 랜덤하게 황당한 답변을 하므로 정확성이 요구되는 작업에서는 사용에 주의가 필요합니다.

이같은 한계는 생성형 AI를 예술창작에 이용할때도 그대로 적용되는데, 언뜻보면 창의적인 글을 출력하는 것처럼 보이지만 자세히 보면 대단히 식상하고 전형적인 내용을 출력합니다. 쉽게 말해 소위 말하는 “이발소 그림”이나 “건전가요” 스타일의 작품만 출력해주는 것입니다. 그래도 이를 최소화하는 방법도 있는데, 이는 나중에 실전 시현을 보이는 부분에서 설명하겠습니다.

 

다음글로 가기 : 링크

Reply

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다