[이택광의 지발도네(Zibaldone)] 문제는 인공지능이 아니라 우리다

부산닷컴 기사퍼가기

경희대 글로벌커뮤니케이션학부 교수

2022년 11월 30일에 인공지능 개발회사 오픈AI(OpenAI)가 발표한 챗GPT(ChatGPT)가 요즘 주변의 화제였다. 이 채팅 사이트의 기반 기술은 GPT-3인데, 이 기술은 딥러닝을 통해 인간에 가까운 텍스트를 만들어 내는 ‘자기 회귀 언어모델’을 의미한다. 대체로 대학에서 인문학 연구와 교육에 종사하는 지인들이 많은 까닭에 주요 관심사는 학생들의 과제 평가 문제였다. 가장 민감한 반응들은 에세이 평가로 학점을 부과할 수밖에 없는 미국 대학의 인문학 관련 전공 교수들에게서 확인할 수 있었다. 학생들이 챗GPT로 에세이를 써서 제출하면 표절 검색기로도 잡아낼 수가 없기에 사실상 평가 체계의 붕괴를 의미한다는 주장이었고, 실제로 그런 경우를 당했다는 괴담들도 상당수 떠돌았다.

AI가 대학생의 에세이 숙제까지 해결

인문학 교육의 붕괴가 우려되는 시대

결국 AI를 사용하는 인간 자체의 문제

물론 한 철학자의 농담처럼 학생들이 인공지능을 이용해 에세이를 제출하면 교수들도 그 에세이를 인공지능에 맡겨 평가하면 그만일 것이다. 그러면 고등교육 시스템도 문제없이 작동할 것이고 누구도 일할 필요 없이 모두가 행복한 세상이 되지 않을까. 이런 풍자는 실없는 즐거움을 주기보다 고등 교육기관으로서 대학이 어떤 제도인지 아프게 폭로하는 것에 가깝다. 이미 대학은 탈 없이 ‘작동’하는 것만이 목적을 가진 조직으로 전락해 있는 것은 아닌지 이 농담은 되묻고 있는 셈이다.

관료주의의 목적은 바로 그 관료주의적인 제도가 제대로 작동하는 것에 있다. 이 정언명령은 좌우의 정치 이념을 막론하고, 특정 조직이 도달하는 지점이 왜 관료주의인지 질문하게 한다. 이 관료주의는 관료 조직이라는 특정한 시스템에 나타나는 보편적인 교착 상태의 예시일지도 모른다. 내가 보기에 이 보편성을 만들어 내는 것은 알고리즘의 합리성이다. 시스템이 잘 작동한다는 것은 결국 기계의 작동과 유사해진다는 뜻이다.

디지털이 아날로그를 압도하게 되는 것은 이 때문이다. 디지털과 아날로그는 사실상 대립적인 것이 아니라, 상호보완적인 것이다. 전자책 단말기인 ‘아마존 킨들’의 디지털 기술은 종이책이라는 아날로그적인 상상을 필요로 한다. 기술은 관념에 머물 수 없고 언제나 사용함으로써 현실화한다. 언어를 관념으로 간직하고 있는 한 언어일 수 없다. 도구는 사용함으로써 그 의미를 획득하고 원래의 쓰임새를 확장한다. 기술의 목적은 이 의미의 획득과 확장에 있다.

그럼에도 챗GPT의 출현과 함께 목격했던 의미심장한 현상 중 하나는 이 기술이 인문학의 종언을 확실하게 선언하게 될 것이라는 예언이었다. 대학에 종사하는 인문학 전공 교수들에게 인공지능 글쓰기 기계의 발달은 분명 기존의 평가 방식이나 글쓰기에 대한 사고의 전환을 요구하게 될 것이다. 그러나 이런 전환의 물결이 인문학 자체의 소멸을 의미하거나 인문학 전공 교수들의 쓸모 없음을 증명하는 것은 아니다. 오히려 이 물결은 지금까지 기계에 맡겨도 될 일을 교육의 주요 목표로 삼아 온 대학이라는 근대 교육기관의 시대착오성을 폭로한다고 보는 것이 타당하다.

근대 유럽에서 시작한 오늘의 대학은 시민의 가치를 교육하는 기관으로 인정받았지만, 이제는 그 정체성이 자명하다고 말할 수 없게 된 것이다. 수업 시간에 에세이를 쓰는 본래의 목표가 더 이상 가치를 지니지 못하는 마당에 그 에세이를 인공지능이 대신 써 준다고 해서 무엇이 그렇게 대수이겠는가. 시험을 보고 점수를 매기는 행위가 학점 취득과 취업이라는 현실적 이해관계로 쉽게 환원되어 버리는 대학의 현실은 챗GPT가 등장하기 전에 이미 만연해 있었다. 문제는 인공지능이 아니라 그 인공지능을 사용하는 방식이다. 인공지능 자체보다도 자본주의가 그 인공지능을 인간에 반해서 사용하는 것을 더 우려해야 한다고 했던 미국의 SF 작가 테드 창의 말을 새겨들을 필요가 있다.

반농담 삼아 나는 챗GPT에게 인공지능의 발달이 대학 인문학 교육의 붕괴를 가져올지 물어보았다. 당연히 이 기계는 자신은 단순히 언어모델이기 때문에 그와 같은 결과를 초래하지 않을 것이라 대답했다. 이 대답의 의미는 무엇일까. 이 인공지능의 알고리즘에 없는 것은 바로 부정적인 대답이다.

흥미롭게도 이런 사정에 비춰 보면, 인공지능의 발달로 인문학이 소멸할 것이라는 기대는 챗GPT의 알고리즘에서 도출할 수가 없다. 만일 머신 러닝 모델의 알고리즘에 반하는 ‘특이점’이 출현한다면 그 낯선 요소는 오류로 처리될 것이다. 인공지능이 인간과 같아지려면 이 낯선 오류를 새로움으로 인식할 수 있어야 가능할 것이지만, 지금 넘쳐나는 인간 군상만으로도 힘든 이 세계에서 굳이 기계까지 왜 그래야 하는지 근본 의문이 들 수밖에 없다. 챗GPT를 둘러싼 현상은 인공지능보다도 오히려 우리들 자신이 무엇을 바라고 있는지에 대해 더 많은 것을 말해주고 있지 않은가.


당신을 위한 AI 추천 기사