거짓말 잘 하는 챗GPT 차근차근 달래가며 부려야

이재희 기자 jaehee@busan.com
부산닷컴 기사퍼가기

박태웅 한빛미디어 의장 부산일보서
인공지능의 시대 챗GPT의 이해 열강

챗GPT가 몰고온 AI혁명과 미디어의 미래 특강이 열린 부산일보 대강당에서 박태웅 한빛미디어 의장이 강연하고 있다. 김종진 기자 kjj1761@ 챗GPT가 몰고온 AI혁명과 미디어의 미래 특강이 열린 부산일보 대강당에서 박태웅 한빛미디어 의장이 강연하고 있다. 김종진 기자 kjj1761@

김어준의 '다스뵈이다'에서 명강연으로 잘 알려진 박태웅 한빛미디어 의장이 5월 27일 부산일보 대강당에서 '인공지능(AI) 시대, 챗GPT의 이해'를 강연했다.

박 의장은 한겨레신문 기자로 사회에 첫발을 디딘 뒤 2000년부터 IT업계에서 활동하고 있다. 다음은 박 의장의 강연을 시간순으로 정리한 내용이다. 다만, 다소 중요하다고 기자가 판단한 부문은 앞쪽에 임의로 배치한 것임을 밝힌다.


박 의장은 강의를 마친 후 식사 자리에서 갈비뼈 골절 치료 중이라고 말했다. 열흘 전 백캠핑을 갔다가 큰 카메라를 둘러멘 채 넘어져 갈비뼈 골절을 입었는데 아직 통증이 있다고 했다. 의사 말로는 3주 동안 통증이 극심할 거라고 했단다. 박 의장은 부상 투혼을 발휘해 부산일보에서 강연한 것이다. 귀한 강의였다.


강의 시작은 챗GPT의 위력을 이야기하는 것으로 기를 죽였다. "지난해 11월 챗GPT가 처음 나왔습니다. 그런데 사용자를 모으는 속도가 엄청납니다. 기존 인스타그램이 어마어마한 속도로 성장했다고 알려졌지만, 챗지피티는 놀랄 정도입니다. 현재 1억 5000만 명의 사용자를 확보했고요. 유료 사용자가 100만 명에 육박합니다. 유료 수익만 매달 2000만 달러(한화 268억 원)나 됩니다."


박 의장은 종이신문 기자 출신답게 신문업계가 아직도 의존하고 있는 신화의 3가지 오류를 꼬집었다.

오류의 대전제는 사람들이 신문을 읽지 않는다는 것인데, 신문 열독률이 8%라고 해서 시민 다수가 신문을 읽지 않는다고 생각하는 데 실상은 그렇지 않다는 것이다. 신문과 인터넷, 모바일 등 다른 모든 플랫폼을 통틀어 신문 기사를 읽는 ‘결합열독률’은 86%가 넘는다는 통계를 인용했다. 일반적으로 아는 것과 달리 과거보다 더 많은 기사가 더 널리 읽히고 있다는 것이다.

이이 박 의장은 신문사의 이 두 가지 열독률을 김밥 가게 손님에 비유해 설명했다. 웬 김밥가게 비유인가? 내심 기분이 좋지 않았지만, 귀에는 쏙쏙 들어왔다. 얘기인 즉슨 이렇다. "김밥가게 주인이 8%의 손님만 위해 저녁 5시에 문을 닫는다면, 이 가게가 유지될 것인가? 망한다고 본다. 한국의 많은 신문들도 8% 독자를 위해 일찍 마감을 끝내며 86%의 이용자를 버리고 있다. 또 다른 한 가지는 기사 분량의 제약이다. 지면에는 공간 제약이 있어 해설 기사도 원고지 8매 이상 쓰기 어렵다. 하지만 인터넷은 분량 제한이 없다."

즉, 박 의장이 말한 국내 신문의 3가지 오류는 △기사는 온라인에서 훨씬 많이 읽히는데 여전히 종이신문 마감 시스템을 유지하고 △인터넷에서는 긴 글이 읽히지 않는다고 무조건 짧게 쓰는 데에만 익숙해 있으며 △해외 어디에도 없는 포털에 모든 것을 내어주고 의존하고 있다는 점이다.


충분히 읽을 만한 품질의 기사라면, 오히려 스크롤을 여러 번 내려야 하는 긴 기사의 조회수와 공유 횟수가 훨씬 많다는 점이 입증되었다는 미국 사례도 소개했다. 포털 의존도를 줄이기 위해 언론사들이 연합해 공동 이용할 수 있는 클라우드 콘텐츠 제작·유통 시스템과 데이터베이스를 구축해볼 것을 제안하기도 했다. 한국 언론이 포털에 종속된 연유는 이랬다. 서울 유력 신문사가 디지털 분야를 분사해 따로 운영하면서 기존 신문과 디지털 부문이 기계적으로 분리된 것이 발단이었다. 이때문에 기존 신문은 디지털이 시대적 흐름이자 미래라는 것을 알면서도 디지털을 제외한 다른 쪽에서 신문의 미래를 모색해야 하는 아이러니에 빠지게 됐고, 분사한 디지털 매체가 활로로 찾은 포털이 뉴스 유통 시장을 장악하게 되었다는 주장이다.


예로 든 KT 사례가 재미있다. 예전 KT가 모바일 자회사 KTF를 갖고 있었다. 통신사의 미래가 모바일인데도 말이다. 그런데 KTF가 모바일 사업을 하니, KT에게 미래를 물으면 모바일을 제외한 미래를 대답할 수밖에 없던 시절이 있었다. 박 의장은 "모바일 빼고, 통신사의 미래를 말할 수 있는가. 역시 디지털을 빼고, 신문사의 미래를 말할 수 없다. 뉴욕타임스는 편집국 한가운데 디지털 부서가 있다. 독자 1억 명으로 디지털이 뉴욕타임스의 미래가 되었다"고 열변을 토했다.


‘지면 제약으로 인한 제한, 마감 시간 때문에 내용을 다 싣지 못한다는 말도 안 되는 이유를 대는 것은 있을 수 없다’며 종이 신문의 약한 고리를 찌른 박 의장은 "신문 기사의 많은 부분을 챗GPT가 쓰게 하고, 유능한 기자가 데스크를 보면 어떤가. 나머지 대부분의 기자는 기획 기사나 호흡이 긴 특집 기사를 쓰게 하는 것이 훨씬 좋겠다. 기사 콘텐츠는 다수의 고객을 위해 만들자. 그중에 필요한 부분을 추려 종이 신문에 쓰면 될 것 아닌가?”라고 주장했다. 현업을 떠난 지 20년이 넘은 옛 신문기자의 발언이 당혹스럽고, 달콤하면서도 '달리'의 화풍 같았다.


챗GPT가 몰고온 AI혁명과 미디어의 미래 특강이 열린 부산일보 대강당에서 박태웅 한빛미디어 의장이 강연하고 있다. 김종진 기자 kjj1761@ 챗GPT가 몰고온 AI혁명과 미디어의 미래 특강이 열린 부산일보 대강당에서 박태웅 한빛미디어 의장이 강연하고 있다. 김종진 기자 kjj1761@

박 의장의 강의는 본격적으로 이어진다. 지금부터는 박 의장의 강의를 거의 발언 그대로 옮긴다.

올해 2월 16일 TIME 지는 표지로 챗GPT를 ‘AI군대’로 빗댔다. 내용을 살펴보니 챗GPT 3.5버전의 경우 1750억 개의 매개변수를 학습했는데, 3조 7000억 원 이상의 비용이 들었다고 한다. 이 정도로 비용을 지불할 수 있는 나라는 세계적으로 몇 개국에 불과하다는 것이 한계다.

챗GPT의 응답 능력은 마법과 같다. 영국 출신 물리학자이자 수학자이면서 영미 SF문학의 3대 거장으로 불리는 아서 클라크는 "충분히 발달한 과학기술은 마법과 구분할 수 없다"고 정의했다. 아서 클라크는 1초에 125조 회나 실수 계산을 하는 챗GPT의 능력을 미리 알아챘던 것일까. 인공지능은 그래픽카드 핵심 침 GPU(그래픽처리장치)를 활용한다. 1초에 312조 회 연산 능력을 갖추고 있다. 챗GPT 4의 현재 능력이다.


챗GPT가 원의 면적을 구하는 방식은 우리가 흔히 하는 수학 공식(원주율(π) × 반지름(r)2)이 아니다. 원 전체에 점을 뿌려 각 픽셸의 합을 분석해 계산한다. 왜 그렇게 어렵게 구하냐고? 1초에 125조 회나 연산을 해내기에 공식을 도입하는 것보다 더 빠르다.

이런 인공지능도 4세 아이가 하는 판단을 어렵게 생각하는 분야가 있다고 한다. 바로 개와 고양이를 구분하는 것이다. 인간이라면 4~5세만 되면 개와 고양이를 쉽게 구분하지만, 인공지능에는 힘든 과제인 모양이다. 그것은 접근의 차이 때문에 발생한다.


인공지능이 개와 고양이를 구분해 내는 방식은 인간이 각 동물의 특성을 미리 입력하고, 다양한 사례를 학습하는 것이였다. 그런데, 다리를 다쳐 다리가 세 개인 고양이 그림은 인공지능이 판단할 수 없었다. 이런 상황을 극복하지 못해 인공지능 개발은 2번의 빙하기를 지내야 했다.

그러나 이것도 해결됐다. 해법은 딥러닝이었다. GPU를 통해 초당 312조 번의 연산을 할 수 있다. 이전에는 특징을 입력해서 변수를 찾아냈다면, 지금은 수천만 매개변수의 가중평균으로 정답을 도출한다. 결과는 놀라웠다. 개와 고양이를 쉽게 구분할 수 있게 된 것이다. 그런데 문제는 어떻게 구분하는지 사람은 그 과정을 알 수 없다는 것. 인공지능은 끊임없이 계산해 결론을 내지만 정답 도출 과정은 여전히 인간이 알 수 없는 상태다.


예를 들면 이렇게 표현할 수 있다. 사람은 개와 고양이를 쉽게 구분하지만, 막상 왜 다른지 표현하라고 하면 말을 잘 하지 못한다. 언어가 인간의 사고와 객관적 현상보다 차원이 낮아 언어로 표현할 수 없는 것으로 볼 수 있다. 즉 인공지능이 우리가 알 수 없는 어떤 과정을 거쳐 개와 고양이를 구분해 내는 수준까지 왔다. 그러나 그 과정을 설명하기란 쉽지 않다. 다만 결론적으로 잠재적 패턴이 있는 모든 곳에서 인공지능은 위력을 발휘할 수 있다는 것이다.

프로그래밍, 법률, 저널리즘, 광고나 마케팅, 주식 거래, 그래픽 디자인 등 잠재적 패턴이 있는 분야에서는 인간보다 인공지능이 더 잘하는 시대가 왔다.


챗GPT가 몰고온 AI혁명과 미디어의 미래 특강이 열린 부산일보 대강당에서 박태웅 한빛미디어 의장이 강연하고 있다. 김종진 기자 kjj1761@ 챗GPT가 몰고온 AI혁명과 미디어의 미래 특강이 열린 부산일보 대강당에서 박태웅 한빛미디어 의장이 강연하고 있다. 김종진 기자 kjj1761@

챗GPT의 가장 큰 특징은 대화할(Chat) 수 있고, 그림과 영상, 글을 생성(G·Generative)할 수 있으며, 5조 건의 문서를 사전학습(Pre-trained)한 인공지능이다. LLM(거대언어모델)은 파운데이션 모델이라고도 한다. 모든 분야의 기반이 될 수 있는 인공지능 모델이라는 것이다. 여기에 앞서 나온 단어와 문장에서 핵심 키워드를 유추해 다음에 올 가장 그럴법한(근사한) 단어를 내놓는 구글의 트랜스포머(Transformer) 딥러닝 모델을 사용한다.


쳇GPT는 신사적이고, 점잖다. 그것은 개발 비용에 정답이 있다. 3.7조 원의 개발 비용이 들었다. 그것은 능력 있는 사람이 작성한 좋은 텍스트를 공부했기 때문이다. 챗GPT를 훈련시킨 프롬프트 엔지니어들이 정치적·성적 편향을 걸러내도록 보정 작업을 충분히 할 수 있는 최고 수준의 능력자들이었다. 현재 챗GPT-4 버전이 나왔다. 3.5일 때는 영어로 질문해야 답이 더 정확하다고 했다. 그러나 버전 4에서는 다국어를 잘 지원하기에 꼭 그렇지 않다. 4버전은 멀티모드를 갖추고 있어 시각 입력만으로도 결론을 도출하기도 하고 유머도 이해한다.


최근 챗GPT는 한 장의 사진으로 4버전에서 실험한 결과를 홍보했다. 놀라운 것은 유머까지 한다는 것이다. 크고 오래된 VGA 커넥터를 작은 최신형 스마트폰 포트에 꽂으려는 장면의 사진인데 이 사진을 보고 챗GPT는 ‘엉뚱하고 웃긴다’고 했다. 이미지를 이해하는 것은 기본이고, 커넥터를 보고 알아챈 것처럼 기술의 역사를 알고 있었다. 또한 유머도 할 줄 알았다.


챗GP-4가 이미지를 이해하고, 유머를 이해한다는 사례를 보여주기 위한 보도자료에 제시된 사진. 챗GP-4가 이미지를 이해하고, 유머를 이해한다는 사례를 보여주기 위한 보도자료에 제시된 사진.


다만, 딥러닝 모델이 예측형이어서 치명적인 한계도 있다. 감쪽같은 거짓말(Hallucination) 현상이 발생할 수 있다. 가짜 논문을 마치 존재하는 것처럼 지어내 인용하고, 존재하지 않는 모차르트 첼로협주곡의 퀘헬번호까지 제시하며 답하기도 한다. 있다 없다, 맞다 틀렸다가 아니라, 질문에 대해 가장 그럴싸한 답을 내기 위한 거짓말을 하는 것이다. 모차르트의 첼로협주곡은 남아 있는 악보로는 현존하는 것은 없다. 영조의 아들인 사도세자를 세종대왕의 손자라고 표현하기도 한다. 확률이 필요하지 않은 분야인 더하기 빼기에서 다섯 자리 이상의 덧셈과 뺄셈의 정답은 형편 없이 틀리기 일쑤다


구글도 챗지피티의 인기에 위기감을 느끼고 인공지능 '바드'를 급하게 내놨는데, 바드는 아홉 살 어린이가 제임스웹 우주망원경 질문을 던졌는데 '태양계 밖 행성을 처음 찍는데 사용됐다'는 오답을 냈다. 이 사건으로 구글 시총 200조가 증발했다. 실제로는 제임스웹 망원경에 앞서 2004년 유럽남방천문대가 태양계 밖 행성을 처음 찍었다. 이러한 어처구니없는 실수는 구글의 작전이 아닐까 생각한다. 구글이 인공지능의 한계를 은근히 알린 것이라는 생각이 강하다.


챗GPT의 플러그인은 외부 프로그램을 불러와 쓸 수 있게 하는 것이다. 최신 데이터를 불러오고, 계산하고, 예약하고, 개인이나 기업의 데이터를 활용한다. 예를 들면 '우리 회사의 3년간 경영 실적을 그래프로 그려 줘!' 같은 질문을 하면 바로 실행해 준다. 무서운 기능인데 함정이 있다. 나의 개인 정보를 다 제공하고 지시를 내리면 자기가 알아서 내 카드로 결제하고, 예약하고, 상황이 변경되면 카드 결제를 취소한다. 편리한 기능이지만, 챗GPT 우주 안에 갇히게 될 위험성이 다분하다.


애플이 아이폰을 처음 내놓았을 때 '니가 원하는 모든 것을 해주는 앱이 있다’(There's an app for that)고 광고했다. 현재 챗지피티는 무료 버전도 있는데 최근 유사한 인공지능이 속속 선보이고 있다. 벌써 'There's an AI for that’이라는 사이트가 나왔다. 페이스북(메타)에서 라마를 오픈 소스로 발표했다. 이어 스탠퍼드대학교에서 라마 기반의 알파카를 공개했다. 200달러 정도로 클라우드에서 학습시키면 사용할 수 있어 무척 싸다. 이게 문제인 것은 세상의 모든 악당이 자신의 인공지능을 쉽게 가질 수 있다는 것이다. 이 인공지능은 실시간 키워드를 바탕으로 콘텐츠를 생산하라고 하면 너끈히 수행한다. 당연히 가짜뉴스도 만들 수 있다. 악화가 양화를 구축한다. 세상 사람들은 뭐가 옳은지 뭐가 오리지널인지 알 수 없다. 끝없이 가짜 정보가 재생산되는 상황도 온다.


관련 학자들은 이런 현상을 공개적으로 우려하고 있다. 인공지능의 배포에 관해서는 규율이 필요하다고 입을 모은다. 영국의 한 출판사가 SF소설을 공모했는데 표절작이 넘쳐나 접수를 무기한 중단하는 사례도 나타났다. 표절 차단 건수가 38%에 달했다. 챗GPT에 의뢰해도 인공지능이 생산한 작품을 걸러내는 능력이 20%에 불과했다.


오리지널의 실종은 인터넷 생태계의 황폐화를 불러온다. 보통은 챗GPT의 답을 검증하지 않는다. 인공지능은 물론 원본사이트의 자료를 인용했지만, 챗GPT가 모든 정보와 데이터의 접촉 창구가 되면서 일반적인 시민은 원본 사이트를 더 이상 찾지 않게 되고, 유료 사이트라면 수익원을 잃고 몰락한다. 그렇게 되면 향후 수년 안에 원본사이트가 사라지고, 그러면 인공지능이 인용할 수 있는 오리지널 데이터가 사라지는 문제가 발생한다.


영어와 중국어 정도만 대규모 언어모델이 되기에 온라인에서 언어적 영향력이 작은 국가와 민족의 언어와 규범을 포착하지 못하게 된다. 소수 언어를 무시하고, 고유의 문화 등을 소홀히 취급한다. 그 결과 부유한 국가와 커뮤니티의 관행을 반영하여 모든 상황이 동질화될 위험이 있다. 이러한 우려에 대해 논문을 쓴 구글의 윤리연구가는 2020년 해고당했다.


데이터가 오염돼 있다면 답도 오염될 수밖에 없다. 이미지넷은 공유사이트로 100만 개가 넘는 데이터가 있다. 인간 카테고리에 가면 재소자, 이류 인간, 실패자, 낙오자, 우울증 환자 등으로 분류돼 있었다. 얼굴을 보고 이 사람을 규정한다는 것은 지독한 편견이다. 2019년 2832개의 사람 범주 중 1593개(약 56%)를 삭제했다. 그런데 아직 미시경제학자, 조교수, 부교수 등의 분류가 남아 있어 여전히 선입견적 오류를 생산할 가능성이 있다.


아마존의 사례도 흥미롭다. 아마존은 정실을 배제한다는 등의 차원에서 인공지능으로 채용 시스템을 운영했다. 그러나 그 결과 인공지능의 채용 결과가 명백히 성차별 시각이었다. 아마존은 지금까지 성차별적 채용을 해 왔는데 그게 그대로 학습된 것이다. 아마존은 이후 그 팀 자체를 해체했다. 애플의 경우도 비슷한 사례가 있다. 신용평가 문제다. 부부가 같은 애플 신용카드를 쓰고 있는데 부인에게 훨씬 더 많은 신용한도를 줬다. 애플도 인공지능을 통한 신용평가 시스템을 해체했다. 부분적으로 개선할 수도 있는데 왜 팀을 해체했는지 궁금했다. 그것은 인공지능이 왜 그런 결과를 냈는지 애플이 파악할 수 없었기 때문이다. 유럽은 사람에 관한 평가를 할 때 인공지능을 사용할 수 없다는 규정을 만들었다.

또한 인공지능은 지식재산권과 프라이버시를 침해한다. 특히 사망한 이의 잊혀질 권리를 극도로 침해한다.


인공지능의 정신적 영향도 문제인데 아직 부각되지 않았다. 인간은 몸에 관한 실험은 엄격한 규제를 두고 있다. 그런데 정신에 관한 실험에 관해서는 규제가 없다. 미 질병통제예방센터는 2007~2015년 소녀의 자살률이 2배로 증가한 것이 잠정적으로 소셜미디어의 영향으로 봤다.

그런데 페이스북은 이미 이 사실을 자체 조사해 알고 있었다. WSJ 특종인데, 인스타그램이 청소년들에게 위험을 더욱 부추길 수 있고, 인스타그램의 추천 알고리듬이 이런 위험을 부추길 수 있다고 페이스북 내부 리포트는 지적했다. 특정 반복적으로 노출되는 알고리듬에 청소년들은 스스로 루저라는 인식을 가지며 잘못된 선택으로 갈 수 있는 것이다.

페이스북이 좋아요 이외 싫어요, 화나요, 등의 추천 버튼을 만들었다. 특히 화나요와 싫어요에 더 많은 점수를 줘 이것을 눌렀다면, 관련 콘텐츠가 더 오래, 자주 노출하게 만들었다. 이에 따라 페이스북은 추락하는 트랙픽의 증가를 챙겼다. 유럽은 이런 내용을 파악해 페이스북에 경고했다. 그러나 뚜렷한 개선책이 나오지 않았다.


인공지능은 트랜스포머 모델이라서 가장 근사한 것을 찾아내도록 학습된 지능이라 거짓말에 주의해야 한다. 회사 내부 기밀 데이터도 올리면 안 된다. 인용된 자료를 자기 자료인 양 저장해 마구 사용하기 때문이다. 개인이 저장하지 않은 자료를 별도로 저장해 사용하지 않는다는 내부 기준이 5월 26일에야 결정되었다.

인공지능에 반영되고 버그를 잡는 기간까지 합치면 꽤 오래 걸릴 수도 있기 때문에 기밀 자료나 내부 비공개 자료는 올리지 않는 것이 좋다.


인공지능 사용자와 비사용자 간의 격차도 우려스럽다. 1차대전은 참호전으로 기억한다. 참호전의 이유는 기관총의 존재 때문이다. 기관총은 특히 참전 군인 등 1000만 명의 죽음을 가져왔다. 이 사례처럼 인공지능을 사용하는 사람과 그렇지 않은 사람 사이에 사상 유례없는 차별이 발생할 것이다.

샘 알트먼 오픈AI CEO는 "현재의 AI 도구가 아직은 무섭지 않지만, 잠재적으로 무서운 도구에서 그리 멀지 않았다"며 "인공일반지능(AGI·인간의 지시가 없어도 스스로 학습하고 생성 가능한 지능)이 만약 고장 나면 특정한 조치가 필요하다. 그렇기에 특정 회사가 이런 AI를 소유해서는 안 된다"고 경고했다.

그런데 마이크로소프트사는 최근 논문에서 챗지피티-4버전이 인공일반지능일 수 있다고 주장했다.


여러 우려가 있지만, 현재 단계에서 챗지피티를 잘 활용하려면 프롬프트 엔지니어가 제대로 할 일을 하는 것이 중요하다. 다양한 작업에 대한 모범 사례를 발견해 테스트하고 문서화하는 역할이다. 챗지피티는 제로샷(어떤 사전정보를 주지 않고 질문)으로 물어도 답을 주지만, 투샷(몇 개의 예시를 넣어 질문)으로 물으면 더욱더 정확한 답을 도출해 준다.

아이큐 200/100/50일 때를 가정하고 비가 왜 오는지 답해달라고 했더니 역시 각각 다른 답을 내놓았다. 200의 경우는 과학적으로 잘 설명했고, 아이큐 50의 경우는 하늘이 슬퍼서 그렇다고 답했다.

프롬프트 잘 쓰는 법이 있다. 차근차근 논리적으로 질문하면 답이 훨씬 좋아진다. 구체적으로 설명하고, 예를 들어 질문해도 답이 잘 나온다. 앞에서 한 이야기를 일깨우거나 틀린 부분을 교정해 주며 질문하면 답이 잘 나온다. 이것은 결국 좋은 코치가 있어야 한다는 뜻이다. 누군가 챗지피티를 이렇게 이야기했다. '어마어마 똑똑하지만, 아직 어린아이를 가르치는 것과 같다.'


물론 기업이 인공지능을 제대로 활용한 사례도 있다.

포스코가 인공지능 전문기업과 협업했다. 원료 추가 없이 같은 재료와 같은 가동 시간으로 하루 무려 240톤의 쇳물을 더 생산하게 됐다. 이것은 인공지능의 힘이다.

포스코는 모든 데이터를 다 입력해 인공지능에 최적의 조합을 선택하게 했다. 인공지능은 결론을 냈고, 2500억 원의 원가를 절감했다. 세계경제포럼이 포스코를 인공지능 등대공장으로 인정하는 경사도 있었다.


챗GPT가 몰고온 AI혁명과 미디어의 미래 특강이 열린 부산일보 대강당에서 박태웅 한빛미디어 의장이 강연하고 있다. 김종진 기자 kjj1761@ 챗GPT가 몰고온 AI혁명과 미디어의 미래 특강이 열린 부산일보 대강당에서 박태웅 한빛미디어 의장이 강연하고 있다. 김종진 기자 kjj1761@


그런데 모든 회사가 인공지능 관련 부서를 둘 수는 없다. 뮤지컬 만드는 예를 들어보자. 노래를 잘하는 사람과 춤을 잘 추는 사람이 있다. 두 사람 중 한 사람만 뽑아야 한다면 누구를 뽑을 것인가. 가수를 채용해 춤을 가르칠 수도 있고, 춤꾼을 뽑아 노래를 가르칠 수도 있을 것이다. 그러나 따져보면 노래를 잘하는 사람을 뽑아 춤을 가르치는 게 정답이다. 노래는 선천적으로 타고나야 하기 때문이다. 생태계가 답이고, 인재는 현장에서 구할 수 있다. 인공지능을 도입하고 싶다면, 내부의 도메인 전문가들이 외부의 인공지능 전문가와 손을 잡고 일하는 것이 맞다.

이런 때문에 국가가 지원하는 제도가 있다. 광주국가인공지능집적단지를 활용하면 인공지능 능력을 회사로 도입할 수 있다.


사내에 인공지능을 도입하는 문제는 중요하지만 아무래도 시간이 걸린다. 최근 한 조사에서 인공지능을 경영(생산)에 도입할 것인가라는 질문에 90%의 CEO가 동의했다. 그러나 이 가운데 17%만 사업을 실행했고, 그 가운데서 2%만 성공했다. 인공지능을 잘 활용하려면 데이터 정제가 중요한데 이것은 사실상 막노동이다. 노이즈가 포함된 데이터를 걸러내는데 전체 작업 시간의 80%가 걸린다. 그냥 한번 써보지 뭐 하고 시작해서는 효과를 보기 힘들다.


박 의장은 "오늘 이 강의 내용은 다음 주에는 사실에 부합하지 않을 수도 있다"며 급변하는 인공지능 시장을 한마디로 표현했다. 자고 나면 세상이 달라지는 것이 인공지능 분야다. 깨어 있어야 한다.



이재희 기자 jaehee@busan.com

당신을 위한 AI 추천 기사

    당신을 위한 뉴스레터