[미디어 비평] 저널리즘 원칙 재소환하는 AI 저널리즘

부산닷컴 기사퍼가기

이화행 동명대 미디어커뮤니케이션학과 교수

인공지능 기술 활용 취재·보도 확산
그럴싸한 가짜 정보 가능성 높아져
편향성·윤리성 문제 대처 ‘사람’ 책임
언론사 '사실 확인' 준칙 다짐해야

할루시네이션(Hallucination). 챗지피티(Chat GPT)와 같은 생성형 인공지능(AI)이 주어진 질문에 대해 사실과 다른 정보를 내놓거나, 맥락과 관련 없는 부정확한 정보를 내놓는 오류 현상을 일컫는 말이다. 근본적인 원인은 거대 언어 모델 생성형 인공지능의 통계적 특성에 기인한다.

이 인공지능은 대규모 말뭉치(Corpus)에 의해 훈련되며, 언어의 패턴을 학습한다. 이를 통해 주어진 입력에 대해 이어질 확률이 높은 토큰을 예측하여 텍스트를 생성한다. 말뭉치에 존재하지 않는 데이터에 대한 답변을 도출해야 할 경우, 학습된 기존의 패턴이 부적절하게 활용될 수 있으며, 이 과정에서 사실과 다른 정보를 그럴듯하게 생성하는 환각 증세를 보일 수 있다.

프롬프트 엔지니어링, 검색 증강 생성, 파인 튜닝 등 할루시네이션의 해결을 위한 기술적 연구를 통해서 최근의 언어 모델 인공지능은 할루시네이션이 상당히 해소되었다고는 하지만, 아직 이를 완벽하게 방지하지 못하는 한계를 드러내고 있다.

인공지능 기술은 저널리즘 분야에도 큰 영향을 미치고 있다. 무엇보다도 기사 작성, 정보 수집, 사실 확인 등 뉴스 제작 과정 전반에서 기자 업무의 효율성을 높여 주고 있다. 지진, 기상 특보, 기업 실적과 같은 데이터 기반의 단순 반복적인 기사에서는 AI가 기사 초안을 작성하는 형태로 활용되어 생산성이 대폭 향상되고 있다. 미국의 블룸버그는 AI를 활용한 데이터 분석과 금융 관련 보도를 강화하는 투자를 10여 년 전부터 강화해 오고 있다.

AI가 단독으로 기사를 작성하는 실험이 진행되고 있지만, 창의적이고 흥미로운 기사 작성에는 한계를 가진다.

AI는 주로 데이터 분석을 기반으로 한 기사에 적합하기 때문이다. 앞으로도 당분간은 감성과 맥락이 필요한 기사는 여전히 인간 기자의 영역으로 남아 있을 것으로 보인다. AI가 기사 작성을 위한 기초 데이터 수집과 기사 초안을 신속하고 능수능란하게 해결해 주는 단계에 이르렀으나, 기사의 최종 마무리는 여전히 기자의 손을 거쳐야 한다.

AI는 단독으로 기자 업무를 대체하는 것이 아니다. 역할 측면에서 AI와 저널리즘은 상호 의존과 협업이 전제되는 공생 관계에 있다. 결국, 아직까지 AI는 저널리즘의 보조 도구의 역할을 수행하고 있고, 탐사적이고 창의적인 기사 작성은 인간 기자의 영역으로 남아 있다.

AI 저널리즘의 확산은 새로운 기회와 동시에 윤리적 문제의 우려도 제기한다. 미래 AI 기술은 기자들의 일자리를 위협할 뿐만 아니라, 학습 데이터에 내재된 편향성이나 윤리적 문제를 유발할 수 있다.

AI가 잘못된 정보를 생성하거나 알고리즘의 편향성이 반영될 가능성이 있으며, 기자들이 AI에 과도하게 의존할 경우 탐사 보도의 감소와 같은 저널리즘의 약화를 초래할 수 있다. 따라서 AI 활용이 증가할수록 기자의 윤리 의식이나 저널리즘의 기본 원칙은 더욱 강조되어야 한다.

먼저, 언론의 신뢰성과 객관성을 유지하기 위해 언론은 AI의 오류를 최소화하는 노력이 필요하다. 언론사는 AI 저널리즘 시대에 기사 작성의 최종 책임을 기자가 지도록 하는 윤리 원칙을 지속적으로 강조하고 진정성 있게 실천해야 한다.

다음으로 AI 저널리즘의 시대에 간과해서는 안 될 원칙이 팩트 체크, 즉 사실 확인의 문제이다. 정보의 홍수 속에 출처 불명의 가짜 뉴스로 인해 정보에 대한 불신이 높아지고 있으며, 이로 인해서 기성 언론이 수행하는 전문 저널리즘의 가치가 더욱 중요시되고 있다.

사실 확인은 저널리즘의 핵심 원칙으로서 AI 저널리즘 시대에는 그 가치가 더 중요하게 인식되어야 한다. 현장 취재, 다각적 검증, 복수의 취재원 인터뷰 등의 절차는 반드시 지켜야 한다. 특정인의 발언을 추가 취재 없이 단순 인용하여 전달하는 '따옴표 저널리즘'은 AI 시대에 더욱 주의하고 타파해야 할 관행이다. AI 시대의 이런 변화는 기성 언론이 직면한 신뢰도 회복을 위한 기회로 작용할 수 있다.

이 지점에서 AI의 할루시네이션 현상은 인간 기자에게 경각심을 준다. AI가 사실과 다른 그럴싸한 정보로 태연자약하게 할루시네이션을 일으키듯이, 인간 기자 역시 확인되지 않은 정보를 보도함으로써 AI와 유사한 환각의 오류를 범할 수 있기 때문이다.

윤리적 책임과 사실 확인과 같은 저널리즘의 기본 원칙을 견지하는 것은 AI 시대에도 기자들에게 요구되는 중요한 덕목이다. 고맙게도 AI의 할루시네이션 현상은 인간 기자에게 저널리즘 기본 원칙을 새로이 상기시켜 주고 있다.


당신을 위한 AI 추천 기사