인공지능(AI)은 뉴스 세계에서 가장 활발하게 다뤄지는 기술이다. 음성비서를 통해 뉴스를 들려달라고 할 때도, 개인정보를 제공해 맞춤뉴스를 구독할 때도 AI는 작동한다. 많은 미디어 기업은 AI 기반의 개인화 서비스로 승부의 키를 잡고 있다. AI로 '자동화'가 가능해졌고 더 확산되고 있어 '차세대' 기술이라기보다는 현재의 경험으로 다루는 것이 타당하다.
한국 언론은 AI를 적극적으로 다루고 있지 않지만 '자동화된 저널리즘(automated journalism)'은 언론사 디지털 전환의 보편적인 요소 가운데 하나이다. 그러나 기자들의 업무를 빼앗는 참담한 형태는 아니다.
'AI 기사'는 기자들을 도울 뿐 기자들을 대체하지 않는다. 국제뉴스미디어협회(INMA)의 최신 보고서 '자동화된 저널리즘이 뉴스 미디어의 미래를 형성하는 방법'에서 '로봇 저널리즘'이라는 용어를 사양했다. 로봇이 인간의 노동과 대척점에 서 있는 존재로 비쳐지기 때문이다.
인간 노동 대체 의미 가진 '로봇' 용어 안 쓴다
2011년 저널리스트 니콜라 브루노(Nicola Bruno)는 '훌륭한 기자'라는 전제를 달고 "기계는 저널리스트를 대체하지 못한다"고 전망했다. 이 득의만만한 기자의 예측은 10년 이상이 흐른 지금, 1억명 이상이 열광하는 챗GPT(ChatGPT)에도 의문부호를 그렸다.
후안 세뇨르(Juan Señor) 이노베이션 미디어 컨설팅 회장은 한 미디어 행사에서 "기계가 기사를 작성하는 시대가 도래했지만 기계가 작성하는 기사의 유형은 스포츠 업데이트 결과, 경영성과 보고서, 범죄 보고서 등 제한적으로 사용됐다"고 지적했다.
또 그는 양심은 (인간)지능의 본질인데 "AI는 양심이 없다"고 했다. 모든 도구가 정교해도 항상 인간의 손길로 마무리되어야 한다는 뜻이기도 하다.
완성도 높은 '자동화된 저널리즘'은 인간을 거드는 AI의 역할을 설정하고, 인간이 완결하는 저널리즘에 초점을 맞춘다. 가령 방대한 데이터와 숫자를 파헤칠 때 사람은 많은 시간이 들지만 AI는 이를 단축할 수 있다. 데이터를 빠르게 해석하고 수치를 계산하는 능력 덕분이다. 명확성, 검증을 제공하는 끝없는 정보 스트림으로 인간 기자는 더 다른 것에 집중할 수 있다.
양심이 없는 AI보다 훌륭한 기자 역할이 더 중요
그런데 모든 자동화는 오류가 발생할 수 있다. 이를 바로잡고 데이터를 업데이트하고 책임을 지는 것은 언제나 사람이다. 기자가 차이를 만들지 로봇은 제품의 수준을 결정하지 못한다. 이렇게 AI 기반의 자동화된 저널리즘은 언론에게 '책임성'이라는 과제를 준다.
결국 인간 기자와 AI가 상호보완적으로 존재하는 하이브리드 모델로 귀결된다. 이때 '훌륭한' 기자의 역할이 중요하다. '훌륭한 기자'란 새로운 소프트웨어와 도구를 사용하고 독자와의 협력 및 대화를 통해 주변에서 일어나는 변화에 적응하는 사람이다.
성공하는 언론사의 디지털 전환은 이같은 훌륭한 기자들이 도구를 잘 활용하는 것이라 할 수 있다. 하지만 그러한 과정에서 필요한 안내는 잘 보이지 않는다. 수많은 AI 도구와 채널들이 있지만 어떻게 사용해야 하는 지도 잘 알지 못한다.
오류가 일어날 수 있는 상황 대비 관건
INMA는 최근 열린 미디어 구독을 주제로 하는 서밋에서 자동화 도입의 팁을 소개했다. 이 가운데 핵심 사항을 정리하면 다음과 같다.
- 격차를 발견하라
(내부 환경을 평가하고) 어디서부터 시작해야 할지 모른다면 데이터부터 시작한다. 특정 주제를 다룰 때 더 많은 정보를 제공할 수 있고, 소셜미디어에서 뉴스 배포를 원활하게 할 수 있다.
- 역량과 문화를 이해하라
먼저 도입한 언론사 사례를 벤치마킹 한다. 업계에서 일어나고 있는 이슈에서 장점과 한계를 가려내는 것이 필요하다. 우리가 할 수 있는 조건인지, 그리고 그것에 대응하면서 일어날 수 있는 갈등을 어느 정도 예방할 수 있는지 정리해야 한다.
- 열린 소통을 하라
자동화 도입은 투명성이 관건이다. 뉴스조직 및 기자와 소통하면서 어떤 목표와 과정으로 일이 추진되고 있는지 알려야 한다. 인간 대 로봇이라는 상투적 대결 구도가 아니라는 것을 설명할 필요가 있다. 기자의 의견은 기술 도입 과정에서 긍정적인 에너지를 준다.
- 목표를 설정하라
구체적인 목표를 가져야 한다. AI로 생성된 부동산 콘텐츠가 있다면 뉴스레터를 시작해서 그 결과를 분석한다. 제품을 패키징하거나 다른 제품을 개발해 그 효과를 짚어본다. 그것은 자동화의 정당성과 연결된다.
- 최고를 찾아라
호기심과 관심을 불러모을 수 있도록 계속 확인하고 질문해야 한다. 이 과정에서 성과를 낸 사람들을 찾는 것도 필요하다. 무엇이 더 경쾌하게 이끌었는지, 어떤 노력이 중요한 전환을 만들었는지 이해하고 주목할 수 있어야 한다.
- 예상치 못한 일을 예상하라
기계가 저지를 수 있는 오류에 대비해야 한다. AI가 찾는 정보는 부정확할 수 있어서 잘못된 정보를 담은 스토리가 나올 수 있다. 또 독자가 이를 발견하고 의문을 제기할 때 이 오류가 어떻게 발생했는지 설명할 책임이 있다.
독자에게 피드백 안하면 AI는 갈 길 잃는다
많은 기자들이 기술의 도움을 얻어 기사를 작성하고 있다. '검색'을 해서 정보를 찾고 에디터에서 맞춤법을 해결한다. 사진 크기를 줄이고 영상과 음성을 텍스트에 삽입한다.
이 익숙한 모습들은 20년 전에는 낯설었다. 아직은 불안한 AI도 가까워지는 것은 피하기 어렵다. 더구나 자동화된 저널리즘은 언론사와 기자들에게 유용성이 크다. 제대로 작동한다면 저널리즘을 비롯 언론사 매출에 기여한다.
뉴스조직이, 기자가 AI를 제대로 관리할 필요성은 더욱 커질 것이다. 특히 편집 프로세스를 한 차원 높이는 자동화는 저널리즘의 경쟁력을 끌어올리는 일이다. 다만 기계는 주장의 진실성을 평가하는 데 필요한 데이터나 정보 또는 지식에 반드시 액세스하는 것은 아니다.
따라서 기자가 저널리즘을 지키지 못하면 AI는 오용과 남용으로 흐를 가능성이 높다. 자동화된 저널리즘은 언론의 책임성이 중요한 대목이다. 더구나 뉴스조직보다 독자들이 AI 기반 콘텐츠 경험을 더 늘려가고 있는 상황이다.
이런 환경에서는 가장 먼저 자동화된 저널리즘의 가치를 독자들에게 잘 설명해야 한다. 국내 언론사도 이미 로봇기자가 생산한 기사들이 있지만 이것이 어떤 의미를 갖는지, 왜 도입하는지 제대로 전달하는 사례는 없다. 자동화된 저널리즘에 대해 스스로 납득하고 이해하지 않는 상태라면 언론사의 AI는 갈 길을 잃을 것이다.
생성형 AI 시대, 투명성-정확성-신뢰성 더 강화해야
생성형 AI인 챗GPT 논의는 벌써부터 극단적인 양상으로 흐르고 있다. 인간 기자를 대체할 것이라는 맹목적 흥분이 대표적이다. 중요한 것은 어떤 편에 서느냐가 아니다. 뉴스 생산 과정에서 투명성, 정확성, 신뢰성을 확보하는 일이 더 결정적인 과제다.
첫째, AI가 작성한 기사에는 기자가 아닌 로봇이 썼다는 사실을 명백히 밝히는 것부터 시작돼야 한다. 둘째, AI가 제공한 데이터나 정보가 정확한지 인간이 최종 점검해야 한다. 셋째, AI 기반의 뉴스 생산‧배포에서 소홀하거나 방치하고 있는 한계나 함정이 무엇인지 계속 살펴야 한다.
어떤 조건이든 저널리즘은 사람에 의해 좌우된다. "좋은 저널리즘은 사람, 즉 그것을 생산하는 사람과 그것을 소비하는 사람에 관한 것"이다. 챗GPT가 감히 바꿀 수 없는 가치에 대한 것이다. 독자에게 묻고 들으면서 경쟁력을 높이는 일이다. 대규모 언어 모델은 그 과정을 개선할 따름이지 저널리즘을 생산하는 것은 아니다.
모든 뉴스의 중심은 사람이기 때문이다.