생성AI가 몰고 오는 파괴적 혁신? 언론은 ‘혁신적 파괴’ 직면할 수도
관심도 대비 실용적 논의 부재, 현실적 접근 필요
해외 유력 언론들 (생성)AI 가이드라인 제시, 시스템화 공부 중
저널리즘 강화 차원서 접근해야 ‘AI 퍼스트’ 시대 대비
뉴스업계 디지털 동향을 전하며 웬만해선 챗GPT와 같은 생성형 인공지능(Generative AI, 이하 생성AI) 이슈는 피하려 했다. AI 편향성 논란에다, 생성AI의 결과물을 놓고 정확성 시비에 저작권 침해 공방까지 아직은 지켜볼 화두가 넘치기 때문이다. 언론계가 점검하는 방향도 비슷하다. 생성AI의 불확실성이 여전해서다. 그래도 잠재력을 높이 사는 매체사들은 뉴스 생산 과정이나 생태계 전반에 미칠 영향과 전망을 정리하는 데 촉각을 곤두세우고 있다.
하지만 생성AI를 둘러싼 열기에 비해 유독 실용적 논의는 부재하다. 특히 국내 언론사 가운데 생성AI 기술을 어떻게 쓸지 계획하고 있다는 이야기는 아직 나온 적이 없다. 기자, 편집자 등 언론사 구성원 상당수가 AI에 일자리를 빼앗길 수도 있다는 우려 섞인 보도는 있지만, 똑똑해진 AI를 말 잘 듣는 도구로서 부리려는 현실적 접근은 잠잠하다.
이에 비하면 해외 언론사와 관련 기관들은 분위기가 영 다르다. AI를 집중 조명하는 보도가 쏟아지는 한편으로 언론사 내부에서 어떻게 활용할지를 놓고 진지하게 공부 중이다. 표절, 딥페이크 등 생성AI 기술을 악용하는 문제가 불거지는 상황에서 부작용을 최소화고자 시스템을 정비하고, 뉴스룸이 올바르게 사용하도록 원칙과 규범을 제정하는 것도 일반적 흐름이다. 또한 저널리즘을 강화하는 가이드라인도 속속 등장하고 있다.
당장 지난달만 해도 유력 언론 세 곳이 생성AI 지침을 발표했다. 영국 경제지 파이낸셜타임스(Financial Times, 이하 FT)와 프랑스의 레제코-르파리지앵(Les Echos-Le Parisien)그룹, 세계적 뉴스통신사 로이터(Reuters)가 생성AI를 업무에 적용하는 방향을 큰 틀에서 공유했다.
FT는 5월 26일(현지시간) 웹사이트에 게시한 편집장 글에서 디지털 저널리즘 혁신 연장선상에서 생성AI를 얘기했다. “데이터 마이닝, 텍스트 및 이미지 분석, 번역 등 업무에서 저널리스트를 지원하기 위해 책임감 있게 실험할 수 있는 팀을 뉴스룸에 둘 것”이라면서도 오‧남용 리스크를 낮추는 선에서 일정 부분 제한을 뒀다.
△생성된 사실적 이미지는 게시하지 않고 인포그래픽, 도표, 사진 등 증강된(augmented) 시각 자료 사용 검토 △생성AI 이용한 요약 작업은 사람 감독 아래 고려 가능성 △투명성 확보 위해 뉴스룸 실험 도구는 제3자 제공업체 사용 포함해 내부 등록부에 기록 △생성AI 활용에 대한 저널리스트 교육은 마스터 클래스 통해 진행 등이 주요 내용이다.
레제코-르파리지앵 역시 FT와 유사하게 콘텐츠 제작에 있어 생성AI 활용 범위를 정했다. 적극 활용하는 문은 열어두면서도 보도 업무에선 일부 빗장을 거는 모양새다.
일단 사람 편집자의 감독‧관리 없이는 생성AI가 만든 텍스트, 이미지, 비디오 콘텐츠는 게시 안 하는 것을 원칙으로 삼았다. 예외적 활용(AI에 대한 연구 활동, 기사에 삽입되는 시각 자료 등)에 있어선 누구나 알 수 있도록 출처를 명확히 표기한다. 저널리스트는 검색엔진처럼 도구로 삼되 정보 활용 시엔 AI 답변이 아닌 원출처를 확인하도록 했다. 소셜미디어 등 다양한 채널에 콘텐츠를 배포할 땐 요약 업무에 이용 가능하다.
로이터는 직원들에게 생성AI의 올바른 사용을 안내하는 메시지를 보냈다. 수년 전부터 AI 등 여러 첨단 기술을 뉴스 제품‧서비스에 선제적으로 입힌 뉴스 조직이라서 생성AI도 공격적으로 수용하는 의지가 드러난다.
편집장(editor in chief)과 윤리 편집자(ethics editor) 공동명의 메모에서 “생성 모델을 포함한 AI 기술은 저널리즘을 개선하고 언론인 역량을 강화할 수 있는 획기적 기술”로 규정하며 “차세대 도구가 제공하는 가능성을 탐색하는 것은 선택 사항이 아니”라고 봤다. 다만 “AI를 활용한 모든 기사에 대한 책임은 전적으로 (사람) 기자와 편집자에 있다”며 정확성과 투명성 원칙을 강조했다.
나아가 로이터는 뉴스룸에서 제기된 AI 관련 질문을 8가지로 정리했다. 또 각각에 대한 답변을 상세히 달아 Q&A 목록으로 첨부한 뒤, “(내부적으로) 경험이 쌓이면 보다 공식적인 가이드라인을 발행할 계획”이라 덧붙였다.
이들 매체가 아주 빠른 편도 아니다. 지난 3월 미국 IT 전문매체 와이어드(Wired)가 기사에서 생성AI 도구를 사용하는 방법을 이미 공지했으며, 4월엔 경제전문 미디어 인사이더(Insider)가 ‘AI 뉴스룸’에 대한 입장과 방침을 편집장 이름으로 밝힌 바 있다.
이 무렵 영국 일간지 가디언(The Guardian)은 챗GPT가 ‘가짜 가디언 기사’를 생산하고 있다는 문제점을 인지, 회사의 고민과 대응을 상세히 기술했다. 가디언은 “기술이 책임 있는 보도에 어떻게 도움 될 수 있는지에 대한 질문과 씨름하고 있다. 이것이 생성AI를 기반으로 우리가 새로운 형식이나 제품을 아직 발표하지 않은 이유”라고 전하며 “생성AI의 잠재적 영향을 해독한 뒤 수주 안에 사용 계획에 대한 명확하고 간결한 설명을 게시할 것”이라고 했다. 해당 글을 쓴 이는 가디언의 편집 혁신 책임자(head of editorial innovation)였다.
이렇게 생성AI 활용에 대한 세부 내용은 각사별로 조금씩 차이가 난다. 그럼에도 모든 언론이 안(기자)과 바깥(독자)의 시선을 모두 고려해 회사 방침을 알리고 이해와 협조를 구하려는 의도는 닮아있다. 기술의 역동성에 휩쓸리지 않고 주체적으로 적용해 나가려는 뜻을 공개적으로 밝혀 불필요한 우려나 오해를 불식시키려 하는 의도도 읽힌다. 무엇보다 내부 의사결정 과정과 결과를 투명하게 내비치는 행위 자체가 신뢰를 앞세우는 언론사다운 움직임으로 평가할 수 있다.
*함께 보면 좋은 내용
‧뉴스룸에 다가선 생성형 AI 기술
‧‘AI 사용 가이드라인’ 필요하다
‧‘AI 퍼스트’ 시대의 질문
지금 생성AI는 이슈를 몰고 다니는 세계적 뉴스거리인 동시에 언론 스스로에겐 잘 벼린 양날 검이다. 적재적소에 제대로 쓸 수 있어야 한다. 미국 테크매체 씨넷(CNET)은 올 초 AI로 작성한 기사를 ‘조용히’ 내보냈다가 팩트 오류, 윤리성 논란 끝에 실험 중단을 결정했었다. 그리고 수개월이 지나 ‘할 것’과 ‘안 할 것’을 명시한 AI 사용법을 최근 내놓았다.
한국의 수많은 언론이 마주한 상황이나 주어진 사정 또한 다르지 않다. 자연스러운 뉴스를 사람처럼 구성하는 AI는 잘 쓰면 도구지만 못 쓰면 흉기가 될 수 있다. 그런데도 국내 언론사는 계속해서 구경꾼인 듯 ‘남 걱정’만 시늉한다. 전 산업에서 예상되는 변화상을 점치며 관련 보도에 열을 올릴 뿐, 정작 ‘내가, 우리가 어떻게 하겠다’는 계획을 밝히거나 전략을 수립하는 노력은 더디다.
반면 해외 언론사는 최고경영자(CEO)를 중심으로 각 부문장이 뭉쳐 전사 차원에서 생성AI 전략을 협의하고 실행안을 구체화하는 미디어 기업들이 늘어나고 있다. 뉴욕타임스나 워싱턴포스트는 아예 조직을 개편해 지금까지와는 또다른 AI의 다음 스텝을 구상하기 시작했다.
기술에는 오직 ‘만만디’로 굴러가는 한국 언론사에 그 정도 수준까지 올리라는 말은 차마 못 하겠다. 일단은 검색엔진이나 번역도구를 쓰듯, 취재 보도 과정에서 효율적으로 써보는 AI 도장 찍기라도 해 봐야 한다. 물론 베껴쓰기, 어뷰징(abusing) 기사가 난무하던 환경에서는 이것조차 언감생심이라는 조소도 있고, ‘마구잡이 표절’의 지렛대로 삼을 수 있다는 조롱도 있다. 하지만 AI로 통하는 시대에 파괴적 혁신에 올라타지도 못한 채 혁신적 파괴에 직면하는 당사자가 된다면 어찌할까?
- 이 글은 미디어 전문지 <미디어오늘> 6월 11일자 오피니언란에 [디지털 혁신 점검] 칼럼으로 게재됐습니다.