'AI 퍼스트' 시대의 질문
생성 AI 콘텐츠의 정확성 책임은 누가 지는가?
신뢰할 만한 데이터 세트는 확보할 수 있는가?
AI 제품 앞서 AI 도입의 방향과 체계 정립 필요
며칠 전 한 대형 신문사 관계자로부터 'AI(인공지능) TF'가 출범했다는 이야기를 들었다. 편집국 기자와 온라인 조직 구성원이 한데 모인다는 것이다. AI 기반 제품을 내놓으려는 게 당장의 목표로 보여 '속도 조절'을 당부한 적이 있다.
태블릿PC 아이패드가 시장에 나왔을 때 전 세계 언론의 관심을 받은 일이 떠올랐기 때문이다. 그 무렵 종이신문을 대체할 것이라는 전망과 찬사가 매일 쏟아졌다. 각 언론사는 태블릿PC 전용 앱을 만들고 인터페이스를 고안했지만 결국 버림받았다. 새 기술에 적극 대응하는 것이 마땅하지만 본질적인 '가치' 논의가 충분하지 않아서였다.
프레드 라이언(Fred Ryan) 워싱턴포스트 CEO는 5월 구성원들에게 자사의 인공지능(AI) 혁신 프로젝트의 다음 수순을 공개적으로 전했다. 라이언 CEO는 AI 거버넌스를 확립하고 내부 협력을 증진시키는 역할을 맡는 AI TF팀과 AI허브팀을 신설했다.
AI 의사결정구조 다잡는 워싱턴포스트
AI TF팀은 AI 전략의 방향과 우선 순위를 결정한다. 개발부서, 제품부서, 편집국, 구독, 재무, 홍보, 분석 등 대부분의 부서 고위 간부들이 참여하고 있다. 약간 명의 상근 인력과 겸업 인력으로 구성된 AI 허브팀은 조직 전체의 AI 혁신을 주도한다.
8월 9년 만에 워싱턴포스트를 떠나는 라이언 CEO는 "이것은 AI를 우선적인 기회로 삼으려는 첫 단계"라며 "독자가 뉴스와 정보를 받는 방식을 변화시키는 데 도움이 될 것으로 확신한다"고 말했다. 제프 베이이조스가 워싱턴포스트를 인수한 2013년 이래 줄곧 매체를 이끌었다.
그동안 워싱턴포스트는 AI/머신러닝 팀을 중심으로 댓글 관리, 구독 모델 관리, 헬리오그라프(Heliograph), 추천시스템 등 기존 서비스 시스템에 AI를 통합하는 방법을 전개해왔다. 최근에는 개발부서, 제품부서, 편집국 등이 참여한 AI 해커톤 행사를 갖는 등 적극적으로 움직였다.
워싱턴포스트는 2016년부터 자체 개발한 인공 지능 기술 헬리오그라프를 사용하여 리우 올림픽 관련 약 300건의 스토리를 생산한 이래 약 850개의 기사를 게재했다. 이 가운데 50만회 이상의 조회수를 거둔 선거 기사도 있었다.
5명 전담인력으로 시작한 10년여의 AI 실험
워싱턴포스트는 이 과정에서 틈새 시장의 잠재고객 등 독자 확대, 기자 업무 지원, 비즈니스 기회(B2B 또는 타깃 서비스 개발)를 확인하고 검토해왔다. 현재는 1천명이 넘는 대규모 신문사지만 10년 전만 해도 600명 규모였다.
워싱턴포스트는 당시 AI 도구를 비롯한 기술 접목 방법을 이해하고 효율화하는 전담 조직을 5명 규모로 시작했다.[1] 편집국 고위 간부는 디지데이 인터뷰에서 "AI가 있는 것과 없는 것 사이에는 엄청난 격차가 있다"며 "이것을 규모 있게 다루기까지는 수년이 남았다"고 말했다. 워싱턴포스트는 AI를 손쉽게 상대하지 않은 것이다.
크고 작은 매체들도 AI 토대부터 다잡고 있다. 잡지 '리더스 다이제스트'를 포함하여 레거시 미디어에 뿌리를 둔 미국TMB(Trusted Media Brands) 그룹은 AI 사용 방법을 이해하기 위해 AI TF팀을 구성했다. '하버드 비즈니스 리뷰'는 AI 정책을 가다듬으려 복합적인 팀을 꾸렸다.
IT 보안, 법률 및 비즈니스 등 다양한 측면에서 제기될 위험을 인식하고 대비하기 위해 조직 내 다양한 부서 구성원들의 아이디어가 그 어느 때보다 필요하다.[2] 활용법부터 기자들의 업무 방식까지 AI를 대하는 표준화된 규정-원칙, 가치와 방향을 만들어야 한다. AI는 지적재산권, 투명성, 책임성, 공정성, 개인정보보호 등 뉴스 산업 전반을 관통하고 있어서다.
생성 AI 기술은 생태계 변혁시킬 에너지
생성 AI(Generative AI)를 미디어 비즈니스에 극적인 발판으로 삼으려는 언론사에게 AI 정책은 일종의 초석이다. 기술이 진보할수록 상황은 바뀌고 접목의 틀도 바뀐다. 편집, 기술, 비즈니스 부서가 AI 정책을 공동으로 논의하고 뉴스룸의 IP를 보호하는 것을 포함하여 법적 측면을 정기적으로 고려하는 뿌리에 해당한다.
워싱턴포스트 역시 수년 동안 AI를 실험해 왔지만 기술 변화와 트렌드를 추적하며 올해 또 관련 팀을 신설한 것이다. AI가 가진 잠재력을 기반으로 어떻게 하면 저널리즘의 가치를 확장할 것인지를 겨냥하고 있다.
2021년 첫 여성 편집국장(executive editor)이 된 샐리 버즈비(Sally Buzbee)는 뉴욕타임스 인터뷰에서 “독자들은 언론사가 뉴스를 취급하는 기준이 무엇인지 알려주고, 어떻게 다루는지 설명하기 원한다"고 말했다. 언론의 투명성을 강조하는 대목이다.
이러한 뉴스룸의 원칙과 관점을 AI 전략에 적용하는 것이 바로 AI 정책이다. 현재 언론사들이 검토하는 AI 정책의 일반적인 구성 요소는 아래와 같다.
뉴스룸 미래 좌우하는 AI 가이드라인
- 서비스 투명성
현재 미디어 기업이 내놓는 AI 정책의 가장 큰 공통점은 투명성 분야다. 언론사로서 가져야 할 사회적 책임인 까닭이다. AI의 구현, 기능 및 한계에 대한 정보를 공개적이고 투명하게 공유하는 것으로 모아진다. 즉, 생성 AI를 언제, 어떻게 사용하고 있는지 독자의 이해를 돕는 활동이다. 바꿔 말하면 독자들이 누가 어떻게 무언가를 제작했는지 항상 알 수 있도록 하는 것이다.
그 공개는 모호하거나 간과하기 쉬운 디자인 요소로 남겨두기보다는 인식하고 이해할 수 있는 위치에 노출한다. AI를 쓰면서 독자들과 교활하게 지내서는 안 되기 때문이다. 앞으로는 상당히 보편적인 언어와 인터페이스로 명시될 것이다. 이렇게 AI 투명성을 유지하면 정보를 읽는 독자가 상식적인 결정을 내리는데 도움을 줄 수 있다.
- AI 윤리
AI의 목적은 인간 지능을 강화하는 것이고, 데이터와 통찰력은 생산자에게 속하며, 기술은 투명하고 설명 가능해야 한다. 독자는 정보의 결과 자체에 의존하므로 윤리적이고 설명이 가능하며 정확하고 검증 가능한 방식으로 AI를 활용하는 것이 중요하다. 그것을 뉴스룸 문화의 일부로 정착시켜야 한다.
- 정확성과 책임
뉴스룸이 가장 강조해야 할 부분이다. 정확성과 책임은 저널리즘 원칙의 핵심 가운데 하나다. 콘텐츠는 비록 챗봇에 의해 생성되거나 도구에 의해 생성될 수 있지만 기자들이 제공하는 뉴스와 통찰력을 대체할 수 없다.
그리고 이것이 저널리즘의 가장 중요한 가치다. AI를 도입하는 언론사는 그 콘텐츠 생산과정과 최종 서비스에 인간 기자가 관여하도록 해야 한다. 브랜드가 지향하고, 브랜드와 일치하는 수준의 정확성을 보장할 수 있을 때까지 그 프로세스가 필요하다.
AI는 실수와 오류를 범한다. 일종의 신뢰할 수 없는 프리랜서다. AI 정책의 요점은 그것에 대한 대비다. 작업을 항상 다시 점검하고 수정할 수 있게끔 하는 일이다. 대규모 언어 모델 및 생성 프레임워크는 권한과 라이선스가 부여되고 신뢰할 수 있는 데이터 세트 또는 대규모로 감시할 수 있는 수단을 확보하고 있어야 한다.
- 콘텐츠(생성 이미지)
현재 해외 상당수 언론사는 스테이블 디퓨전(Stable Diffusion), 달리(Dall-E) 같은 AI 이미지 생성기가 내놓는 콘텐츠의 저작권을 우려하고 있다. 게티 이미지는 작년에 AI 생성 콘텐츠를 금지하기까지 했다.
글로브 메일(The Globe and Mail) AI 가이드라인에 따르면 AI 이미지 및 비디오 도구는 뉴스 보도에 사용할 수 없다. 또 이미지가 생성기로 제작된 경우 'AI 생성 이미지' 또는 'AI 생성 일러스트레이션'으로 표시해야 한다.
HBR은 뉴스룸에서 작성하는 스토리에서 AI가 생성한 이미지를 요구하는 순간이 있을 수 있지만 이 경우 독자에게 공개하기로 했다. 그러나 HBR 디자인 팀은 현재 도구를 사용하여 AI 이미지를 생성하지 않는다.
- 데이터, 안전 및 법률
AI의 학습 데이터 수집을 둘러싼 대가 산정 논란이 여전하다. AI로 생성된 작업물이 저작권에 의해 보호되지 않는 경우 누가 소유하는가? 누군가가 프롬프트를 만들었을 때 그 결과물을 가공한 뉴스는 누구의 것인가? AI는 언제 도구이고 언제 기자인가? 많은 국가에서 기계로 제작한 저작물은 권리를 인정하지 않는다. 그러나 미국 저작권청은 저작물에 (충분한 역할을 가진) 사람이 있다면 저작권을 등록한다.
하지만 논란은 여전하다. 게티 이미지는 스테빌리티 AI를 상대로 1,200만 개 이상의 게티 사진을 생성 AI 학습에 오용했다며 소송을 제기했다. 얼마든지 뉴스 조직도 침해를 당할 수 있다.
개인 정보 보호 정책에도 불구하고 챗GPT는 IP 주소, 설정 및 브라우저 유형, 사용자의 브라우징 활동 수집 등 데이터 프라이버시를 훼손할 위험이 상존한다. 개인화 서비스나 추천 알고리즘에서는 개인 정보 데이터가 충분히 쌓여야 가능하다. 뉴스 조직은 AI 정책에서 개인정보 보호 체크포인트를 점검해야 한다.
- 기회와 잠재력
단순히 규칙, 규정 또는 금지에 초점을 맞추면 AI 활용이 위축될 수 있다. 위험 요소 외에도 기회와 장려의 내용도 담아야 한다. “이렇게 하지마, 저러지 마라고"에만 집중한다면 두려움과 포기가 자리잡을 수 있어서다. 균형 잡히고 포괄적인 프레임워크를 설계해야 한다. 데이터에서 가치를 찾아내고, 헤드라인을 제안하고, 인사이트를 도출하며, 생산 속도를 높일 수 있도록 하는 일이다.
- 외부 참여자 지침
내부 구성원을 위한 가이드라인 제정도 필요하지만 AI 사용에 있어 외부 기고자나 참여자를 고려하는 것도 중요하다. 기고자가 생성 AI 도구를 사용할 수 있기 때문이다. 뉴스룸은 외부 기고자가 해당 도구를 사용하는지 여부와 방법을 알고 싶어한다는 점을 분명히 밝히는 것이 필요하다. 뉴스 브랜드 아래 노출되는 제품의 정확성과 무결성에 대한 책임을 공유하기 위해서다.
테크 플랫폼에 기댄 트래픽, 비즈니스 끝났다
언론사는 AI로 향하는 출발선에 있다. 여기서 가장 중요한 것은 언제 어떻게 어디에서 누가 AI를 사용하든지 독자에게 가치를 제공하는 일이다. 독자에게 가치를 추가하는 것 이상으로 브랜드의 가치도 추구해야 한다.
여전히 AI가 접목되는 뉴스 생태계는 불확실히다. 품질이 낮거나 허위 조작 정보가 더 쉽게 생성되고 확산된다면 뉴스룸의 수익과 영향력은 어떤 영항을 받을지 논쟁적인 지점이 많다. 이 때문에 언론사는 생성 AI가 미디어 조직의 비전과 목표, 가치와 방향에 부합하는 도구인지를 명확하게 판단해야 한다.
나날이 진화하는 AI 기술에 산만해지거나 압도되지 않도록 항상 관찰하고 이 흐름을 주도할 수 있어야 한다. 따라서 'AI 퍼스트'를 새로운 '디지털 퍼스트'로 전환할 때이다. 디지털 퍼스트는 인터넷 이후 온라인 뉴스 환경이 부상하면서 모든 업무 프로세스와 지향점을 디지털에 두기 위해 등장한 화두다. 디지털 퍼스트는 모바일 퍼스트, 오디언스 퍼스트 같은 전략의 갈래와 이정표를 낳았다.
AI 퍼스트는 앞으로 AI가 소셜과 검색을 대체할 수 있는 디지털 정보 생태계에 대비하는 대전환의 활동이다. 테크 기업의 플랫폼에 기대서 수익이나 트래픽만 따지는 시대는 끝이 나고 있다. AI 이니셔티브에 눈떠야 한다.[3]
AI 정책 가이드라인. 언론사 AI 활용에서 꼭 짚어야 하는 질문들로 원칙과 항목을 정리했다. 참고할 사이트도 여럿 있다.
-
1
일반적인 편집 기자는 제외된 숫자다.
-
2
저널리즘 영역에서 AI 기술을 위험하게 보는 시각도 있다. 아직 인간 기자의 역량보다 더 우월하지 않기 때문이다. 뉴스조직이 앞다퉈 AI 가이드라인을 논의하는 배경이다.
-
3
연내 로그인월 서비스를 추진하는 한국일보는 6월30일 이용 약관 주요 개정에서 '인공지능 및 대량 크롤링' 조항(제12조)을 신설했다. 한국일보닷컴과 이외 외부 플랫폼의 모든 한국일보 콘텐츠를 대상으로 자동화 도구를 활용하는 행위를 허용치 않고, ‘콘텐츠와 서비스를 AI 학습 데이터로 활용할 경우 회사와 반드시 합의해야 하고 공익 및 비영리 목적임을 분명히 해야한다’는 게 골자다. 이는 저작권 보호 및 AI 관련 기업과 협상력 확보 차원의 방어적 대응으로 국내 언론사 가운데는 처음이다. 뉴스룸의 AI 활용에 따른 규정 마련은 아직 더 시간이 필요할 것으로 보인다.