‘AI 사용 가이드라인’ 필요하다

News

2023년 03월 27일

뉴스룸 깊숙이 침투하는 자동화 물결, 개인 양심‧생태계 자정 한계
생성형 AI도구 활용 확대 속 표절 등 예상가능 부작용 대비해야
‘할 것과 하지 말 것’ 구체적 행동강령 필요…와이어드 사용법 눈여겨봄직

Share on Twitter Share on Facebook Share on LinkedIn Share by email

창작자 글쓰기 플랫폼 미디엄(Medium)은 올 초 생성형 인공지능(generative AI) 관련 지침을 발표했다. 진화한 AI가 텍스트‧이미지를 망라해 쉬운 창작의 길을 열어젖힌 만큼, 사람 창작자들이 자유롭게 활동하는 개방형 생태계가 AI 난입으로 혼탁해질 것을 염려한 조치다.

미디엄은 콘텐츠 생산 과정에서 투명성을 최우선으로 강조한다. 기술의 책임감 있는 사용을 당부하며, AI 도움을 받아 작성한 모든 스토리에 해당 사실을 명확하게 표시할 것을 밝히고 있다. AI 생성 콘텐츠임에도 출처를 공개하지 않을 시 미디엄 네트워크상에서 콘텐츠 배포 자격이 상실된다.

나아가 플랫폼에서 발행되는 일부 간행물은 훨씬 더 엄격한 기준을 적용한다. 일례로 팬페어(Fanfare, 대중문화 주제)는 AI 사용을 원천적으로 불허하는 원칙을 세웠다. “명확한 목소리와 독특한 관점을 가진 강력한 글을 찾는다”는 미션과 배치된다는 이유다. 만약 이를 어기고 AI 활용 콘텐츠를 게시한 사례가 적발될 경우 그 즉시 작가 타이틀을 박탈한다.

미디엄의 AI 사용 방침은 보수적이지만 강제력은 떨어진다. 플랫폼 운영상 큰 틀에서 투명성 원칙을 강조해도 결국 이행은 개인 창작자의 양심과 자율에 따를 수밖에 없는 까닭이다. 팬페어 편집자도 이 점을 인정하며 “솔직히 그런(AI 사용) 활동을 어떻게 단속할 수 있는지는 잘 모르겠다”면서 콘텐츠 품질을 통해 플랫폼 생태계 내 자정을 기대하는 모습이다.

뉴스 생산 효율화 vs. 저널리즘 가치 보전

생성형 AI 돌풍이 몰고 온, 혹은 몰고 올 급진적 변화를 준비해야 하는 건 뉴스를 다루는 저널리즘 분야도 마찬가지다. 공공재 성격이 짙은 뉴스를 생산하는 업 특성을 고려하면 언론계가 마주하는 생성형 AI 파고는 훨씬 더 높을 수 있다. 여타 콘텐츠 산업에 비해 저널리즘이 사회에 미치는 영향은 직접적이고 즉각적이기 때문이다.

이미 생성형 AI 사용으로 인한 보도 부작용은 눈으로 확인됐다. 테크전문 매체 씨넷(CNET)의 AI 작성 기사 논란이다. 씨넷은 생성형 AI 활용을 밝히지 않은 채 수개월 간 AI 작성 기사를 내보냈다. 해당 사실이 뒤늦게 타사 보도로 알려지며 비판의 중심에 섰다. 언론 윤리는 차치하더라도 내용상 수치 오류 등이 교정 안 된 엉터리 기사조차 걸러내지 못하는 시스템적 한계를 드러냈다. 이 일로 효율적 뉴스 생산을 위한 AI의 바른 쓰임에 대한 고민이 새삼 공론화됐지만 뾰족한 답을 찾기 어렵다는 점 또한 확인하는 계기가 됐다.

사실 챗GPT 등장 이전부터 언론산업은 AI 기술을 도입해 왔다. 날씨‧증시‧스포츠 정보와 같은 기사 자동화는 물론 뉴스 추천‧배열 등 개인화 서비스 등 고도화에도 AI가 쓰인다. 뉴스룸 시스템을 매만지기도 했다. AP통신 대표적인데 뉴스 수집, 제작, 배포 등의 과정 모두에 AI를 배치해 단순 반복 업무를 봇기자 몫으로 돌렸다. 품질에 대한 평가는 시각차가 있지만 ‘세계 최대 뉴스도매상’으로서 생산 업무 효율성이 증대됐다는 것엔 이견이 없다.

언론계에 AI 기술이 광범위하게 적용되는 상황과 달리 AI 관련 명확한 보도 원칙을 세운 사례는 보기 드물다. 뉴스룸이 AI를 도입해도 지금까지는 기술의 한계와 사람 기자와의 역할 구분이 비교적 뚜렷했기에 별도 가이드라인에 대한 필요성을 체감하지 못한 것으로 보인다. 저널리즘 윤리를 강조하는 혁신 언론들조차 대부분 기존 윤리 가이드라인 안에서 취재 보도 서비스 관련 책임성을 담는다. 독일 공영방송인 바이에른 방송(BR)이 2020년 제시한 AI 윤리 가이드라인이나 로이터통신을 소유한 톰슨로이터(Thomson Reuter) 재단이 마련한 AI 원칙(Principle) 등이 있지만 이 역시 윤리적 가치 보전을 위한 선언문에 가깝다.

봇기자 뉴스
뉴스 생산 과정에서 봇기자 개입은 피할 수 없는 흐름이 됐다.

물론 윤리성에 기반해 생성형 AI 도구를 잘만 활용하면 업무 효율성을 대폭 끌어올릴 수 있다. 취재 과정에서 유효한 정보를 발라내는 시간을 단축하고, 단순 속보성 기사는 사람 같은 AI가 소화하는 대신 기자는 깊이 있는 취재와 양질의 보도에 집중하는 식이다. 유료 이미지 구매가 쉽지 않은 영세 언론사들은 가성비 있는 맞춤 사진 활용이 가능하다.

뉴스제작 비용을 절감해 브랜디드 콘텐츠 등 수익 비즈니스 부문을 강화하는 데 자원을 이동하면 언론사 경영 측면에서도 도움이 된다.

문제는 적정선을 지킬 수 있는가다. 사람 손을 거친 듯 자연스러운 결과물을 내놓는 생성형 AI 앞에서 기자들조차 표절 유혹에 빠지기 쉽다. 씨넷처럼 언론사 조직 차원에서 AI 개입 사실을 숨기고 오남용할 소지도 다분하다. 부정확한 정보나 잘못된 사실이 기사 옷을 입고 퍼져나갈 잠재 위험성은 자연스레 커질 수밖에 없다.

소셜 가이드라인은 지금도 업데이트 중

부작용을 줄이려면 윤리적 가이드라인 못지않게 현실적 행동강령이 필요하다. IT 전문매체 와이어드(Wired)가 3월 초 생성형 AI 사용법을 낸 것도 이같은 이유일 것이다. 와이어드는 생성형 AI 도구를 사용할 때 ‘하지 말아야 할 것과 가능한 부분(don’t & may)’을 명시한 원칙을 발표해 눈길을 끌었다.

✔️ AI가 생성한 텍스트가 포함된 스토리(기사) 게시 안함
✔️ AI가 편집한 텍스트도 게시 안함
✔️ 짧은 소셜미디어 게시물의 텍스트나 헤드라인 추천에는 AI 사용 가능
✔️스토리(기사) 아이디어 생성시 AI 사용 가능
✔️ 연구 또는 분석 도구로 AI 실험 가능
✔️ AI가 생성한 이미지나 동영상 게시 안함
✔️ 스톡(stock, 이미지 판매 사이트)사진 대신 AI 생성 이미지 사용 안함

단순하지만 명확한 메시지로 구성원들의 일탈 가능성을 낮추고 오디언스 대상 기사의 투명성을 높이려 한 의도가 읽힌다.

소셜미디어 사용이 활발해진 2010년대 이후로 언론사들은 저널리즘 윤리 규범 외 별도의 소셜 가이드라인으로 내재화를 기대했다. 비록 한국 언론계에선 사문화된 경향이 없지 않지만 소셜 플랫폼 활용이 활발한 해외 언론에선 지금도 유효한 지침이다. 업데이트도 진행형이다. 지난해 기자 간 ‘트위터 싸움’을 경험한 워싱턴포스트가 소셜미디어 가이드라인을 재정비한 것이나, BBC가 최근 불거진 프리랜서 진행자 트윗 논란을 계기로 소셜 가이드라인 재검토에 나선 것이 예다.

인터넷 검색 행위가 취재 과정의 기본이 됐듯, 소셜 소통이 언론 문화로 자리 잡았듯, 자동 번역이나 받아쓰기 서비스를 이용하는 기자들이 많아진 것처럼 보도 편의를 위해 생성형 AI도구도 보편적으로 사용할 시기가 머지않았다. 기술이 여는 대세 흐름을 막을 수 없다면 실효성 있는 양성화 방안을 찾는 것이 현명하다.