생성 AI 가이드라인 왜, 어떻게 만들어야 하나

News

2023년 08월 29일

세계 20여개 언론사 AI 정책 주요 내용‧특징 분석해 보니
큰 틀에서 실용적‧윤리적 접근 두드러져
저널리즘 원칙 반영해 통합적·구체적·확장적으로 설계해야

Share on Twitter Share on Facebook Share on LinkedIn Share by email

생성형 인공지능(generative AI, 이하 생성 AI)의 대표주자 챗GPT를 처음 접했을 때 놀란 점은 두 가지다. 수려한 문장과 함께 일목요연하게 정리해 제시되는 빠른 답변 능력 그리고 질문자 의도에 부합하기 위해 없는 내용(심지어 링크까지 생성)을 조합하는 능력. 촌각을 다투며 보도하는 기자에게 관심을 끌기에 충분한 도구였다.

시간을 효율적으로 쓸 수 있도록 돕는 훌륭한 소프트웨어지만 자칫 잘못하면 표절 위험성을 높이고 허위‧오정보를 양산하는 흉기가 될 수도 있어 지금도 논란이 분분하다. 양날의 검인 탓이다. 세계 주요 언론사에서 업무 프로세스를 개선하고 기자 개개인의 활용 원칙을 담는 AI 가이드라인 제정에 주력하는 배경이다.

사실 올 초만 해도 생성 AI를 겨냥한 별도의 보도 원칙 및 가이드라인 제정 흐름은 눈에 띄지 않았다. 글로벌 미디어 기업도 기존 보도 윤리 기준 안에서 저널리즘의 책임성을 다잡는 정도였다. 그러다 미국 IT 전문지 와이어드(Wired)가 3월 초 ‘생성 AI 도구를 사용하는 방법’을 공개한 데 이어 4~6월 다수 언론사가 (생성)AI 가이드라인을 내놓으며 분위기가 확 달라졌다. 현재는 세계 20여개 언론사가 AI 정책을 안팎으로 공유할 정도로 대주제가 됐다.

지금까지 나온 AI 가이드라인 곳곳에는 뉴스룸 혁신의 미래 방향성과 맞물린 고민과 기술에 대한 이해, 활용의 범위와 수준을 조율한 흔적이 묻어있다. 또한 언론사 내부뿐만 아니라 독자(오디언스), 시장을 아우르는 이해가 반영돼 있다. 생성 AI 활용 가이드라인의 주요 내용과 특징을 살펴보면 다음과 같다.

☑️ 구성 : 책임 강조하고 실무 내용 담아

가이드라인은 ‘원칙’ ‘약속’ ‘정책’ ‘사용법’ ‘접근법’ ‘메모/편지’ 등 다양한 용어로 표현됐다. 큰 틀에서 저널리즘 윤리와 책임성을 부각하되, ‘해도 되는 것과 하지 말아야 할 것’ 등 실제 업무에서 맞닥뜨리게 될 규칙은 구체적으로 정리했다. 또 생성 AI가 인간 기자를 대체할 수 없다는 점을 명확히 하는 한편 활용시 사람의 관리‧감독을 강조했다.

💁🏽‍♀️ 실용적 접근

생성 AI는 불과 수개월 만에 인터넷 검색엔진이나 번역 서비스처럼 일상적 도구로 부상했다. 부작용이나 폐해를 내세워 막을 수도, 피할 수도 없는 흐름이다. 생성 AI 가이드라인은 기술 접근성이 탁월한 점을 수용하고 뉴스 조직이 생성 AI를 어떻게 효율적으로 사용할 수 있을 지에 초점을 맞췄다. 특히 증강현실 등 AI와 다양한 기술을 저널리즘에 접목하는 언론사에서 두드러졌다.

  • 콘텐츠 유형별로 미묘한 차이

텍스트, 이미지, 동영상 등 콘텐츠 형식에 따라 생성 AI 도구 사용 원칙을 규정했다. 와이어드는 AI 도구를 텍스트 생성기, 이미지 생성기로 구분해 각 사용법을 기술했다. AI가 생성‧편집한 기사는 게시하지 않는 것을 기본 원칙으로 한다. 처음에는 이미지‧동영상 포맷의 경우 생성 AI 도구 사용을 원천 불허했지만 최근 갱신된 가이드라인에서는 모방 및 저작권 침해가 아니라는 조건 아래 창작 과정에서 AI 활용 가능성을 열어뒀다. 눈길을 끄는 대목은 뉴스룸 구성원이 아닌 외부 작가도 AI 도구를 사용할 수 있다는 부분이다. 그러나 스톡(stock, 이미지 판매 사이트) 사진 대신 AI 생성 이미지 사용은 금지했다.

프랑스 미디어그룹 레제코-르파리지앵(Les Echos-Le Parisien)은 인간 편집자의 감독을 전제로 하면서 텍스트 생성 도구를 활용한 콘텐츠는 “챗GPT 설문조사와 같은 일부 예외적 목적”에서 게시 가능하며 “저널리스트 작업을 돕고 정보를 제공하기 위한 보강, 연구 또는 종합도구로 사용할 권리가 있다”고 명시했다. 이미지 생성 도구를 활용한 이미지 사용은 “비주얼이 AI 관련 기사 설명에 필요하거나 일러스트레이터의 창작 과정에서 사용되는 경우”에는 허가하고, 동영상의 경우 “다양한 플랫폼 배포 시 요약 도구를 사용할 수 있다”고 했다.

다수 매체가 사진, 동영상 등 영역에서 사실 왜곡이나 저작권 침해에 따른 저널리즘 가치 훼손을 우려하며 생성 AI 사용을 보수적으로 제한하는 모습이다. 다만 뉴스를 설명하는 시각물에는 AI 사용을 일정 부분 수용하면서 저널리즘 구현의 보조적 수단으로 삼고 있다.

영국 경제지 파이낸셜타임스(Financial Times, 이하 FT)도 “AI로 생성된 사실적 이미지를 게재하진 않을 것”이라면서도 인포그래픽, 도표, 사진 등 증강된 시각 자료 사용은 검토할 것이라는 입장이다.

미국 경제지 인사이더(Insider)는 챗GPT에 초점을 맞춰 주의사항을 공유했다. 뉴스룸 구성원들에게 “챗GPT를 자유롭게 실험해 보라”고 권유하면서도 “기사 작성에는 사용하지 말 것”을 당부했다. “스크립트나 기사에 입력하는 문장을 쓸 때 챗GPT 혹은 다른 챗봇 AI 버전을 사용하지 말라”며 글쓰기에 엄격한 규정을 넣었다.

  • 저널리즘 가치 증강시 활용

생성 AI 활용은 콘텐츠 생산 과정 전반의 효율화 측면에서 적극적으로 고안되고 있다. 영국 일간지 가디언(The Guardian)은 “기자가 대규모 데이터 세트를 조사하거나, 수정 및 제안을 통해 동료를 돕거나, 마케팅 캠페인에 대한 아이디어를 창출하거나, 시간이 많이 투입되는 비즈니스 프로세스의 관료주의를 줄이는 등 업무 질을 향상시킬 수 있는 상황에 집중”했다.

스웨덴 신문 아프톤블라데트(Aftonbladet)는 AI도구 사용을 기자의 부수적 업무로 제한했다. 리서치, 아이디어 생성, 헤드라인 제안 등이 해당한다. 모든 콘텐츠가 사람의 손을 직접 거치도록 하되 예외적으로 AI가 생성한 자료를 게시하는 경우는 해당 사실을 명시케 했다.

영국 뉴스통신사 로이터(Reuters)는 뉴스룸 구성원 대상 질의응답(Q&A) 부분에서 생성 AI 사용이 가능한 경우를 기술했다. 헤드라인과 기사 아이디어 브레인스토밍에는 사용할 수 있지만, 그 한계를 염두에 두고 보완 장치를 적용할 것을 권고했다. “AI 기반 결과물을 게시하기 전 헤드라인이 고유한 것인지 확인해야 한다”는 단서도 달았다.

“새로운 기술 실험을 시작할 때”에 주목한 인사이더 편집장은 기사 개요 및 구조 생성, 편집자 오타 수정과 문구 정리, 검색엔진최적화(SEO) 헤드라인 작성과 메타 설명 제안, 인터뷰 준비시 질문 아이디어 구상, 생소한 개념 설명 등에서 AI의 실용성을 높이 샀다.

생성 AI 제작 기사를 슬쩍 게시했다가 비판받은 미국 IT매체 씨넷(CNET)은 데이터 정렬과 같은 대량의 정보 구성, 업무 자동화‧특정 연구 워크플로우 개선에는 사내 AI 엔진을 사용할 수 있다고 했다. 반면 전체 기사 작성, 리뷰와 평가에 영향을 미치는 제품 테스트에는 적용하지 않으며, 이미지도 AI 도구 기능을 소개하는 목적 외에는 사용 불가 원칙을 세웠다.

  • 생성 AI 콘텐츠에는 라벨링

주요 언론사 가이드라인에는 생성 AI로 제작된 콘텐츠에 명확한 표시가 강조됐다. 독자 오해를 미연에 방지하기 위해서다. 이는 저널리즘 투명성 원칙과 연결된다. 그러나 아직은 별도 조항으로 정리된 것은 아니다. 뉴스룸의 향후 활용 범위에 따라서는 추가될 내용이 있어 보인다.

독일 뉴스통신사 DPA(Deutsche Presse-Agentur)는 “콘텐츠가 AI에 의해 독점적으로 생성되는 경우 이를 투명하고 설명 가능하게 만든다”고 정리했다. VG는 “AI로 생성된 콘텐츠는 이해할 수 있는 방식으로 명확하게 라벨을 지정해야 한다”고 적시했다.

스위스 미디어그룹 링기어(Ringier)는 “AI 도구로 제작된 콘텐츠에는 원칙적으로 라벨을 부착해야 한다”고 강조했다. 그러나 “AI가 보조 수단으로만 사용되는 경우에는 필요치 않다”고 했다.

가디언은 생성 AI 사용에 따른 독자 이익을 강조하며 AI가 생성한 요소를 보도 업무에 포함해야 하는 경우 “그 과정을 독자에게 투명하게 공개하겠다”고 밝혔다. 노르웨이 타블로이드지 VG도 AI로 생성된 콘텐츠는 ‘이해할 수 있는 방식’으로 명확한 라벨 지정을 가이드라인 핵심 원칙에 넣었다.

주요 언론 생성 AI 가이드라인 현황[1]

💁🏻 윤리적 접근

생성 AI는 기존 AI 기술과 달리 뉴스룸 안팎에서 누구나 경험할 수 있는 개방적인 도구다. 초기 단계지만 이미 많은 뉴스룸이 적용하고 있다. 윤리적 측면을 소홀히 하면 저널리즘의 신뢰성이나 진실성이 훼손되기 쉬운 만큼 대다수 언론사가 가이드라인에 책임성과 투명성을 특별히 주문하고 있다.

  • 정확성과 책임성

사람의 관리‧감독이 대원칙이다. 대부분의 언론사가 생성 AI 가이드라인에서 일관되게, 그리고 의도적으로 부각하는 내용이다. 로이터는 챗GPT와 같은 생성 AI 기술을 “저널리즘을 향상시키고 기자들의 역량을 강화할 수 있는 획기적 기술로 간주”하며 가장 적극적으로 사용 방법을 검토하는 대표적 언론사다. 하지만 로이터는 “AI를 활용해 제작하는 모든 콘텐츠에 기자와 편집자가 전적으로 책임을 진다”며 “자신의 이름이 기사에 포함된 경우 그 기사가 로이터의 편집 윤리 및 품질 기준을 충족하는지 확인할 책임이 있다”고 거듭 강조했다.

벨기에 미디어그룹 미디어하우스(Mediahuis)는 “콘텐츠나 프로세스를 확인하는 사람 없이 AI로 만든 콘텐츠를 게시하지 말라”고 못박았다. 또 편집장의 역할 및 뉴스룸 내 AI 관련 질문 및 모니터링 담당자 지정도 명시했다.

FT는 생성 AI 잠재력을 높이 평가하면서도 사실을 조작할 수 있는 AI의 ‘환각(hallucinations)’ 위험성을 경고했다. 시중의 AI 모델은 오용시 완전히 거짓된 이미지와 기사를 생산할 수 있고, 역사적 편견을 포함한 기존 사회적 관점을 그대로 복제할 수도 있다는 것이다. “항상 사람의 감독 하에 생성 AI를 책임감 있게 받아들여야 한다”며 “모든 뉴스룸 실험은 제3자 제공 업체의 사용을 포함해 내부 등록부에 기록할 것”을 약속했다.

DPA 또한 “AI 기반 제품 사용에 대한 최종 결정권과 AI가 생성한 모든 콘텐츠에 대한 책임은 사람에 있다”며 “인간의 자율성과 인간 결정의 우선순위를 존중한다”는 기본 원칙을 되새겼다. 이어 “인간의 자율성, 공정성, 민주적 가치와 같은 당사의 윤리적 원칙을 충족하는 합법적 AI만 사용한다”며 “기술적으로 견고하고 안전한 AI를 사용한다”고 명시했다.

  • 서비스 투명성

투명성이란 생성 AI 기술을 뉴스룸 업무에 도입할 때 사용 범위와 적용 부분, 방법을 선제적이고 투명하게 밝히는 것이다. 생성 AI를 언제, 어떻게 이용했는지 과정을 설명함으로써 결과물에 대한 독자 이해를 높이고, 불필요한 오해를 막을 수 있는 요소다. 뉴스 콘텐츠 신뢰 유지에도 기여한다.

미디어하우스는 무엇보다 투명성이 중요하다며 세 가지 원칙을 강조했다. 콘텐츠 생성 혹은 수정에서 AI가 사용되는 경우 항상 명시, AI 가이드라인을 게시하고 AI 사용 방식에 대해 투명하게 공유, 독자가 피드백을 제공하도록 장려하고 데이터를 검토할 수 있도록 하는 것 등이다.

DPA는 “AI에 의해 콘텐츠가 독점적으로 생성되는 경우 투명하게 설명할 수 있도록 한다”며 AI 사용시 투명성, 개방성, 문서화를 장려했다. 아프톤블라데트는 “게시하는 모든 콘텐츠가 사람이 직접 제작, 편집하고 사실 확인을 거친다”면서 “만약 AI가 생성한 자료를 게시하는 경우 이를 명확히 알린다”고 했다.

로이터는 “투명성은 로이터 정신의 필수적인 부분”이라며 “독자에게 강력하게 공개할 것”이라고 했다. 뉴스 소싱(sourcing)의 구체적 내용부터 뉴스 작성 또는 게시에 사용된 방법 등 가능한 한 많은 정보를 제공할 것이라는 설명이다. 이것이 “편집 과정의 모든 단계를 공개한다는 의미는 아니”라며 “특정 AI도구 사용이 결과에 중요한 경우”라고 밝혔다.

  • 개인정보 및 기밀 보호

개인정보 보호나 내부 정보 유출 문제도 쟁점이다. 생성 AI 모델의 데이터 학습 과정에서 개인정보 무단 도용 및 콘텐츠 저작권 침해를 일으킬 수 있다. AI 도구 사용시 불필요한 정보 입력을 예방하는 안내 문구도 가이드라인에 포함하는 추세다.

링기어는 “언론사, 직원, 고객, 비즈니스 파트너 또는 기타 자연인의 기밀 정보, 영업 비밀 또는 개인 데이터를 AI 도구에 입력할 수 없다”고 규정했다. 또한 “개발 코드는 영업 비밀에 해당하지 않거나 제3자 소유가 아닌 경우, 그리고 오픈소스 가이드라인을 포함해 저작권을 위반하지 않는 경우에만 AI 도구에 입력할 수 있다”는 조항을 구성원들에게 공유했다.

“데이터 사용과 AI 제품 및 서비스에 대한 적절한 책임 조치를 구현하고 유지할 것”(로이터), “소스를 보호하고 챗GPT와 같은 외부 플랫폼에 민감하거나 독점적 정보를 제공하지 않는다”(아프톤블라데트) 등 가이드라인에 데이터를 둘러싼 문제들을 고려한 부분이 적지 않았다.

VG는 “저널리스트는 VG 플랫폼에 즉시 게시하도록 승인된 자료만 AI 서비스와 공유해야 한다”면서 “부서장, 편집자 또는 보안 관리자 승인 없이 소스 정보, 개인 데이터 또는 민감한 정보를 AI 서비스와 공유해서는 안 된다”고 정리했다.

특히 언론사 내부 정보가 새어나갈 가능성을 우려하며 주의를 당부하기도 한다. 생성 AI 서비스 제공자는 외부 기술 기업이기 때문이다. 생성 AI 도구 사용 과정에서 언론사 기밀이 유출될 수 있다. 구성원들에게 활용시 특별히 규정과 단속이 필요한 대목이다.

☑️ 시사점 : 현장과 미래 두루 고려한 접근 필요

기존 AI가 정해진 틀 안에서 결과를 출력하는 기계적 요소가 강한 반면, 생성 AI는 사용자 의도를 파악해 맞춤형 콘텐츠를 내어놓는 실무적 도구다. 사용 방법 숙지와 프롬프트(명령 문구)에 따라 활용도가 높다. 오‧남용 리스크 대비가 중요하다. 따라서 생성 AI 가이드라인은 저널리즘 원칙을 충분히 다루면서도 통합적‧구체적‧확장적으로 설계돼야 한다.

1. 전사적 공감대 마련

생성 AI는 많은 사람이 참여하는 논의 구조를 갖춰야 한다. 편집, 비편집을 아우르는 책임자가 관여해 지식을 공유하고 자원 분배를 맡는 형태가 최적이다. 실무 차원에서 엇갈릴 수 있는 이해관계도 조율한다. 워싱턴포스트(The Washington Post)의 경우 생성 AI 시대를 위한 ‘AI 혁신 다음 단계’를 선언하며 CEO 주도 아래 전 부문 리더가 참여한 AI 태스크포스(TF)를 최근 구성했다.

가디언은 6월 생성 AI 접근방식 발표에 앞서 편집, 크리에이티브, 엔지니어링, 제품, 법률, 상업 및 파트너십 팀 동료들이 3개월 동안 워킹그룹을 구성하고 AI 원칙 초안을 작성했다. 다양한 부서가 참여하고 협의하는 것은 AI의 중요성과 악영향을 전사적으로 인식하고 공감대를 마련하기 위해서다.

2. 명확한 지침 제시

기존 저널리즘 원칙에서 강조하는 선언적 규범이나 윤리적 지침 외에도 AI로 해야 하는 것, 해도 되는 것, 하면 안 되는 것 등을 명확히 규정한다. 실무자들이 이해하기 쉽고 실천 가능한 내용으로 구성한다. 텍스트와 이미지‧동영상 제작시 생성 AI 사용 방침을 각각 구분해 구체적으로 정리하는 까닭이다.

로이터가 생성 AI 관련 지침을 공유하며 별도 Q&A를 첨부한 것도 비슷한 배경이다. 뉴스룸 구성원 대상 사전 조사를 거쳐 △안전하게 AI 실험하려면 어떻게 해야 하나 △특정 방식으로 AI 사용할 경우 고지할 사항이 있나 △AI 관련 오류는 어떻게 처리하나 △법적 위험은 무엇인가 등 현장의 고려 사항들을 넣었다.

3. 규제 아닌 현실 반영

기술과 도구는 정확히 이해할 때 사용성이 커진다. 오‧남용 문제나 역효과도 아는 만큼 줄여나갈 수 있다. 생성 AI의 부작용을 고려해 소극적으로 접근하면 오히려 기회를 놓치고 장기적으로 매체 경쟁력을 저해할 수 있다. 개인 차원이 아닌 조직 역량 제고 차원에서 바라보고 현실적 규범을 만드는 것이 중요하다.

이 과정에서 기존 저널리즘 원칙과 언론사 자체 윤리강령 등과 충돌하지 않도록 사전에 보완, 조율해야 한다. 또 AI 역량을 내재화하는 내부 교육을 병행해야 가이드라인이 사문화되지 않는다.

4. 외부 이해관계자 포함

아일랜드 일간지 아이리시타임스(Irish Times)는 지난 5월 AI로 작성된 ‘가짜 기고문’으로 곤혹을 치렀다. 외부 필자가 생성 AI 도구를 사용해 의도적으로 조작‧왜곡한 글이 뉴스룸 내에서 걸러지지 않고 그대로 게시된 것이다. 다른 언론사에도 충분히 발생할 수 있는 이슈다.

언론사 콘텐츠는 외부의 전문 기고자, 외주업체, 프리랜서 등 다양한 이해관계자 참여를 통해 완성된다. 콘텐츠 제작, 편집 등에 관여하는 뉴스조직 바깥의 관여자들도 가이드라인에 어긋나지 않도록 관련 내용을 숙지하는 게 필요하다. 주요 언론사들도 별도로 이 부분을 강조하는 추세다.

5. 세밀한 AI 스타일북

생성 AI 사용시 독자가 해당 사실을 직관적으로 알 수 있도록 표시(라벨링)하는 표준화된 규칙 마련도 과제다. ‘AI 스타일북’은 글자색과 폰트, 크기는 물론 레이아웃, 디자인, 배열 위치 등 가급적 준수해야 할 스타일을 세세하게 정해 놓는 것이 좋다.

뉴스룸 정책을 담은 일관성 있는 규칙을 적용하면 독자 이해도를 높이고 뉴스 콘텐츠 신뢰도 제고에 도움된다. 취재, 편집 등 유관 업무부서 협업에서도 사전 합의된 방식이 작동하기에 혼선 없이 소요 시간을 줄일 수 있다.

6. 지속적인 업데이트

하루가 다르게 발전하는 기술 변화 속도에 발맞추고 내부에서 실험‧시도한 바를 토대로 가이드라인을 수정, 보완할 수 있어야 한다. 외부 이해관계자들의 요구 사항도 일정 부분 고려해야 한다.

특히 AI 기술은 관련 규제, 법규 등의 논의가 현재진행형인 경우가 많아 꾸준한 모니터링과 유사시 빠른 대처가 요구된다. 조직 안팎의 환경 변화에 발맞춰 가이드라인을 주기적으로 다듬을 필요가 있다. 지난 3월 생성 AI 사용법을 내놓은 와이어드가 이미지‧동영상 관련 원칙을 일부 수정해 5월 중순 가이드라인을 업데이트한 사례가 이에 해당한다.

7. 하루라도 빨리

AI 워킹그룹 내지는 TF팀을 구성해 빠르게 대응하는 해외 언론에 비하면 한국 언론은 아직 일부 부서와 구성원들의 머릿속에 맴도는 정도다. 생성 AI 관련 가이드라인을 내놓은 뉴스조직이 전무한 것도 필요성이나 활용성 측면에서의 논의가 답보 상태이기 때문이다.

지난 20여년의 ‘디지털 퍼스트(Digital First)’도 더디게 시동을 걸었고 수박 겉핥기로 실행했다. 인력과 자원, 예산의 부족, 리더십의 부재 탓이었다. 이대로라면 ‘AI 퍼스트’도 외부 환경 변화에 떠밀려 수동적으로 추진할 가능성이 크다. 가이드라인부터 꼼꼼하게 살피지 않으면 강 건너 불구경하듯 AI를 지켜볼 수밖에 없다. 지금은 뉴스룸만을 위한 AI 방향과 비전을 가다듬을 때다.

  1. 1

    자체 파악한 사례에 ‘Towards Guidelines for Guidelines on the Use of Generative AI in Newsrooms’ 샘플 중 일부 가이드라인 추가, 글에 언급한 언론사만 별도 정리.
    각 가이드라인 내용 이해 위해 딥플(DeepL) 및 구글번역기 사용.