번역·요약·SEO...뒷단부터 AI 적용

News

2023년 07월 07일

작성 설계 엔지니어링 등 프롬프트 역량이 관건
제로샷, 퓨샷...원하는 결과 얻는 방식 습득해야
이미지, 비평과 의견을 추가하면 분석 보도 가능

Share on Twitter Share on Facebook Share on LinkedIn Share by email

세계 곳곳의 언론사는 인공지능(AI) 중심의 시스템 변화에 나서고 있다. 생성형 인공지능(GAI, generative artificial intelligence)은 올해 초부터 언론계 최대 화두가 됐다. 뉴스 생산부터 산업 전반으로 확장되며 뉴스조직을 긴장시키고 있다.

국제뉴스미디어협회(INMA, International News Media Association)는 뉴스룸 이니셔티브[1]를 통해 AI 주제의 웨비나를 열었다. 이 웨비나에서 니콜라스 디아코풀로스(Nicholas Diakopoulos) 노스웨스턴대학 컴퓨테이셔널 저널리즘 연구소 총괄 책임자는 뉴스룸을 위한 AI의 기회와 한계를 조명했다. 주요 내용을 소개한다.

생성형 인공지능은 스스로 판단할 수 없다

생성형 AI는 "학습한 콘텐츠(데이터)를 기반으로 새로운 콘텐츠(텍스트, 이미지, 오디오, 비디오 등)를 만들어 낼 수 있는 기술”이다. 확률 모델에 근거해 주어진 입력 다음에 올 결과를 예측한다.

예를 들어 텍스트의 경우 학습된 데이터를 토대로 제시된 텍스트 다음에 올 단어 혹은 문장 가운데 통계적으로 가능성이 가장 높은(그럴듯한) 답을 결과로 내는 식이다. 중요한 건 AI가 스스로 생각하는 게 아니라 사실상 확률적 예측이라는 점이다

현재 챗GPT와 달리(DALL-E)를 개발한 오픈AI와 구글, 메타 등이 생성형 AI의 선두주자다. 스태빌리티AI(stability.ai)와 허깅페이스(hugging face)부터 엔트로픽(anthropic), 코히어(cohere), 미드저니(midjourney)와 같은 스타트업들도 AI 생태계에 가세했다.

챗GPT에게 특정 주제의 글을 주문하면 기존 학습 데이터를 토대로 꽤 그럴듯하게 만들어내면서 화제를 뿌렸다. 그러나 함정도 숨어있다. 그 내용 속엔 임의로 만들어졌거나 사실이 아님에도 마치 사실인 것처럼 작성된 부분들이 포함돼 있다. 손쉽게 콘텐츠를 만드는 한편으로는 잘못된 정보도 구성하는 셈이다.

챗GPT에게 기사 작성을 요청한 모습

오픈AI는 플레이그라운드[2] 플랫폼을 제공하고 있다. 자사 GPT 모델 가운데 버전을 선택하거나 목적에 따라 모드 또는 파라미터 옵션을 조정할 수 있다. 이 가운데 ‘Temperature’ 옵션은 그 수치를 높게 설정할수록 응답의 범주는 넓게 설정돼 결과가 보다 다양해질 수 있다. AI의 창의성을 의미하는 건 아니지만 학습된 범주 내에서 비슷한 답변만을 반복 출력하는 것을 어느 정도 방지할 수 있는 기능이다.

생성형 AI 모델을 좀 더 안전하게 활용하려면 이런 기능을 쓰는 것 외에도 사실에 기반한 정보나 지식을 생산하는 작업보다는 작성된 콘텐츠에 대한 조정, 변화, 개선에 집중하는 게 좋다. 이미 작성한 기사를 입력값으로 주고 내용에 대한 요약 혹은 헤드라인을 요청하는 방식이다. 한 마디로 언어의 생산보다 언어의 조작(manipulation)에 집중하는 것이 적합하다.

정교한 프롬프트를 만드는 것이 핵심

생성형 AI 사용에서 가장 중요한 것은 건 프롬프트(prompt)다. 질문이나 명령을 내릴 수 있는 입력 창구로 인공지능이 어떤 일을 수행해야 하는지 이 프롬프트를 통해 표현해야 한다. 어떤 질문을 어떻게 하느냐에 따라 결과의 품질도 달라진다. 작업의 복잡성에 따라 상당한 시간이 걸릴 수 있다. 원하는 고품질의 답변을 위해선 프롬프트에 대한 체계적인 평가가 뒤따라야 한다.

프롬프트 사용 역량도 중요도와 난이도에 따라 크게 단순 작성(writing) ➡ 설계(designing) ➡ 엔지니어링(engineering) 세 단계로 구분할 수 있다. 단순 작성은 AI 도구와 상호작용할 다양한 방식들을 실험하는 단계이다. 많은 사람들이 일반적으로 생성형 AI를 활용하는 수준에 해당한다.

설계 단계부터는 명확한 의도를 갖고 도출될 결과를 예상해 질문한다. 원하는 내용을 원하는 형태로 얻기 위해 프롬프트 자체를 디자인하는 것이다. 엔지니어링은 더 깊은 기술적 이해를 기반으로 정교하게 프롬프트를 만드는 것이다. 프롬프트의 순서(sequence) 조절, 추가적인 지식 출처에 대한 AI의 접근방식 설정, 특정 목적을 위한 모델의 파라미터 조정 등이 포함된다.

용어 측면에선 첫째, 제로샷(zero-shot), 둘째는 퓨샷(few-shot) 프롬프팅이 있다. 제로샷은 우리가 흔히 활용하듯 문제를 제시하고 답변을 얻는 반면, 퓨샷은 기대하는 결과물 몇 가지를 예시로 제공하고 답을 구하는 방식을 의미한다. AI를 학습시킬 때 원하는 성능을 끌어내기 위한 파인튜닝(fine-tuning)[3]과 유사한 개념이다. 만약 원하는 결과물에 대한 정확하고 깔끔한 예시가 있다면 퓨샷 방식을 추천한다.

제로샷 퓨샷
니콜라스가 소개한 프롬프트 제로샷(zero-shot)과 퓨샷(few-shot) 방식

부정확성, 편향성 등에는 인간 기자 감독 필수

AI가 할 수 있는 일은 크게 두 가지다. 분류, 평가, 데이터 추출 등 분석 작업과 재작성, 요약, 개인화, 아이디어 제안, 번역, 전환 등 생성 작업이다.

AI를 적용하는 뉴스 영역의 경우 크게 뉴스룸 앞단과 뒷단으로 구분할 수 있다. 앞단은 소셜미디어 및 뉴스레터 큐레이팅, 자동 작성, 댓글 관리, 콘텐츠 포맷 변환, 텍스트 개인화 등이 있다. 뒷단은 콘텐츠 발견, 문서 분석, 번역, 텍스트 요약, 검색최적화(SEO) 등이 있다. 이때 부정확성, 편향성 등 한계도 유의해야 한다.

뉴스룸 앞단에서의 AI 활용은 인간 기자가 직접 그 과정에 참여해 관리하는 게 중요하다. AI를 다루는 데 미숙하거나 도입 초창기라면 뉴스룸 뒷단에서 가능한 부분들을 우선 수행하는 걸 추천한다.

AI 적용에 어느 정도 경험이 쌓인 뉴스룸이라도 실험은 뒷단에서 전개하는 것이 더 안정적이다. 독자들과의 접점이 적어 설령 문제가 생기더라도 뉴스룸 안팎에서 이해를 구하는 데 부담을 줄일 수 있어서다.

인공지능 기업도, 언론사도 AI 과도기 상태

마이크로소프트 빙(Bing), 구글 바드 등 검색엔진에 AI 도입이 현실화 하면서 이용자 관심도 커지고 있다. 그런데 지난 2월 빙 검색엔진으로 5가지 뉴스 토픽에 대해 15가지 검색 쿼리를 넣어 테스트해 본 결과, 거의 절반에서 문제점을 발견했다.

예를 들면 정보 출처로 몇몇 언론사의 이름과 링크가 각주로 달렸는데, 실제 클릭한 결과 답변과는 무관한 것들이었다. 정보의 부정확성만 아니라 언론사 이미지를 실추시키는 일이기도 하다.

씨넷(CNET)처럼 별도 표기나 인간 기자의 감독 없이 인공지능을 활용한 기사가 적발돼 논란이 일었다. AI 기업못지않게 뉴스룸도 과도기를 걷고 있는 셈이다. AI 자체의 한계와 활용에 따른 부작용은 예상보다 클 수 있다(아래 표 참조).

뉴스룸 인공지능 웨비나 표1
니콜라스가 제시한 인공지능 활용의 한계와 문제점

"AI 정책 마련한 언론사는 20%도 안 된다"

언론사는 AI 가이드라인에 주력할 필요가 있다. 최근 퍼블리셔들을 대상으로 진행한 세계신문협회(WAN-IFRA)의 설문조사에 따르면 생성형 AI를 언제 어떻게 활용할지 가이드라인을 제정했다고 밝힌 응답자는 전체의 20% 수준에 그쳤다.

와이어드, 가디언, 파이낸셜타임즈 등 AI 정책을 공개한 약 20여개 언론사들에서 공통적으로 등장하는 것은 책임성, 투명성, 업데이트 등의 주제였다. 대원칙과 방향을 정하는 것은 AI의 그늘을 방지하는 좌표라고 할 것이다.

주요 언론사의 AI 가이드라인에 의하면 크게 외부 및 내부 방침으로 볼 수 있다. 외부 방침은 더 높은 수준의 엄격함을, 내부 방침은 세밀한 내용으로 구성했다. 무엇보다 핵심 메시지는 AI에 대한 인간 기자의 관리로 좁혀진다. AI 사용에 대한 책임성과 콘텐츠 신뢰성의 중심에 사람을 두는 구조다. 이는 AI 적용 사례, 활용하는 부서와 구성원, 그 결과물까지를 대상으로 한다. 잠재적 위험을 줄이기 위해 곳곳에 관리 체계 도입을 강조한다.

AI 활용 과정의 투명성이나 원칙도 내세우고 있다. 어디서 사용하고 어디서 사용하지 말아야 할지를 정하는 것이다. 가이드라인에는 AI 활용 목적, 훈련과 교육, 파트너십도 언급되고 있다. 내부 원칙만큼 외부적으로도 협업하는 기술 기업이 AI 책임성에 어떤 정책을 펼치고 있는지 살피고, 업체 선택이나 계약 과정 자체에도 동일한 수준의 원칙이 적용될 수 있도록 고려해야 한다 .

또 하나는 시장 변동성과 기술 진보를 고려하는 측면도 기술돼 있다. AI 기술과 미디어 지형은 계속 변화하기에 가이드라인과 정책들의 지속적인 업데이트도 필수적이어서다. 결국 가이드라인들이 강조하는 건 사람이 중심이 돼야 한다는 사실이다. 올바른 기술 사용의 핵심은 사용하는 사람의 지속적인 관심, 그리고 책임이다.

🧭 바람직한 AI 활용 사례

첫째, 뉴스 발견(discovery), 둘째, 문서 요약, 그리고 이용자 중심 콘텐츠 요약(Audience-Oriented Paper Summarization) 등이 대표적인 사례다.

👉 뉴스발견은 뉴스 수집(gathering) 과정의 일종으로 매일 생산되는 수많은 문건들 사이에서 뉴스가 될만한 정보들을 탐색하는 작업이다. 가령 AI에게 매번 발행되는 수많은 과학 논문 가운데 특정 조건을 부여해 뉴스 거리를 탐색하도록 지시하면 꽤 유용한 수준의 결과물을 산출할 수 있다.

뉴스룸 인공지능 사례1
니콜라스의 뉴스발견 사례 - 뉴스 발견 사례

👉 문서요약은 AI에게 기사나 데이터를 제공하고 요약을 요청하는 방식이다. 이렇게 요약된 내용을 직·간접 콘텐츠로 활용한다. 덴마크 경제지 에크스트라블라데트 (Ekstra Bladet)는 92개의 기사를 AI에 입력하고 뉴스 보도에 활용할 요약문 추출을 테스트했다.

첫 시도에서는 입력 기사 가운데 59%만 발행 가능한 수준이었다. 이후 조정을 거치면서 세번째 시도부터는 75% 수준까지 끌어올렸다. 에크스트라 블라데트는 이 실험을 통해 정보 누락, 부정확성, 부족한 어휘력 등 AI의 보완점을 파악할 수 있었다.

뉴스룸 인공지능 사례2
코펜하겐의 경제지 에크스트라블라데트 (Ekstra Bladet)의 기사 요약 사례 - 에크스트라블라데트의 기사 요약 테스트

👉 이용자 중심 콘텐츠 요약은 문서 요약에서 한 단계 더 나아간 것이다. AI에게 과학 기사 등 전문적 텍스트에 대한 요약뿐만 아니라 이해를 돕는 이미지, 의견이나 비판 등 여러 요소를 추가해 하나의 분석 콘텐츠로 만드는 작업이다. 블로그 포스트를 AI로 제작하는 것으로 이해하면 된다.

뉴스룸 인공지능 사례3
니콜라스의 이용자 중심 콘텐츠 요약 사례 - 이용자 중심 콘텐츠 요약

논문 등 해당 텍스트를 분석해 정보들을 추출하도록 지시하고, 이 정보를 바탕으로 요약문, 이미지 등을 제작하도록 단계를 나눠 진행하는 것이 효율적이다. 기후변화, 첨단기술 등 전문적 내용을 다루는 기자들이 참고할 만한 사례다.

이용자 중심 콘텐츠 요약 과정 소개

🚩 결국 AI 모델에 내재된 편향성을 고려하고 완성된 콘텐츠는 정확성을 다시 점검해야 한다. 최근 편향성을 줄이고 결과물에 자동으로 다양성을 추가하는 모델이 개발 및 공개된 바 있다. AI 활용은 결국 정확성이 가장 중요한 포인트다. 이를 위해 정보 출처 검증을 반드시 할 필요가 있다.

이미지 생성모델 다양성
결과물에 인종 다양성을 추가한 생성형 인공지능

뉴스룸의 생성형 인공지능 관련 참고: Generative AI in the Newsroom

* 본 게시물에 활용된 일부 이미지 자료의 출처는 INMA의 웨비나 "AI in The Newsroom: A Practical Guide from Northwestern University"의 발제자 니콜라스 디아코풀로스(Nicholas Diakopoulos)에게 있습니다.
  1. 1

    INMA 뉴스룸 이니셔티브는 1) 저널리즘을 위한 비즈니스 모델, 2) 고가치 저널리즘 창출, 3) 저널리즘의 파급력과 영향 세 기둥을 중심으로 어떻게 뉴스룸 리더들이 자신들의 비즈니스에 영향을 주고, 독자들을 위한 저널리즘 상품을 만들어 낼 수 있을지 고민한다.

  2. 2

    개발자를 포함한 이용자들은 오픈AI의 인공지능을 API로 활용하기 전, 플레이그라운드를 통해 미리 체험 및 테스트해보고 소모될 토큰(과금요소)까지 알아볼 수 있다.

  3. 3

    인공지능 모델을 구축할 때, 원하는 기능에 대한 성능을 끌어올리기 위하여 모델의 파라미터(속성 혹은 매개변수)들을 미세하게 조정하는 과정을 말한다. 파인튜닝 과정을 거친 뒤 실제 사용되는 인공지능 모델이 되는 경우가 많다.