뉴스룸에 다가선 생성형 AI 기술

News

2023년 01월 30일

구체적이고 명확한 프롬프트 작성 중요
학습, 실험할수록 새로운 기회 창출 가능
윤리성, 품질 관리 등 논란은 뜨거워져

Share on Twitter Share on Facebook Share on LinkedIn Share by email

가트너는 지난해 ‘2022년 이머징 테크놀로지 하이프 사이클 (Hype Cycle for Emerging Technologies, 2022)’ 보고서에서 제너레이티브 AI(Generative AI, 이하 생성 AI)를 주목할 기술로 꼽았다.

구글이 소유한 웹 검색 엔진인 '구글 검색'(Google Search)은 지난 20년간 인터넷 생태계를 지배해왔다. 모든 정보는 구글 검색엔진으로 통했고 그것을 뛰어넘을 도구는 딱히 등장하지 않았다.

하지만 불과 몇 주 사이 상황이 바뀌었다. 대전환의 드라마 주인공은 생성AI(Generative AI) 모델의 대표주자로 급부상한 '챗GPT(ChatGPT)'다. 오픈AI가 공개한 AI 챗봇 챗GPT는 지난해 11월말 출시 후 사용자 100만명을 며칠 만에 모으더니 최근 월 사용자 1억명을 돌파했다.

사용자가 질문을 하면 마치 사람이 작성한 것처럼 글을 생성하는 대화형 어플리케이션의 능력 덕분이다. 블로그 게시물, 프로그램 코드, 시 및 삽화 등 텍스트와 이미지, 비디오 생성 경험담이 잇달아 나오고 있다.

생성AI는 사용자가 어떤 요청을 하면 거기에 맞춰서 결과를 생성하는 인공지능이다. 단순히 기존 데이터를 분석하거나 그에 따라 행동하는 것이 아니라 스스로 콘텐츠를 생성할 수 있다. 그 과정에서 새로운 표현을 만들어낼 수 있다.

언론사는 챗GPT(ChatGPT)와 같은 인공지능(AI) 봇을 활용해서 독자 조사를 수행하고 제품 아이디어를 얻을 수 있을까? 국제뉴스미디어협회(INMA)는 '뉴스 마케터를 위한 AI 및 챗GPT(ChatGPT) 가이드(AI Guide and ChatGPT Promptbook for News Marketers)' 보고서에서 챗GPT 활용 관련 참고할 만한 채널 3곳을 소개했다.

생성 AI 봇을 효과적으로 사용하려면 프롬프트(prompt, 명령어)를 작성하는 것이 중요하다. 프롬프트 가이드 제공을 비롯 직접 테스트할 수 있는 채널들도 다수 등장했다. 이곳에서는 (어느 정도까지는) 무료로 도구를 사용할 수 있다. 단계별 가이드와 교육 웨비나 등을 제공하고, 실무자 커뮤니티를 구축하는 곳도 있다.

뉴스조직이 구독 비즈니스 등 마케팅을 위해 생성 AI(Generative AI)를 잘 쓰려면 어떻게 해야 할까? INMA는 프롬프트의 구체성, 명확성을 비롯 기존 출처를 참조하고 명령(요청)의 순서를 고려해야 한다며 10가지 사항을 정리했다.[1]

구체적이고 명확한 프롬프트가 관건

  • 구체적인 프롬프트를 작성하라 : 단순히 "마케팅 계획을 만들어달라"고 하지 말고 "젊은 전문가를 대상으로 하는 신규 구독 서비스에 대한 마케팅 계획을 마련해달라"고 요청하는 것이 더 효과적이라는 것이다. 프롬프트가 명료할수록 생성 AI도 더 관련성 있고 유용한 결과를 생산한다.
  • 맥락을 제공하고 목표를 명시하라 : 목표가 광고 캠페인용 카피 작성이라면 AI에게 대상 고객은 누구이며, 광고되는 제품과 원하는 행동이 무엇이지 정보를 제공하는 것이 더 나은 결과를 생산한다.
  • AI가 학습할 수 있도록 예제를 제공하라 : 짜임새 있는 마케팅 분석이 필요하다면 보고서 개요 같은 템플릿을 제공한다. 이렇게 하면 결과물은 읽기 쉽도록 구조화될 수 있다. 인용문이나 예문을 제공할 때는 구두점이 중요하다.
  • 확립된 마케팅 이론이나 프레임워크를 말하라 : AI는 비교적 최근의 자료들까지는 학습으로 알고 있다. 추가 컨텍스트와 요구 사항 제공으로 전반적인 품질 개선이 가능하다.
  • 짧은 명령어로 끝낼 게 아니라 전체적인 흐름을 고려하라 : AI에게 그저 마케팅 이메일을 쓰라고 하기보다는 먼저 단계별로 AI를 몰입시켜야 한다. 이때 순서가 중요하다. 이메일과 고객의 배경을 고려할 것을 주문한다. 또 다른 이메일들의 목표를 분석하고 후속 조치로 예제를 만들어 본다.
  • 사람처럼 AI와 대화하라 : 생성 AI의 결과물은 요청자가 선택한 변수나 경향에 따라 확연히 달라진다. 다양한 이해관계자의 처지에서 대화한다. 가령 낙관론자, 비관론자, 이성이나 감정을 가진 사람처럼 AI를 인터뷰하는 것이다.[2]
챗GPT
챗GPT

'나'의 요청에 수정 제안도 한다

  • 다른 고객을 위한 출력 버전을 만들어라 : AI가 특정 요구, 관심사 및 선호도에 따라 게시물을 조정할 수 있도록 한다. 다양한 독자들이 활동하는 소셜미디어를 고려한다면 상세한 특성과 배경을 고려해야 한다.
  • 출력물을 세밀하게 검토하라 : 인공지능 도구는 점점 더 기능적이고 빠른 반면, 출력에 오류나 부정확함이 있을 수 있다. AI 모델은 책, 기사, 블로그 또는 소셜 미디어 게시물과 같은 교육 데이터에 존재하는 편향을 복제할 수 있다. 다른 비서들과 마찬가지로, 신뢰하지만 확인하라.
  • 피드백을 제공하고 계속 요청하라 : 봇은 요청에 지치지 않는다. 부끄러워하지 말고 다른 버전을 제안해 달라고 요청한다. 요청을 미세 조정할수록 브랜드의 목소리를 맞추는 데에도 도움이 된다. 막히면 대화를 지우거나 새로운 대화를 시작한다. 참고로 AI는 또한 '나'의 작업을 검토하고 피드백을 제공하고 수정을 제안할 수 있다.
  • 생성된 콘텐츠에 인간의 손길을 더하라 : 생성 AI 모델은 훈련 데이터에 존재하는 패턴과 정보만을 기반으로 텍스트를 생성하기 때문에 진정으로 독창적인 아이디어를 내는 데는 한계가 있다. AI의 카피는 단조롭고 반복적일 수 있다. 인간의 능력으로 고객과 연결하고 공감하며, 감정을 표현하고, 색상, 뉘앙스 또는 품격을 추가한다.
마케팅 측면에서 생성 AI의 장단점
마케팅 측면에서 생성 AI의 장단점. 출처 : INMA 보고서(AI Guide and ChatGPT Promptbook for News Marketers) 재구성

처음부터 끝까지 인간이 AI 관리해야

INMA는 챗GPT, 재스퍼 인공지능, 라이트소닉 등이 뉴스 구독 마케터들을 성공적으로 도울 수 있는 생성 AI 모델이라는 전문가 리뷰를 공개했다. 전문가들은 사용자 편의성, 품질(독창성), 응답성, 개인화 등의 요소에서 살펴봤다. 이들은 "더 많은 데이터에 대해 훈련된 새로운 GPT-4 모델은 효용성이 더 클 것"으로 판단했다.

AI 기술은 마케팅 분야, 특히 콘텐츠 제작 분야에서 많은 작업을 자동화할 수 있는 잠재력을 가지고 있다. 그러나 감정, 공감, 창의성, 상식과 같은 인간의 고유한 능력을 완전히 복제할 수 있는 능력은 없다. AI 생성 프로세스의 시작과 끝에는 여전히 인간의 입력이 필요하다.

더욱이 AI는 모든 것을 바꾸거나 대체하는 만능키는 아니다. AI는 체계적이고 반복적인 작업을 자동화 하면서 제품과 프로세스를 개선한다. 또 더 나은 정보에 입각한 결정을 내릴 수 있도록 돕는다. 생성 AI 모델을 학습하면서 자체적으로 전문성을 확보해가는 과정이 그 무엇보다 중요하다.

머신 러닝으로 광범위한 데이터 분석을 제공하고 챗봇 및 지능형 에이전트를 통해 독자 및 내부 구성원과 소통하는 장면을 상정한다면 AI 생성 모델의 잠재력은 대단하다. 국내 언론사도 콘텐츠와 비즈니스를 견고하게 만드는 도구라는 인식을 바탕으로 적극적인 투자에 나서야 할 것이다.

생성 AI로 작성된 씨넷 기사를 지적하는 트윗
생성 AI로 작성된 씨넷 기사를 지적하는 트윗

인공지능, 돌아올 수 없는 강 건넜다

생성 AI 모델의 마케팅 활용 가능성과는 별개로 저널리즘 이슈도 커지고 있다. 테크 전문매체 씨넷(CNET)이 AI를 사용하여 작성한 기사는 논란에 불을 붙였다. 1월 11일 온라인 마케터로 유명한 가엘 브레튼(Gael Breton)이 관련 기사를 지목하는 트윗을 하면서 불거졌다.

그러나 실제 씨넷이 AI 기사를 제공한 시점은 이보다 앞선 지난해 11월 무렵으로 보인다. 씨넷은 그동안 관련 사실을 밝히지 않았기 때문에 해당 기사를 읽는 독자는 자동화 기술을 사용하여 생성된 것인지 알 수 없었다. AI가 작성한 모기지 금리 기사의 경우 CNET 머니(Money) 편집장이 작성한 것으로 나오지만 기자의 기사 리스트 페이지에는 게시되지 않는다.

독자가 자세히 들여다보지 않으면 기사 작성자가 인간인지, 기계인지 알 수 없는 것이다. [3] 기사 작성의 주체를 명확하게 구분하지 않는 것은 독자를 함정에 빠트린다. 독자의 질문에 응답의 의무도 없다. 누가 그 내용을 책임지는지도 명확하지 않다. 일부 구성원들은 클릭, 수익으로 무장한 AI 기사의 윤리적 문제를 비판하고 나섰다. 씨넷은 논란이 커지자 AI 기사 작성과 게시를 일단 중단했다.[4]

이러는 가운데 버즈피드(BuzzFeed) CEO 조나 페레티(Jonah Peretti)는 27일 직원들에게 보낸 메모에서 "챗GPT 제작자 OpenAI가 제공하는 AI 도구를 사용하여 콘텐츠를 강화하고 개인화 할 것"이라고 말했다. AI 기반 큐레이션(피드)을 넘어 AI 기반 생성(콘텐츠)으로 확장될 것이라는 전망도 덧붙였다. 향후 창의적 비즈니스 모델을 일궈내는 동력이 되건 아니건 이제 언론사에서 인공지능은 돌아올 수 없는 강을 건넜다고 할 만하다.

생성 AI 작성 기사 논란 확산 불가피

사실 AI가 만든 기사와 관련된 이슈는 최근의 일은 아니다. AP 통신은 2015년부터 기업의 수익보고서를 자동으로 작성했고 AI를 활용한 최초의 뉴스조직 가운데 하나임을 공표한 바 있다. 지금까지 AP의 AI 기사는 기자들의 단순반복 작업을 덜어준다는 점에서 정당성을 확보했다.

그런데 AP의 AI 기사는 이미 결정된 사실을 구조적으로 완성하는 형태지만 씨넷의 기사는 처음부터 끝까지 내용을 만들었다는 점이 다르다. 특히 씨넷의 기사는 모기업인 사모펀드 레드 벤처스(Red Ventures)의 욕망과 닿아 있다는 의문으로 혼란은 가중되고 있다.

구글은 지난해 검색 알고리즘에 최적화한 AI 생성 콘텐츠가 자사의 웹마스터 가이드 라인에 위배된다고 말했지만, 또 다른 관계자는 구글 검색 순위는 기사 생성 방식보다는 콘텐츠의 유용성에 중점을 둔다고 밝혔다. 이같은 구글의 모호한 입장은 언론사들에게 SEO에 안성맞춤인 생성 AI를 사용할 만하다는 인식을 심는다.

INMA는 최근 게시물에서 "챗GPT가 질문을 이해하는 방식은 순전히 통계적으로 학습하는 것인 만큼 출력물을 전적으로 신뢰하기는 어렵다"며 "저널리즘과 생성 AI 기사에 가장 큰 차이는 본질적으로 기사에 대한 감사(audit)를 할 수 없는 것"이라고 지적했다. 챗GPT의 뉴스룸 입성은 단지 시간 문제이지만 그 너머의 문제는 복잡할 것임을 시사한다.

챗GPT 테스트
챗GPT 테스트

언론사 제품 개발을 챗GPT에 의뢰하면

INMA는 뉴스 제품 개발에 챗GPT를 실험했다. 아이디어는 파이낸셜타임스(FT)가 기존 유료 뉴스 앱보다 저렴하게 구독할 수 있는 에디트(The Edit) 앱에서 영감을 얻었다. 일단 챗GPT를 FT 제품 관리자로 삼았다. 프롬프트는 속보와 탐사보도 선호도를 고려하고 지불의사 여부를 기준으로 독자층을 분류하는 연구 프로젝트를 검토케 했다. 이때 특정 주제에 집중하고 전문 용어를 사용하는 등 구체성이 중요하다.

챗GPT는 연령, 소득 및 교육수준 등 인구학적 데이터를 포함하는 설문조사 개발, 마케팅 기업과 협력으로 참여자 샘플 확보, 조사 후 청중 분류, 심층 인터뷰(포커스 그룹), 제품 모니터링 등 단계별로 응답을 내놨다. 이에 INMA는 설문조사 개발을 챗GPT에 명령했다. 챗GPT가 처음 응답했던 설문조사, 심층 인터뷰가 필요하는 내용에서 더 구체적인 요청을 한 것이다.

챗GPT는 제안된 프롬프트에 12개의 질문으로 구성된 설문조사안을 내놓았다. 이외에도 출처의 신뢰성에 대한 중요도 같은 문항을 포함시켰다. INMA는 독자의 뉴스 이용 경험에 대한 질문을 포함해 설문조사를 수정해달라고 요청했다. 실제 뉴스 소비를 하는 인간 중심의 관점과 기준을 가지도록 AI를 학습시키는 것이 중요하기 때문이다. 챗GPT는 뉴스를 읽는 개인적인 동기, 불편한 뉴스 읽기 경험 등에 대한 문항을 추가로 완료했다.

제품 관리자처럼 시나리오와 방향 내놓는다

INMA는 프롬프트에 뉴스 속보보다 심도 있는 뉴스를 중시하고 온라인 뉴스에 기꺼이 지불의사가 있는 독자를 대상으로 하는 제품을 제안해달라고 다시 요청했다. 챗GPT는 "내가 제안하는 제품은 '인사이트 뉴스(Insight News)'다. 인사이트 뉴스는 심층분석, 조사보도 및 롱폼 저널리즘을 우선하는 구독 기반 온라인 뉴스 플랫폼이다"라고 답했다. 또 심층보도 위주, 양보다 질, 광고 없는 페이지, 불만족시 환불 등의 가치 제안을 덧붙였다.

'인사이트 뉴스'라는 제품명 수정을 요청했다. 이때에도 구체적인 프롬프트 작성이 관건이다. 가령 신제품이 제공하는 콘텐츠 특성과 방향, 뉴스룸의 역할, 잠재 독자가 원하는 혜택, FT 브랜드와의 연결 등을 프롬프트에 반영한다. 챗GPT는 이미 출시된 FT 에디트 앱과 유사한 의미를 포함해 수십개의 제품을 응답했다. FT 인사이트, FT 딥 다이브(Deep Dive), FT 컨텍스트, FT 큐레이티드... 그리고 FT 에디트(Edits)까지.

FT 관련 팀이 참여하지 않은 상태에서 챗GPT로 제품 개발 과정을 테스트한 INMA 연구원은 "FT의 관점에서 챗GPT 응답을 끌어내도록 하는 설정이 중요하다"며 "챗GPT를 잘 사용하려면 역할극(Roll plyaing)에 탁월한 AI를 감안해야 한다"고 강조했다. 기계는 뉴스를 구독하지 않으므로 챗GPT 활용은 인간과의 실제 인터뷰를 위한 준비 과정인 셈이다. AI는 그 인터뷰 시나리오의 초안을 작성하고 테스트하고 나중에 요약하는 데 도움을 줄 수 있다.

권한과 책임 갖는 AI팀 꾸려야 한다

생성 AI 모델은 불안정한 위치에 있다. 의사결정의 편향, 인공지능 행동에 대한 책임감 결여, 자동화로 인한 일자리 감소의 잠재적 영향 등이 포함된다. 특히 법률이 AI를 규제하는 것이 더디기 때문에 생성 AI에서 발생하는 콘텐츠 역시 미완인 상태다. 가령 실재에서는 없지만 현실에 가까운 이미지와 영상을 오용하는 측면도 있다. 챗GPT가 정보 환경에 대한 신뢰를 약화시키고 사람들을 공적 담론에서 점점 더 동질적인 커뮤니티로 밀어내는 것을 보게 될 것이라는 우려도 팽배하다.

생성 인공지능을 규제하는 법이 느리기 때문에 해결되지 않은 몇 가지 법적 갈등 이슈도 있다. 여기에는 새로운 텍스트, 예술 또는 음악을 만드는 것이 AI 모델을 훈련시키는 데 사용되는 기존의 저작권 보호 자료를 침해하는지, AI가 생성한 콘텐츠의 저작권을 누가 소유할지, 명예를 훼손하거나 모욕적이거나 해를 끼치는 콘텐츠에 대해 책임을 질 수 있는지 등의 문제가 포함된다.

핵심은 저작권, 명예훼손죄 등과 관련돼 있다. 일단 보편적으로는 사람이 만든 저작물만 저작권을 인정한다. 유럽의회는 기계 생성 저작물에 대한 지적재산권에 관한 특정 법률을 검토 중이다. 여기에는 프롬프트를 만든 사용자뿐만 아니라 AI 모델의 엔지니어도 포함하는 것으로 알려진다. 다른 콘텐츠와 마찬가지로 AI가 접목된 제품의 결함으로 인한 피해가 발생한다면 뉴스조직도 그 책임에서 자유로울 수 없을 것이다.

언론사는 AI 윤리의 필요성을 인식하고, 책임을 갖는 AI팀을 구성해야 할 것이다. 더 명백해지는 것은 생성 AI의 확산으로 뉴스조직은 알고리즘 검토에 더 많은 시간을 할애해야 한다는 점이다. AI 윤리 원칙을 파악하고, 윤리적 고려 사항을 뉴스 생산 과정 더 나아가 서비스와 마케팅 전반에 통합하고, 진행 상황을 모니터링 하는 것이 중요하다. 그것은 바로 저널리즘의 신뢰와 연결돼 있는 문제이기도 하다.

  1. 1

    이 글은 INMA 유료 보고서 '뉴스 마케터를 위한 AI 및 챗GPT(ChatGPT) 가이드(AI Guide and ChatGPT Promptbook for News Marketers)'에서 일부를 발췌, 재구성했다.

  2. 2

    에드워드 드 보노의 '여섯 가지 생각 모자'

  3. 3

    독자가 바이라인 'CNET Money Staff'를 클릭하면 "이 기사는 자동화 기술을 사용하여 생성되었으며...우리 편집진의 편집자가 철저하게 편집하고 사실을 확인했다"는 문구를 볼 수 있는 정도다.

  4. 4

    1월 중순까지 생성 AI로 작성한 기사는 약 73건이다. https://futurism.com/the-byte/cnet-publishing-articles-by-ai