가디언 ‘보텀 업’ 방식 논의
하부그룹 AI 활용 시도→경영진 수렴
‘독자 이익·인력 대체 금지·사람 존중’
3대 원칙 수립… AI 도구 개발 잰걸음
ITN, 기존 언론 가이드라인 응용
‘편집의 독립성·편집국 감독’이 핵심
“콘텐츠 오류, AI 아닌 우리의 책임”
AI 생성물 ‘무비판적 수용’ 경계도
BBC, 보수적·체계적 접근
‘공익·인간의 창의성·투명성’ 최우선
블루룸 통해 기자들에 학습기회 제공
“실제 뉴스에 AI 사용 굉장히 제한적”
‘생성형 인공지능(AI)’의 등장 이후 언론계에도 변화의 바람이 불어닥쳤다. 특히 2022년 11월 등장한 ‘챗GPT(Chat GPT)’는 대중의 정보 취득 방식에도 많은 변화를 가져왔다. 챗GPT 등장 후 2년의 시간이 흐르는 동안 하루가 다르게 발전하는 생성형 AI의 진화를 보며 언론계에서는 ‘AI가 위기냐 기회냐’를 두고 논쟁이 있었다. 거대한 기술 변화의 흐름 앞에 한국 언론계도 AI 활용과 규제 문제에 관심을 쏟았다. 일부 언론사는 AI 준칙을 세우기도 했고, 일부는 AI 도구를 선보였다. 다만 아직 그 수가 많지 않아 한국 언론계 전반의 AI 관련 대응은 미미하다는 평가다.
그렇다면 AI에 관한 사회적 논의가 속도감 있게 이뤄진 영국의 ‘AI 저널리즘’ 현주소는 어떨까. 영국은 미국·중국 등과 함께 AI 분야 선도국으로 꼽힌다. 2021년 이미 ‘국가 AI 전략’을 세워 발표했고 올해 우리나라에서 열린 AI 정상회의도 지난해 영국에서 처음으로 시작됐다.
◆가디언의 ‘보텀 업’ AI 대응
영국은 주요 언론사들이 이미 AI에 관한 기초적인 논의를 마치고 AI 가이드라인 또는 활용 원칙을 세운 상황이다. 이제는 많은 영국 언론사가 이미 내부적으로 AI 도구를 개발해 실험하거나 도입하는 단계에 들어서고 있다.
200년 이상의 역사를 가진 영국 일간지 가디언에서는 조직 하부의 소규모 그룹들이 주축이 되는 ‘보텀 업(Bottom Up·상향식 논의 과정)’ 방식으로 AI에 관한 논의가 시작됐다. ‘편집혁신’과 ‘데이터 사이언스’ 등 일부 팀의 구성원들은 챗GPT 출현 이후 자발적으로 AI를 언론에 접목하려는 시도를 해봤다. 이를 기반으로 지도부에 AI 활용 필요성을 알리는 프레젠테이션을 실시했다. 경영진이 이들의 의견을 받아들인 뒤 지난해 AI 활용 원칙을 세우고 연구개발(R&D)·엔지니어링·제품 등 3개 팀을 구성해 각종 AI 도구 실험을 해나가는 등 일사천리로 AI 대응 전략을 실행에 옮기고 있다.
가디언의 AI 활용 원칙은 세 가지다. 첫 번째는 ‘독자의 이익을 위해서만 AI를 사용한다’는 것이고 두 번째는 ‘아무 생각 없이 단지 인력을 대체하기 위해 AI를 사용하지 않는다’는 것이다. 마지막은 ‘콘텐츠를 만들고 소유하는 사람을 존중한다’는 것이다.
가디언 내에서 AI 관련 움직임을 주도한 편집혁신팀장인 크리스 모런은 “작은 그룹들로 AI를 다루면서 좋았던 점은 ‘보텀 업’ 방식으로 이뤄졌다는 점”이라며 “고위 임원들이 ‘어떻게 할진 모르겠지만 그냥 AI를 써’라고 지시하는 통상적인 하향식 의사결정과는 달랐다”고 설명했다. 그러면서 “회사가 AI 관련 논의와 실험을 하는 사람들에게 충분한 시간을 주고 최대한 빨리 결과물을 내놓으라고 압박하지 않았다는 점이 자랑스럽다”고 덧붙였다.
이들 팀은 현재도 여러 생성형 AI 프로젝트를 진행하며 AI 도구를 개발하고 있다.
◆ITN ‘AI 아닌 인간의 책임’ 강조
영국 최대 민영방송 ITN은 1년 반 전부터 AI 관련 프로젝트들을 진행해오고 있다. 첫 단계는 가이드라인 수립이었다. ITN은 AI 가이드라인이 기존의 언론사 가이드라인과 동떨어진 것이 아니라고 판단했고 기존 가이드라인을 손보는 방식으로 AI 가이드라인을 만들었다.
ITN AI 가이드라인의 핵심은 편집의 독립성을 유지하는 것과 인간의 책임 명시다. ITN의 뉴스 배포 및 상업 혁신 이사인 타미 호프먼은 “뭔가가 잘못됐을 때 그건 AI의 책임이 아니라 우리의 책임이고 궁극적으로 인간이 자신들이 제작한 콘텐츠에 대한 책임을 져야만 한다는 걸 가이드라인에 명기했다”며 “그렇기 때문에 한 명이 혼자서 하려고 하지 말고 다른 사람들과 함께 과정을 살펴보는 게 중요하다는 내용도 넣었다”고 말했다.
검증의 중요성도 가이드라인에 명시됐다. AI가 빈번하게 사용되기 시작하며 언론인들 역시 사실이 아닌 것에 노출될 위험이 커졌기 때문이다. 비슷한 맥락에서 AI 생성물에 담긴 편견이나 차별을 정정해야 한다는 의무 역시 담겼다.
호프먼은 “우리는 콘텐츠 생산자들이 ‘기계가 괜찮다고 했으니까 더이상 확인할 필요가 없다’고 생각하는 ‘학습된 무력감’을 느끼길 원하지 않는다”며 AI 생성물을 무비판적으로 받아들이는 것을 경계해야 한다고 강조했다. 그러면서 “AI가 어떻게 작동하는지 알아야 하고 AI가 예측적이고 데이터에 기반을 두고 있기 때문에 편향된 결과물을 만들어낼 수 있다는 점을 편집국은 물론 기술 담당자, 마케팅 담당자 등도 모두 알고 있는 것이 중요하다”고 말했다.
◆보수적이되 체계적으로 접근하는 BBC
영국의 공영방송인 BBC는 AI 활용에 각별히 조심스럽고 보수적인 접근을 보여주고 있다. 생성형 AI 출범 이후에도 오랜 기간 구성원들에게 AI 사용 자체를 금지하며 신중한 태도를 보여온 BBC는 지난해 10월 생성형 AI 기술과 관련해 3가지 원칙을 세웠다. 3원칙은 ‘공익 최우선’, ‘인간의 재능과 창의성 우선시’, ‘콘텐츠 제작에 AI를 활용할 경우 언제나 시청자에게 개방적이고 투명할 것’이다.
지난 2월에는 ‘AI의 활용(The use of AI)’이라는 가이드라인을 만들었다. 구성원들의 책임감 있는 AI 사용을 위해 ‘책임 있는 AI(Responsible AI)’라는 별도의 팀을 꾸려 AI 관련 논의를 주도하게끔 했고 최근 들어서는 AI와 관련한 구성원 교육 프로그램도 선보였다. 일종의 기술 관련 교육센터인 ‘BBC 블루룸’을 통해 기자들에게 AI 관련 학습 기회도 제공한다.
이처럼 체계적이고 철저하게 AI 시대에 대비하는 것과 별개로 AI 사용에 대해선 여전히 매우 신중한 분위기다. 이윤녕 BBC 선임기자는 “AI 원칙이 만들어졌지만 실제로는 여전히 AI 사용이 굉장히 제한적이다. 일반적인 수준에서 기사를 쓴다거나 할 때 AI를 사용할 수는 없다”며 “일종의 파일럿처럼 쓰고 있는 상황”이라고 설명했다. 이어 “특히 뉴스 콘텐츠에는 쓰고 있지 않다. 예외적으로 허용되는 경우는 뉴스 콘텐츠 자체가 AI에 대해 다루고 있을 때”라며 “꼭 사용해야 한다면 이런 이유로 이렇게 쓸 거라는 걸 감독·허가를 받아야 한다”라고 말했다.
AI 원칙을 수립했고 활발하게 관련 논의가 진행 중인 언론사라고 할지라도 이처럼 뉴스 제작에는 직접적으로 AI를 활용하는 것을 금지하는 곳이 많다. ITN 역시 과정상 효율성을 높이거나 많은 양의 자료들을 처리하는 등의 경우에만 AI를 활용하고 뉴스에 직접적으로 AI 생성물을 이용하지는 못하도록 규정하고 있다. 언론사가 AI 시대에 적극 대비해야 하는 것과 별개로 사실과 신뢰가 매우 중요한 뉴스 콘텐츠의 특성상 아직은 뉴스 제작에 직접적으로 AI를 이용하는 것은 신중해야 한다는 인식이 공유되는 양상이다.
[ⓒ 세계일보 & Segye.com, 무단전재 및 재배포 금지]