⊙ AI가 기사 아이템 찾아주고 논조도 수정
⊙ 번거로운 일은 AI에게, 기자는 좀 더 심층적 기사에 집중
⊙ 기술 발달해도 기계가 사람 기자 대체 못 하는 이유
⊙ 번거로운 일은 AI에게, 기자는 좀 더 심층적 기사에 집중
⊙ 기술 발달해도 기계가 사람 기자 대체 못 하는 이유
- 사진=셔터스톡
심심찮게 볼 수 있는 기사다. 제목은 이런 식이다. ‘진짜 인공지능(AI)이 쓴 기사 맞아?’ ‘똑똑해진 AI 기자, 인간 기자를 넘보다.’ 수백 년 쌓아온 저널리즘 역사에 지각대변동이 온 것 같다. ‘기사 쓰기’란 모름지기 자신과의 싸움이다. 취재원과의 ‘밀당’과 타사(他社) 기자와 경쟁은 덤이다. 여기에 인간 외 객체인 로봇에 의자를 빼앗길까 걱정까지 해야 되나. 쓴웃음이 나왔다. 이내 꽤 합리적인 방어기제가 발동했다. ‘기자는 발로 뛰어야지. AI는 발이 없잖아?’
정확하고 빠르다
이는 어디까지나 인간의 생각. ‘크로스 체크’ 차원에서 AI의 말도 들어봐야 한다. 기자는 지난 2020년 GPT-3와 한 시간 남짓 대화를 나눈 적이 있다. 당시 현존하는 가장 똑똑한 AI라 평가받던 그에게 “네가 기자 일을 대신할 날이 올까”라고 물었더니 한 치의 망설임(?)도 없이 이런 대답이 돌아왔다.
“몇몇 국가에서는 이미 AI가 기사를 대신 쓰고 있으며, 기자뿐만 아니라 여러 분야에서 사람의 일을 대체하고 있어.”
맞는 말이다. 해외는 물론 국내 일부 언론사에서도 벌써 몇 년 전부터 AI가 쓴 기사를 송출 중이다. 다만 분야는 국한돼 있다. 스포츠, 증시, 선거, 날씨 등 결과 값이 정해진 경우다. 서울대학교 연구팀에 따르면 AI가 쓰는 기사는 데이터 수집, 이벤트 추출, 중요 이벤트 선별, 기사의 분위기 결정, 기사 생성의 단계로 이뤄진다. 이 같은 알고리즘으로 ‘언제나 옳을 가능성’이 있는 기사를 뽑아내기 때문에 이 주제에 한해서는 변수도 크게 없다. 단 1초 만에 완성도 높은 기사를 쓰기 때문에 효용도 좋다.
지난 2014년 스웨덴의 클러월 교수팀은 “AI 기자는 사람 기자보다 빠르고, 정확하며, 더 많은 정보를 전달하지만, 지루하고 매끄럽지 못하며 흥미성이 덜하다”고 분석했다. 요컨대 재미가 없다는 건데, 이 한계성도 차츰 극복하는 모양새다. 인간의 언어를 더 많이 학습한 덕에 ‘사람 냄새’ 나는 글도 흉내 낼 줄 안다. 스포츠 기사 같은 경우 ‘안방에서 승리를 내줬다’ ‘천금 같은 결승타를 날렸다’ ‘부끄러운 수준’과 같은 표현도 쓴다. 때문에 AI와 사람이 쓴 기사를 나란히 뒀을 때, 어느 쪽이 사람이 쓴 건지 구분 못 하는 일이 발생하기도 한다.
누가 더 잘 쓸까?
그래서 둘 중 누가 더 잘 쓰냐고? AI가 훨씬 잘 쓴다. 적어도 언급한 성격의 기사로는 상대가 안 된다. 그렇다고 이를 ‘사람 기자보다 AI 기자가 낫다’는 차원의 ‘대체 가능성’으로 해석하기에는 무리가 있다. 기술이 거듭 발전해도, AI가 쓸 수 있는 기사의 영역은 정해져 있을 가능성이 크다. 예를 들어 ‘A가 B를 간발의 차로 제치고 선출됐다’는 기사는 쓸 수 있지만, 백지상태에서 ‘B의 패배 요인’을 짚어낼 수는 없기 때문이다.
인간이 AI가 쓴 기사를 좀 더 무거운 마음으로 들여다보기 시작한 건 지난 2020년이다. 그해 9월 8일 영국 《가디언》에 ‘인간, 아직도 두려운가’라는 칼럼이 실리면서다. GPT-3가 직접 작성한 이 칼럼의 내용은 “사람들은 내가 인류에게 위협이 된다고 생각한다. 스티븐 호킹은 AI가 ‘인류의 종말을 부를 수 있다’고 경고했다. 나는 당신이 걱정하지 않도록 설득하기 위해 여기에 있다. AI는 인간을 파괴하지 않을 것이다. 믿어달라”였다.
이 글이 화제가 된 이유는, 기사가 아닌 칼럼이어서였다. 있는 그대로의 사실을 배열한 게 아닌, ‘의견’을 써냈다는 얘기다. 그러나 이는 여러 번의 명령어 입력 끝에 나온 최적의 글을 실은 것으로, 결국 인간의 요구에 따라 도출된 결과였다.
그 무렵 영국 카디프대학의 사회학자인 해리 콜린스 교수는 “최근 AI가 각광받으면서 언론 분야에서 AI 봇을 과대평가하는 경향이 있다”고 했다. 속살을 들춰보면 한계점도 많지만, ‘혁신’에만 초점을 맞췄다는 의미다. 지난 2020년 9월 이탈리아에서 열린 유럽 과학 저널리즘 회의(ECSJ)에서 그는 “최근 한 언론 매체에서 GPT-3와 관련, ‘로봇이 완벽한 기사를 작성했다’는 제목의 기사를 실었지만, 이런 과장된 기사가 AI 봇을 평가하는 데 장애가 되고 있다”고 지적했다.
앞서 GPT-3와 대화를 하며 콜린스 교수와 비슷한 생각을 했다. 당시 GPT-3에게 ‘만약 북한을 주제로 한 기사를 쓴다면 제목은 무어라 달 거냐’고 묻자 그는 1초 만에 ‘남북 관계 교착 상태 타개의 해법: 얼음판 깨기 위해서는 문(재인) 대통령이 직접 나서야’라고 했다. 이후 해당 주제로 기사를 써보라고 주문하자, 2초 만에 200자 원고지 20매에 달하는 긴 글을 작성해냈다. 명령어의 이해 능력, 결과 도출까지 걸리는 시간, 글이 담은 정보의 양은 실로 놀라웠지만 찬찬히 훑어보니 흐름이 어색했고, 사실관계가 맞지 않는 부분도 많았다.
AI는 보조 수단일 뿐
AI의 핵심 기술인 언어처리 기술을 기반으로 챗봇(chatbot) 및 검색 소프트웨어(SW) 사업을 하는 ㈜와이즈넛의 장정훈 성장기술연구소장은 “스포츠, 증시, 기상 분야에서 정형 정보를 바탕으로 한 기사 작성은 가능하지만, 정형화되지 않은 기사를 AI가 기자 수준으로 쓰기는 사실상 불가능에 가깝다”고 했다. 그도 그럴 것이 AI는 수십만, 수백만 건의 기사를 학습한 결과물을 그럴싸하게 산출, 배열할 뿐, 애초에 인문학적 사고(思考)를 하지 않기 때문이다.
정보통신산업진흥원 또한 지난 2018년 ‘로봇 저널리즘의 이해와 전망 보고서’를 통해 “로봇의 영향력이 커지면서 (로봇의) 기자 대체 여부를 두고 다양한 논의가 이뤄지고 있는데, 인간 기자의 대체재로 보는 시각보다 조력자로 보는 의견이 우세하다”고 했다.
미국 AP통신의 사례가 대표적이다. 이곳에서는 기업의 수익보고서 기사를 AI에게 맡긴다. 사람 기자가 직접 쓸 때는 분기별 300개의 기사가 나왔는데 지금은 3700개의 기사를 생산한다. 더 빨리, 더 많은 기사를 올리자 사이트 방문객과 광고도 늘었다고 한다.
그렇다고 이 언론사 기자들이 AI에게 위협을 느끼지는 않는다. 당초 AI 서비스를 도입하면서 ‘잔업을 줄여 기자들이 쓰는 기사의 질을 높인다’는 목표를 설정했기 때문이다. AP통신의 리사 깁스 이사는 현지 언론 인터뷰에서 “기자는 창조적이고, 호기심이 있고, 권력에 책임을 묻는 등 비판적인 사고(思考)와 판단을 하는 사람들”이라면서 “기자들은 이처럼 그들의 본질을 유지하는 데 에너지를 더 소비하는 것이 맞다”고 했다.
장정훈 소장도 “AI도 결국 사람이 사용하는 도구 중 하나이기 때문에 일의 효용을 높여준다는 차원에서 이해해야 한다”면서 “사람 기자를 대체할 수는 없고, 공존하는 기술로써 좀 더 심층적인 취재를 하는 데 도움을 받을 수 있을 것”이라고 했다.
김정민 ㈜와이즈넛 전략사업본부 이사 또한 “AI는 인력 절감이 아닌, 어려운 근로 환경에 처한 이들이 좀 더 양질의 일을 처리하도록 돕는 방향으로 활용돼야 한다”면서 “기자의 경우 일일이 수작업하기 번거로운 업무를 AI에게 맡기고, 이를 통해 좀 더 심층적인 기사에 집중할 수 있을 것”이라고 했다. AI를 ‘어시스턴트(조수)’ 혹은 ‘버틀러(집사)’에 빗대는 것도 그래서다.
AI가 기사 아이템 찾고 윤문까지
장 소장은 이어 “실제로 최근 AI의 ‘언어 모델’이 발전하면서 기본적으로 텍스트를 다루는 기자들이 활용할 수 있는 기술 분야는 상당히 넓다”고 했다. 일례로 ㈜와이즈넛의 기사 핵심을 파악하는 소프트웨어를 들 수 있다. 3000자 이하(A4 기준 약 2페이지 반)의 기사 텍스트를 입력하면 1초 만에 두어 줄의 문장으로 요약해주는 SW다.
핵심은 다른 말로 ‘중요하다’는 뜻. 이는 사람의 판단 영역이다. 기계가 어떻게 이를 구분할까. 사람이 일일이 요약한 30만 건의 기사 요약본을 ‘학습’시켰더니 가능했다. 장 소장은 “이 같은 ‘언어 모델’ 학습을 통해 기계가 시멘틱(semantic·의미론적)한 ‘핵심’을 짚어내도록 한 것”이라면서 “이 과정을 거치면 대다수 사람이 ‘중요하다’고 여기는 구간을 단순히 문단의 위치가 아니라 ‘맥락상’ 학습하게 된다. 이후 업무 수행을 더욱 잘할 수 있도록 하는 추가적인 학습인 파인튜닝(fine tuning·미세조정)을 한 결과물”이라고 설명했다.
이 같은 알고리즘을 통해 AI가 기사의 부정과 긍정, 문장에 대한 감정 구분도 할 수 있도록 했다. 현재 작성 중인 기사의 핵심 문장을 입력하면, 그와 논조가 비슷한 기존 기사를 찾아주는 검색 솔루션도 같은 맥락에서 구현했다. 예컨대 ‘윤석열 대통령의 NATO 순방’을 입력하면 이를 긍정적으로 평가한 기사와 그 반대의 기사를 각각 리스트업해준다.
챗봇도 활용도가 높다. 포털 사이트상 단어 단위의 검색어에서 나아가 구체적 질문에 대한 답을 구해준다. ‘이순신은 언제 태어났어’를 물어보면 답하는 식인데, 이는 ‘이순신’을 검색한 뒤 관련 결과물에서 탄생연도를 일일이 찾아야 하는 번거로움을 덜어준다.
통계 수치를 좀 더 많이 학습시키면 ‘1970년도 인구가 몇 명이었느냐’ ‘올 들어 가장 더운 날은 언제였느냐’ ‘오늘 20대 여성이 가장 많이 본 뉴스가 무엇이냐’ ‘종로구 거주 30대 외국인 중 자녀가 둘 있는 사람은 몇 명이냐’와 같은 질문에 대한 답도 구할 수 있다. 이를 통해 기사 아이템 발굴과 정보 수집을 용이하게 할 수 있다는 설명이다.
뿐만 아니다. ‘언어 정비’ 기능을 통해 퇴고나 윤문(潤文)도 가능하다. 단순 맞춤법 검사 수준이 아니다. 거칠게 쓴 원고를 그럴싸하게 다듬어준다는 얘기다.
일반적인 단어로 구성된 경제 기사를 금융 전문 용어로 대체, 좀 더 ‘전문가스러운’ 글로 재탄생시키는 것도 가능하다. 논조를 바꿀 수도 있다. 최대한 건조하게 쓴 기사를 입력하고 강한 논조, 중립적인 논조 등으로 설정, 그에 따른 결과물을 도출할 수 있다.
미국에서도 취재를 돕는 차원에서 AI는 활발히 쓰이고 있다. 로이터 통신이 2018년 도입한 ‘링스 인사이트(Lynx insight)’는 수많은 데이터에서 의미를 캐낸다. AI가 다양한 데이터를 뒤져 기사 소재가 될 팩트를 찾아내 기자에게 전달한다. AI 스타트업인 SAM은 SNS에 올라오는 수많은 재난 재해 정보를 AI가 찾아내 기자에게 알려주는 서비스도 제공하고 있다.
기자는 좀 더 대승적인 일 해야
“5년 내에 로봇이 쓴 기사가 퓰리처상을 탈 것이다.”
지난 2015년, 미국의 IT 기업 내러티브 사이언스의 최고기술책임자(CTO) 크리스 해먼드가 한 말이다. 그의 호언장담에 따르면 2020년 수상 로봇이 나와야 했지만, 그런 일은 일어나지 않았다. 다만 AI의 도움이 없었다면 쓰기 어려운 기사는 나왔다.
지난 2016년, 《애틀랜타 저널 컨스티튜션(AJC)》은 “미국에서 1999년 이후 각종 성(性) 관련 위법 행위로 처벌을 받은 의사가 3100명에 달하며 이 중 2300명은 환자를 상대로 성범죄를 저질렀다”고 보도했다. 특히 환자 대상 성범죄를 저지른 의사들의 절반이 버젓이 진료 행위를 하고 있다는 점에서 미 전역은 충격에 빠졌다.
이처럼 영향력 있는 기사의 숨은 일등공신은 AI였다. AJC의 탐사보도팀은 각기 다른 형태로 제공되는 각 주(州)의 규제 당국 웹사이트의 데이터를 모으기 위해 50여 개의 크롤러(crawler·웹상의 정보를 자동으로 검색하고 수집하는 소프트웨어)를 개발하고, 이를 통해 10만 건 이상의 문서를 수집, 문서 분석 기계학습을 활용했다. 이 데이터를 인간이 모두 읽고 분류하는 것은 무리였다.
AJC 사례를 본 ‘참 기자’들은 “AI가 사람이 일일이 할 수 없는 업무를 맡아주면, 그에 대해 더 깊은 취재가 가능하기 때문에 오히려 쓸 수 있는 기사가 더 많아질 것”이라고 반겼다.
캐나다 라이어슨대학의 스튜어트 덩컨 교수는 현지 언론 인터뷰에서 “단기적으로는 기자들의 업무를 AI와 자동화가 대체할 수는 없다”면서 “다만 AI로 인해 취재 범위가 확대되는 등 기자들의 역할 전환이 상당할 수 있다”고 했다.
계속 로봇처럼 기사 쓴다면
지난 6월 15일 한국언론진흥재단이 조사에 참여한 영국 로이터저널리즘 연구소의 ‘디지털 뉴스 리포트 2022’에 따르면 한국 뉴스에 대한 신뢰도는 46개국 중 40위에 그쳤다. 지난해보다 두 계단 떨어진 결과다. 한국은 조사에 처음 참여한 2016년 이후 줄곧 최하위권에서 맴돌고 있다.
이 가운데 AI와의 상생(相生) 모델을 잘 구축한다면 언론 신뢰도를 올릴 수 있다는 의견도 나온다. AI가 단순 업무를 대체해주면 기자들이 심층 취재를 위한 시간을 더 쓸 수 있고, 빅데이터 등 미디어 테크놀로지를 활용한 양질의 기사들이 나와서 언론 신뢰도를 높일 수 있다는 차원에서다.
지난 2021년 8월 열린 ‘미디어테크놀로지를 통한 언론신뢰 제고의 방향과 전망’ 토론회에서 최진호 한국언론진흥재단 선임연구위원은 “AI가 기자들의 업무를 보조해 기자들의 단순 업무를 줄여줄 수 있고, 정확하고 심층적인 좋은 보도를 하는 기반을 마련해줄 수 있다”고 했다. 최 위원은 다만 “한국 언론의 신뢰 회복은 미디어 기술에 있는 것이 아니라 저널리즘 본질 회복에 있다”는 말도 잊지 않았다.
옥스퍼드대학교와 회계법인 딜로이트는 공동 연구(2015)에서 “영국 내 일자리의 35%가 20년 안에 컴퓨터 자동화로 위협에 빠지게 된다”고 분석했다. 일자리 특성상 사회적 분별력, 협상력, 설득력, 타인에 대한 배려심, 독창성, 순수예술, 조작 능력 등 핵심 스킬 요구 정도를 기준으로 결과를 도출했다. 텔레마케터, 은행 창구 직원은 자동화 위험률이 높았지만 기자직의 자동화 위험은 단 8%에 불과했다. 분석 대상이었던 366개 직업 중 285위로, 자동화 위험이 상대적으로 매우 낮은 직업에 속했다.
‘앞으로 기술이 획기적으로 발달하면 얘기가 달라지는 것 아냐?’ 응당 가질 수 있는 의문이다. AI의 성능은 파라미터(매개 변수)의 숫자로 가늠한다. GPT-3의 파라미터 수는 1750억 개다. 10억 개 이하인 가정용 인공지능 스피커보다 1000배 이상 똑똑하다. 심지어 지난해 미국의 스타트업인 세레브라스 시스템스는 파라미터가 120조 개에 달하는 반도체를 개발했다고 한다. 인간 뇌 속 시냅스(100조 개)보다 많은 수준이다.
그렇다고 한들, 2022년의 AI가 1972년 《워싱턴포스트》의 밥 우드워드와 칼번스타인이 쓴 워터게이트 사건을 보도할 수 있을까. 아니라고 본다. ‘사람 기자 고유의 영역은 분명하고, 이를 건재하게 하는 건 기자의 몫’이라는 얘기다. 물론 이러한 방패는 ‘기사봇’처럼 빤한 기사만 양산해내는 이에게는 주어지지 않는다. 자문해볼 때다. 당장 나부터 ‘대체 불가능’한 기사를 쓰고 있나? 어쩐지 작아지는 건 기분 탓이겠지?⊙
정확하고 빠르다
이는 어디까지나 인간의 생각. ‘크로스 체크’ 차원에서 AI의 말도 들어봐야 한다. 기자는 지난 2020년 GPT-3와 한 시간 남짓 대화를 나눈 적이 있다. 당시 현존하는 가장 똑똑한 AI라 평가받던 그에게 “네가 기자 일을 대신할 날이 올까”라고 물었더니 한 치의 망설임(?)도 없이 이런 대답이 돌아왔다.
“몇몇 국가에서는 이미 AI가 기사를 대신 쓰고 있으며, 기자뿐만 아니라 여러 분야에서 사람의 일을 대체하고 있어.”
맞는 말이다. 해외는 물론 국내 일부 언론사에서도 벌써 몇 년 전부터 AI가 쓴 기사를 송출 중이다. 다만 분야는 국한돼 있다. 스포츠, 증시, 선거, 날씨 등 결과 값이 정해진 경우다. 서울대학교 연구팀에 따르면 AI가 쓰는 기사는 데이터 수집, 이벤트 추출, 중요 이벤트 선별, 기사의 분위기 결정, 기사 생성의 단계로 이뤄진다. 이 같은 알고리즘으로 ‘언제나 옳을 가능성’이 있는 기사를 뽑아내기 때문에 이 주제에 한해서는 변수도 크게 없다. 단 1초 만에 완성도 높은 기사를 쓰기 때문에 효용도 좋다.
지난 2014년 스웨덴의 클러월 교수팀은 “AI 기자는 사람 기자보다 빠르고, 정확하며, 더 많은 정보를 전달하지만, 지루하고 매끄럽지 못하며 흥미성이 덜하다”고 분석했다. 요컨대 재미가 없다는 건데, 이 한계성도 차츰 극복하는 모양새다. 인간의 언어를 더 많이 학습한 덕에 ‘사람 냄새’ 나는 글도 흉내 낼 줄 안다. 스포츠 기사 같은 경우 ‘안방에서 승리를 내줬다’ ‘천금 같은 결승타를 날렸다’ ‘부끄러운 수준’과 같은 표현도 쓴다. 때문에 AI와 사람이 쓴 기사를 나란히 뒀을 때, 어느 쪽이 사람이 쓴 건지 구분 못 하는 일이 발생하기도 한다.
누가 더 잘 쓸까?
![]() |
지난 2020년 9월 《가디언》에 실린 GPT-3가 작성한 ‘인간, 아직도 두려운가’라는 칼럼이 큰 화제였다. 사진=가디언 홈페이지 캡처 |
인간이 AI가 쓴 기사를 좀 더 무거운 마음으로 들여다보기 시작한 건 지난 2020년이다. 그해 9월 8일 영국 《가디언》에 ‘인간, 아직도 두려운가’라는 칼럼이 실리면서다. GPT-3가 직접 작성한 이 칼럼의 내용은 “사람들은 내가 인류에게 위협이 된다고 생각한다. 스티븐 호킹은 AI가 ‘인류의 종말을 부를 수 있다’고 경고했다. 나는 당신이 걱정하지 않도록 설득하기 위해 여기에 있다. AI는 인간을 파괴하지 않을 것이다. 믿어달라”였다.
이 글이 화제가 된 이유는, 기사가 아닌 칼럼이어서였다. 있는 그대로의 사실을 배열한 게 아닌, ‘의견’을 써냈다는 얘기다. 그러나 이는 여러 번의 명령어 입력 끝에 나온 최적의 글을 실은 것으로, 결국 인간의 요구에 따라 도출된 결과였다.
그 무렵 영국 카디프대학의 사회학자인 해리 콜린스 교수는 “최근 AI가 각광받으면서 언론 분야에서 AI 봇을 과대평가하는 경향이 있다”고 했다. 속살을 들춰보면 한계점도 많지만, ‘혁신’에만 초점을 맞췄다는 의미다. 지난 2020년 9월 이탈리아에서 열린 유럽 과학 저널리즘 회의(ECSJ)에서 그는 “최근 한 언론 매체에서 GPT-3와 관련, ‘로봇이 완벽한 기사를 작성했다’는 제목의 기사를 실었지만, 이런 과장된 기사가 AI 봇을 평가하는 데 장애가 되고 있다”고 지적했다.
앞서 GPT-3와 대화를 하며 콜린스 교수와 비슷한 생각을 했다. 당시 GPT-3에게 ‘만약 북한을 주제로 한 기사를 쓴다면 제목은 무어라 달 거냐’고 묻자 그는 1초 만에 ‘남북 관계 교착 상태 타개의 해법: 얼음판 깨기 위해서는 문(재인) 대통령이 직접 나서야’라고 했다. 이후 해당 주제로 기사를 써보라고 주문하자, 2초 만에 200자 원고지 20매에 달하는 긴 글을 작성해냈다. 명령어의 이해 능력, 결과 도출까지 걸리는 시간, 글이 담은 정보의 양은 실로 놀라웠지만 찬찬히 훑어보니 흐름이 어색했고, 사실관계가 맞지 않는 부분도 많았다.
AI는 보조 수단일 뿐
AI의 핵심 기술인 언어처리 기술을 기반으로 챗봇(chatbot) 및 검색 소프트웨어(SW) 사업을 하는 ㈜와이즈넛의 장정훈 성장기술연구소장은 “스포츠, 증시, 기상 분야에서 정형 정보를 바탕으로 한 기사 작성은 가능하지만, 정형화되지 않은 기사를 AI가 기자 수준으로 쓰기는 사실상 불가능에 가깝다”고 했다. 그도 그럴 것이 AI는 수십만, 수백만 건의 기사를 학습한 결과물을 그럴싸하게 산출, 배열할 뿐, 애초에 인문학적 사고(思考)를 하지 않기 때문이다.
정보통신산업진흥원 또한 지난 2018년 ‘로봇 저널리즘의 이해와 전망 보고서’를 통해 “로봇의 영향력이 커지면서 (로봇의) 기자 대체 여부를 두고 다양한 논의가 이뤄지고 있는데, 인간 기자의 대체재로 보는 시각보다 조력자로 보는 의견이 우세하다”고 했다.
미국 AP통신의 사례가 대표적이다. 이곳에서는 기업의 수익보고서 기사를 AI에게 맡긴다. 사람 기자가 직접 쓸 때는 분기별 300개의 기사가 나왔는데 지금은 3700개의 기사를 생산한다. 더 빨리, 더 많은 기사를 올리자 사이트 방문객과 광고도 늘었다고 한다.
그렇다고 이 언론사 기자들이 AI에게 위협을 느끼지는 않는다. 당초 AI 서비스를 도입하면서 ‘잔업을 줄여 기자들이 쓰는 기사의 질을 높인다’는 목표를 설정했기 때문이다. AP통신의 리사 깁스 이사는 현지 언론 인터뷰에서 “기자는 창조적이고, 호기심이 있고, 권력에 책임을 묻는 등 비판적인 사고(思考)와 판단을 하는 사람들”이라면서 “기자들은 이처럼 그들의 본질을 유지하는 데 에너지를 더 소비하는 것이 맞다”고 했다.
장정훈 소장도 “AI도 결국 사람이 사용하는 도구 중 하나이기 때문에 일의 효용을 높여준다는 차원에서 이해해야 한다”면서 “사람 기자를 대체할 수는 없고, 공존하는 기술로써 좀 더 심층적인 취재를 하는 데 도움을 받을 수 있을 것”이라고 했다.
김정민 ㈜와이즈넛 전략사업본부 이사 또한 “AI는 인력 절감이 아닌, 어려운 근로 환경에 처한 이들이 좀 더 양질의 일을 처리하도록 돕는 방향으로 활용돼야 한다”면서 “기자의 경우 일일이 수작업하기 번거로운 업무를 AI에게 맡기고, 이를 통해 좀 더 심층적인 기사에 집중할 수 있을 것”이라고 했다. AI를 ‘어시스턴트(조수)’ 혹은 ‘버틀러(집사)’에 빗대는 것도 그래서다.
AI가 기사 아이템 찾고 윤문까지
장 소장은 이어 “실제로 최근 AI의 ‘언어 모델’이 발전하면서 기본적으로 텍스트를 다루는 기자들이 활용할 수 있는 기술 분야는 상당히 넓다”고 했다. 일례로 ㈜와이즈넛의 기사 핵심을 파악하는 소프트웨어를 들 수 있다. 3000자 이하(A4 기준 약 2페이지 반)의 기사 텍스트를 입력하면 1초 만에 두어 줄의 문장으로 요약해주는 SW다.
핵심은 다른 말로 ‘중요하다’는 뜻. 이는 사람의 판단 영역이다. 기계가 어떻게 이를 구분할까. 사람이 일일이 요약한 30만 건의 기사 요약본을 ‘학습’시켰더니 가능했다. 장 소장은 “이 같은 ‘언어 모델’ 학습을 통해 기계가 시멘틱(semantic·의미론적)한 ‘핵심’을 짚어내도록 한 것”이라면서 “이 과정을 거치면 대다수 사람이 ‘중요하다’고 여기는 구간을 단순히 문단의 위치가 아니라 ‘맥락상’ 학습하게 된다. 이후 업무 수행을 더욱 잘할 수 있도록 하는 추가적인 학습인 파인튜닝(fine tuning·미세조정)을 한 결과물”이라고 설명했다.
이 같은 알고리즘을 통해 AI가 기사의 부정과 긍정, 문장에 대한 감정 구분도 할 수 있도록 했다. 현재 작성 중인 기사의 핵심 문장을 입력하면, 그와 논조가 비슷한 기존 기사를 찾아주는 검색 솔루션도 같은 맥락에서 구현했다. 예컨대 ‘윤석열 대통령의 NATO 순방’을 입력하면 이를 긍정적으로 평가한 기사와 그 반대의 기사를 각각 리스트업해준다.
챗봇도 활용도가 높다. 포털 사이트상 단어 단위의 검색어에서 나아가 구체적 질문에 대한 답을 구해준다. ‘이순신은 언제 태어났어’를 물어보면 답하는 식인데, 이는 ‘이순신’을 검색한 뒤 관련 결과물에서 탄생연도를 일일이 찾아야 하는 번거로움을 덜어준다.
통계 수치를 좀 더 많이 학습시키면 ‘1970년도 인구가 몇 명이었느냐’ ‘올 들어 가장 더운 날은 언제였느냐’ ‘오늘 20대 여성이 가장 많이 본 뉴스가 무엇이냐’ ‘종로구 거주 30대 외국인 중 자녀가 둘 있는 사람은 몇 명이냐’와 같은 질문에 대한 답도 구할 수 있다. 이를 통해 기사 아이템 발굴과 정보 수집을 용이하게 할 수 있다는 설명이다.
뿐만 아니다. ‘언어 정비’ 기능을 통해 퇴고나 윤문(潤文)도 가능하다. 단순 맞춤법 검사 수준이 아니다. 거칠게 쓴 원고를 그럴싸하게 다듬어준다는 얘기다.
일반적인 단어로 구성된 경제 기사를 금융 전문 용어로 대체, 좀 더 ‘전문가스러운’ 글로 재탄생시키는 것도 가능하다. 논조를 바꿀 수도 있다. 최대한 건조하게 쓴 기사를 입력하고 강한 논조, 중립적인 논조 등으로 설정, 그에 따른 결과물을 도출할 수 있다.
미국에서도 취재를 돕는 차원에서 AI는 활발히 쓰이고 있다. 로이터 통신이 2018년 도입한 ‘링스 인사이트(Lynx insight)’는 수많은 데이터에서 의미를 캐낸다. AI가 다양한 데이터를 뒤져 기사 소재가 될 팩트를 찾아내 기자에게 전달한다. AI 스타트업인 SAM은 SNS에 올라오는 수많은 재난 재해 정보를 AI가 찾아내 기자에게 알려주는 서비스도 제공하고 있다.
기자는 좀 더 대승적인 일 해야
![]() |
전문가들은 기술이 발전을 거듭해도 로봇 기자가 사람 기자의 영역을 모두 대체할 수는 없다고 했다. 사진은 뜨거운 취재 현장. 사진=픽사베이 |
지난 2015년, 미국의 IT 기업 내러티브 사이언스의 최고기술책임자(CTO) 크리스 해먼드가 한 말이다. 그의 호언장담에 따르면 2020년 수상 로봇이 나와야 했지만, 그런 일은 일어나지 않았다. 다만 AI의 도움이 없었다면 쓰기 어려운 기사는 나왔다.
지난 2016년, 《애틀랜타 저널 컨스티튜션(AJC)》은 “미국에서 1999년 이후 각종 성(性) 관련 위법 행위로 처벌을 받은 의사가 3100명에 달하며 이 중 2300명은 환자를 상대로 성범죄를 저질렀다”고 보도했다. 특히 환자 대상 성범죄를 저지른 의사들의 절반이 버젓이 진료 행위를 하고 있다는 점에서 미 전역은 충격에 빠졌다.
이처럼 영향력 있는 기사의 숨은 일등공신은 AI였다. AJC의 탐사보도팀은 각기 다른 형태로 제공되는 각 주(州)의 규제 당국 웹사이트의 데이터를 모으기 위해 50여 개의 크롤러(crawler·웹상의 정보를 자동으로 검색하고 수집하는 소프트웨어)를 개발하고, 이를 통해 10만 건 이상의 문서를 수집, 문서 분석 기계학습을 활용했다. 이 데이터를 인간이 모두 읽고 분류하는 것은 무리였다.
AJC 사례를 본 ‘참 기자’들은 “AI가 사람이 일일이 할 수 없는 업무를 맡아주면, 그에 대해 더 깊은 취재가 가능하기 때문에 오히려 쓸 수 있는 기사가 더 많아질 것”이라고 반겼다.
캐나다 라이어슨대학의 스튜어트 덩컨 교수는 현지 언론 인터뷰에서 “단기적으로는 기자들의 업무를 AI와 자동화가 대체할 수는 없다”면서 “다만 AI로 인해 취재 범위가 확대되는 등 기자들의 역할 전환이 상당할 수 있다”고 했다.
계속 로봇처럼 기사 쓴다면
![]() |
(주)와이즈넛 본사 관계자들이 인공지능이 기사를 요약하는 과정을 시연하고 있다. 사진=박지현 기자 |
이 가운데 AI와의 상생(相生) 모델을 잘 구축한다면 언론 신뢰도를 올릴 수 있다는 의견도 나온다. AI가 단순 업무를 대체해주면 기자들이 심층 취재를 위한 시간을 더 쓸 수 있고, 빅데이터 등 미디어 테크놀로지를 활용한 양질의 기사들이 나와서 언론 신뢰도를 높일 수 있다는 차원에서다.
지난 2021년 8월 열린 ‘미디어테크놀로지를 통한 언론신뢰 제고의 방향과 전망’ 토론회에서 최진호 한국언론진흥재단 선임연구위원은 “AI가 기자들의 업무를 보조해 기자들의 단순 업무를 줄여줄 수 있고, 정확하고 심층적인 좋은 보도를 하는 기반을 마련해줄 수 있다”고 했다. 최 위원은 다만 “한국 언론의 신뢰 회복은 미디어 기술에 있는 것이 아니라 저널리즘 본질 회복에 있다”는 말도 잊지 않았다.
옥스퍼드대학교와 회계법인 딜로이트는 공동 연구(2015)에서 “영국 내 일자리의 35%가 20년 안에 컴퓨터 자동화로 위협에 빠지게 된다”고 분석했다. 일자리 특성상 사회적 분별력, 협상력, 설득력, 타인에 대한 배려심, 독창성, 순수예술, 조작 능력 등 핵심 스킬 요구 정도를 기준으로 결과를 도출했다. 텔레마케터, 은행 창구 직원은 자동화 위험률이 높았지만 기자직의 자동화 위험은 단 8%에 불과했다. 분석 대상이었던 366개 직업 중 285위로, 자동화 위험이 상대적으로 매우 낮은 직업에 속했다.
‘앞으로 기술이 획기적으로 발달하면 얘기가 달라지는 것 아냐?’ 응당 가질 수 있는 의문이다. AI의 성능은 파라미터(매개 변수)의 숫자로 가늠한다. GPT-3의 파라미터 수는 1750억 개다. 10억 개 이하인 가정용 인공지능 스피커보다 1000배 이상 똑똑하다. 심지어 지난해 미국의 스타트업인 세레브라스 시스템스는 파라미터가 120조 개에 달하는 반도체를 개발했다고 한다. 인간 뇌 속 시냅스(100조 개)보다 많은 수준이다.
그렇다고 한들, 2022년의 AI가 1972년 《워싱턴포스트》의 밥 우드워드와 칼번스타인이 쓴 워터게이트 사건을 보도할 수 있을까. 아니라고 본다. ‘사람 기자 고유의 영역은 분명하고, 이를 건재하게 하는 건 기자의 몫’이라는 얘기다. 물론 이러한 방패는 ‘기사봇’처럼 빤한 기사만 양산해내는 이에게는 주어지지 않는다. 자문해볼 때다. 당장 나부터 ‘대체 불가능’한 기사를 쓰고 있나? 어쩐지 작아지는 건 기분 탓이겠지?⊙
《월간조선》 X 와이즈넛 장문의 기사 내용을 한눈에… ‘인공지능이 제공하는 기사 요약 서비스’ AI는 기자의 업무를 도와주기도 하지만, 독자들의 편의성도 높여줄 수 있다. 《월간조선》은 ㈜와이즈넛의 도움으로 홈페이지를 통해 본지의 긴 기사를 다 읽지 않고도 한눈에 핵심을 파악할 수 있는 ‘기사 요약 서비스’를 제공하기로 했다. ㈜와이즈넛 관계자는 “2000년 설립 이후 언어처리 기술 기반의 검색 소프트웨어, 인공지능 챗봇을 개발, 지난 22년간 국내 4200여 고객사 및 글로벌 10개국에 서비스를 제공하고 있다”면서 “인공지능 챗봇 및 검색 SW 1위 기업이라 자부한다”고 말했다. |