바로가기 메뉴
메인메뉴 바로가기
본문 바로가기

이슈 따라잡기

‘1세대 IT 전문가’ 오해석 이사장이 말하는 AI 시대와 딥페이크

“5년 내 北으로부터 정교한 형태의 AI 이용한 사이버 공격 가능성”

글 : 정혜연  월간조선 기자  hychung@chosun.com

  • 트위터
  • 페이스북
  • 기사목록
  • 프린트
  • 스크랩
  • 글자 크게
  • 글자 작게
⊙ “과학자들이 가장 우려하는 것은 AI로 인한 핵전쟁”
⊙ “딥페이크는 칼과 같아… 조리용도, 살인 도구도 가능”
⊙ “딥페이크 영상의 약 96%가 포르노일 정도로 性범죄에 惡用”
⊙ “DNA(Data·Network·AI)를 3대 혁신사업으로 집중 육성해야”

吳海石
서울대 응용수학과 졸업, 서울대 대학원 컴퓨터과학 전공 석·박사 / 숭실대 컴퓨터공학부 교수, 일본 도쿄대 객원교수, 美 스탠퍼드대 객원교수, 교육부 교육정보화자문위원장, 숭실대 부총장, 가천대 컴퓨터공학과 교수·부총장·인공지능기술원장, 한국정보처리학회 회장, 청와대 대통령IT특별보좌관 역임. 現 가천대 컴퓨터공학과 석좌교수 겸 경기도교육연구원 이사장
딥페이크 영상물이 확산하고 있던 지난 8월 29일, 경기도교육청 직원들이 딥페이크 관련 카드뉴스들을 살펴보고 있다. 사진= 뉴시스
  딥페이크(Deep Fake)라는 용어가 처음 사용된 것은 2017년에 미국의 온라인 커뮤니티 ‘레딧(Reddit)’에서 ‘Deepfakes’라는 아이디를 사용한 사람이 유명 여배우들의 얼굴을 포르노 영상에 합성한 콘텐츠를 게시하면서였다. 오늘날 딥페이크는 인공지능(AI)의 딥러닝(deep learning)과 가짜(fake)라는 단어가 합성된 용어로 기존의 이미지·비디오·오디오 등을 조작해 사람의 얼굴이나 음성을 실제처럼 생성하는 기술을 뜻한다. 특히 가짜 영상을 만들어내는 딥페이크는 보는 이들로 하여금 실제 상황인 것처럼 오인하게 할 수 있어 사회적 논란과 우려를 불러일으키고 있다.
 
  딥페이크는 나날이 진화 중이다. 초창기 사건들은 유명 여배우 가짜 포르노 영상, 정치인 가짜 연설 영상, 기업 CEO 사칭 사기 등이 있다. 2019년에 영국 에너지 회사의 CEO를 모방한 딥페이크 오디오를 이용해 24만 유로를 가로챈 사기 사건이 발생했는데, 이는 딥페이크 기술이 금전적 피해로 이어질 수 있음을 보여준 최초의 사례다.
 
  우리는 이 현상을 어떻게 받아들여야 하며, AI 세상에서 어떻게 인간다움, 인간성을 유지하며 살아갈 수 있는지, 오해석(吳海石) 가천대 컴퓨터공학과 석좌교수 겸 경기도교육연구원 이사장에게 물었다. 이명박 정부 때 청와대 대통령IT특별보좌관을 지낸 그는 우리나라 소프트웨어 연구 1세대로서 1990년대 인공지능 데이터베이스 책을 펴냈고, 최근까지 끊임없이 인공지능 관련 책을 집필하는 등 ‘AI 시대 제대로 알리기’에 몰두하고 있다.
 
  지난 11월 6일에 만난 오해석 이사장은 “딥페이크가 아니라 ‘‘휴먼 메이크(Human Make)’를 통해 건강한 사회에 이바지하는 방법을 인류가 고민해야 한다”고 했다.
 
 
  “AI는 필연… 범죄 활용은 인간 책임”
 
사진=뉴시스
  ― 딥페이크 악용 사례가 급속도로 늘어나는 이유는 뭡니까?
 
  “가짜 영상 만들기가 너무 쉽기 때문입니다. 각종 딥페이크 제작 프로그램이 오픈소스(open source·소스코드가 공개된 소프트웨어)로 풀리면서 누구나 딥페이크로 가짜 이미지·음성·영상을 쉽게 만들 수 있습니다. 과거에는 딥페이크 영상을 만들기 위해 많은 사진과 영상이 필요했지만 이제는 사진 한 장으로 가능합니다. 가짜 영상을 제작하는 데 걸리는 시간은 몇 분에서 초 단위 내입니다. 비약적으로 발전하는 AI 기술이 원인 제공자입니다.”
 
  ― AI가 딥페이크 시대를 열었다는 말이 사실이군요.
 
  “그렇습니다. 딥페이크는 AI 기술을 기반으로 기존의 이미지·영상·음성 등을 사실적으로 조작하는 기술입니다. AI 기술, 특히 딥러닝이 없었다면 딥페이크는 현재처럼 높은 수준의 사실성과 대중성을 갖추지 못했을 겁니다. AI가 없었다면 딥페이크 시대가 도래하지 않았을 가능성이 크죠. 하지만 여기에는 오류가 있어요.”
 
  ― 어떤 오류요?
 
  “AI 출현은 필연이고 운명입니다. AI 연구가 시작된 지 벌써 75년이 됐습니다. ‘AI 대부’라고 불리는 영국의 제프리 힌턴(Geoffrey Hinton) 토론토대 명예교수는 올해 노벨물리학상에 선정되며 ‘AI는 기업 생산성을 높이지만 위험성이 있다. 한평생 AI를 연구한 것에 대해 후회한다. 하지만 내가 연구하지 않았더라도 누군가 대신 발견했을 것’이라고 했습니다.”
 
 
  “딥페이크는 원래 창의적 표현을 위한 것”
 
2023년 2월 24일, 챗GPT가 쓴 자기계발서 《삶의 목적을 찾는 45가지 방법》을 방문객이 살펴보고 있다. 이 책은 챗GPT가 집필, 교정, 교열을, 번역은 AI 파파고가, 인간은 기획, 인쇄, 출판을 담당했다. 사진= 뉴시스
  ― 아인슈타인이 루스벨트 대통령에게 ‘핵무기를 개발하라’고 편지 보낸 것을 두고두고 후회했다는 말이 생각나네요.
 
  “AI를 활용하면 아무런 소스 없이도 원하는 콘텐츠를 만들 수 있습니다. 오픈AI의 소라(Sora)는 텍스트만 입력해도 영상을 만들어줍니다. 몇 단어만 입력하면 유명인의 딥페이크 영상을 뚝딱 만들어줄 정도로 AI 기술이 발전했습니다. 하지만 꼭 AI의 잘못이라고만 볼 수는 없습니다.”
 
  ― 무슨 뜻입니까?
 
  “딥페이크 이전에 휴먼 페이크(Human Fake) 문제가 있었습니다. 휴먼 페이크는 인간이 의도적으로 만들어낸 거짓 정보나 가짜 생성물입니다. 개인의 이익, 명성, 특정 목적을 위해 사실을 왜곡하거나 허위 정보를 만들어내는 행위죠. 휴먼 페이크에 AI를 접목하게 되면서 딥페이크로 변모했으니, 어찌 보면 인간이 문제의 원흉이라고 볼 수 있습니다. 보이스피싱, 보험 사기, 위장전입, 짝퉁 명품, 위조지폐, 논문 표절, 가짜 보약 등이 휴먼 페이크입니다. 선하게 태어난 인간이 성장하면서 악한 인간으로 변모할 수 있듯이 좋은 용도로 개발된 AI도 활용 과정에서 사악한 용도로 변하는 것은 당연합니다.”
 
  ― 인간은 선악(善惡)의 양면성이 있지만, 감정이 없는 것으로 알려진 AI가 저렇게 빨리 사회에 나쁜 영향을 끼친다는 것에 사람들이 놀라는 것 아닙니까.
 
  “딥페이크의 초기 목적은 콘텐츠 제작의 효율성을 높이고 창의적인 표현을 가능케 하는 것이었습니다. 영화·드라마·광고 등에서 특수효과 제작 비용을 줄이거나 실제로 촬영하기 어려운 장면을 연출하는 데 활용할 수 있습니다. 가령 세상을 떠난 배우를 영화에 다시 등장시키거나, 배우의 나이를 자유자재로 조절하는 등의 표현을 가능하게 합니다. 딥페이크가 본래 의도대로 제대로 활용된다면 우리의 삶에 무궁무진한 긍정적 영향을 끼칠 수 있을 겁니다.”
 

  지난해 ‘회장님네 사람들’(tvN 프로그램)에서는 2020년 세상을 떠난 박윤배 배우의 가상 인간을 구현해 큰 주목을 받았다. 드라마 ‘전원일기’에서 양촌리 청년 웅삼이 역을 맡았던 박윤배 배우가 과거 ‘전원일기’ 출연진과 대화하고 “우리 전원일기 식구들, 우리는 늦게, 나중에 늦게 또다시 만납시다”라며 마지막 인사를 했다.
 
  딥페이크 기술의 발전으로 ‘진짜’와 ‘가짜’를 구별하는 것이 굉장히 어려워졌다. 최근 GAN 기술(‘적대적 생성 신경망’이라고 번역되는 AI 기술 중 하나)은 사람의 피부뿐 아니라 머리카락까지 실제와 비슷한 이미지를 생성할 수 있는 수준에 이르렀다. UC버클리대와 영국 랭커스터대의 공동 연구에 따르면 사람들은 AI가 합성한 얼굴을 실제 얼굴과 구별하지 못할 뿐 아니라 오히려 합성된 얼굴을 더 신뢰하는 경향이 있다고 한다.
 
 
  “금전적 이익 수단으로 惡用돼”
 
  오해석 이사장은 ‘딥페이크의 긍정적 활용 사례’를 얘기해 줬다. 딥페이크는 교육 및 역사 재현에 사용될 수 있다. 가령 에이브러햄 링컨의 연설을 딥페이크를 통해 생생하게 재현해 학생들에게 생동감 있는 역사 공부를 시켜줄 수 있다. 의료 분야에 활용될 수 있다. 의학적 시뮬레이션을 통해 수술이나 치료 과정의 다양한 시나리오를 재현해 이를 통해 의료진이 훈련할 수 있는 환경을 제공할 수 있다. 또 언어와 문화를 보존하는 데도 중요한 역할을 할 수 있다. 소멸 위기에 처한 언어와 문화적 유산을 디지털 형태로 복원하고 이를 후대에 전달하는 데 활용할 수 있다.
 
  오 이사장은 “무엇보다 휴먼 메이크와 딥페이크를 융합해 긍정적인 결과를 도출할 수 있는 일이 무궁무진하다”고 말했다.
 
  “저는 휴먼 페이크 대신에 ‘휴먼 메이크(Human Make)’라는 단어를 씁니다. 긍정적이고 생산적인 목적으로 사용되는 가짜 가공 기술이죠. 성형수술, 가발, 사이버전쟁 게임, 스크린 골프, 항공기 조종훈련 시뮬레이터 등입니다.”
 
  ― 전부 가상이기는 하지만 휴먼 페이크 같은 부정적인 느낌은 없네요.
 
  “휴먼 메이크와 딥페이크가 합쳐지면 성형수술 전 환자의 얼굴에 가상으로 수술 결과를 적용할 수 있습니다. 이를 통해 환자는 수술 후의 모습을 미리 확인하고 더 정확한 결정을 내릴 수 있습니다. 딥페이크 기술을 활용해 유명 프로골퍼의 모습과 스크린 골프 게임을 즐길 수도 있습니다. 마치 실제로 타이거 우즈와 같은 선수와 경쟁하는 듯한 경험을 하는 것이죠. 골프 중계에서 들을 수 있는 유명 골프 해설자의 목소리와 모습을 딥페이크로 구현해 마치 실제 대회에 참여한 것 같은 생동감 있는 경험을 제공할 수 있습니다.”
 
  ― 듣고보니 긍정적으로도 활용될 수 있는데 왜 딥페이크가 나쁜 쪽으로 흘러간 걸까요?
 
  “딥페이크는 보이스 피싱이나 개인적인 협박 등을 통해 금전적 이익의 수단이 됩니다. 개인적 복수를 하기 위해 타인의 명예를 훼손하거나 사생활을 침해하는 도구가 되고, 가짜 뉴스나 정치인의 발언 조작 등 정치적 선동에 악용될 수 있습니다. 초·중학생들은 새로운 기술에 호기심이 커서 이를 재밌는 장난거리로 여기는 경우도 있고요. 특히 일반인의 얼굴을 도용해 음란물을 제작하는 등 성(性)착취 범죄에 악용되는 것은 아주 심각한 사회적 문제입니다.”
 
 
  딥페이크와 포르노의 ‘밀월 관계’
 
지난 8월 28일 서울 종로구 푸투라 서울 개관 전시에서 레픽 아나돌 스튜디오가 세계 최초로 개발한 ‘대규모 자연 모델’을 기반으로 만든 작품들. 사진= 뉴시스
  딥페이크는 유독 ‘성’과 합쳐질 때 엄청난 파급력을 가진다. 미국 샌프란시스코 검찰은 2024년 10월 14일에 캘리포니아 주법원에 딥페이크 성착취물을 제작하는 웹사이트 16개의 폐쇄를 요구하는 소송을 제기했다. 미국 지방자치단체 중에서 인공지능을 활용한 딥페이크 제작 웹사이트를 상대로 한 최초의 소송이다.
 
  “딥페이크로 인한 성범죄물 문제가 사회적 문제로 대두하고 대통령까지 이에 대해 언급했을 때 저의 첫 생각은 ‘언젠가 올 것이 예상보다 빨리 왔다’는 것이었습니다. 딥페이크가 성범죄에 활용되는 것은 매우 큰 문제입니다. 1970~80년대에 가정용 비디오카메라 출시로 포르노 산업이 급속도로 성장했고, 1990년대에는 실제 성행위를 다큐멘터리 형식으로 기록한 논픽션 성표현물이 유행해 사회적 파문을 일으켰습니다. 2000년 이후에는 ‘페이크 포르노’라고 불리는 합성 나체 사진이 유행하면서 유명인뿐 아니라 일반인의 얼굴도 합성 대상이 되기 시작했고요. 2020년에 들어서 딥페이크 기술이 등장하면서 이런 문제가 더욱 심화했습니다. 딥페이크와 포르노의 일종의 밀월 관계라고 할까요.”
 
  ― 딥페이크의 시작부터가 유명 여배우의 얼굴을 포르노 영상에 합성하는 것이었으니, 예견된 일이었다고 할까요.
 
  “세계적으로 유통되는 딥페이크 영상의 약 96%가 포르노라는 충격적인 통계가 있습니다. 딥페이크 기술이 주로 포르노 제작에 악용되고 있다는 것을 명확히 보여줍니다. 우리는 나중에 ‘딥페이크=포르노’라는 등식을 인정해야 하는 세상을 맞이할지도 모릅니다. 딥페이크 포르노는 주로 10~20대 젊은 여성들을 대상으로 하며 피해자들에게 심각한 정신적 고통을 주어 심지어 자살에까지 이르게 합니다.”
 
  윤석열(尹錫悅) 대통령은 2024년 8월 국무회의에서 딥페이크 성범죄에 대해 직접 언급하며 이를 ‘명백한 범죄행위’로 규정했다. 대통령이 특정 범죄를 언급한 것은 이례적인 일로, 그만큼 딥페이크 기술의 악용이 심각한 사회 문제로 대두했음을 반영한 것이다. 윤 대통령은 “딥페이크 영상물은 단순 장난이 아닌 기술을 악용한 범죄”라며 당국의 철저한 수사를 주문했다.
 
 
  “딥페이크로 인한 핵전쟁 유발이 가장 큰 위협”
 
  “우크라이나는 러시아에 항복한다.”
 
  지난 3월 16일, ‘우크라이나 24’ TV 채널에 젤렌스키 우크라이나 대통령이 등장해 말했다.
 
  이는 사실이 아니었다. 러시아 출신으로 추정되는 해커들이 TV 채널을 해킹해 방영한 것으로 알려졌다. 젤렌스키 대통령이 신속하게 해당 영상이 허위임을 밝혔지만, 조금만 대처가 늦었다면 우크라이나 전체가 혼란에 빠질 뻔했다.
 
  오해석 이사장은 “우리나라는 앞으로 5년 이내에 북한으로부터 정교한 형태의 AI를 이용한 사이버 공격을 받을 가능성이 있다”고 말했다.
 
  기존의 사이버 공격은 피싱(가짜 이메일을 통해 사용자의 개인 정보를 탈취), 랜섬웨어(시스템이나 데이터를 암호화해 접근을 막고 이를 해제하는 데 금전적 대가를 요구), 디도스 공격(여러 시스템을 이용해 특정 서버나 네트워크를 과부하 상태로 만들어 정상적인 서비스를 방해하는 것), SQL 인젝션(웹 애플리케이션의 데이터베이스 쿼리에 악의적 명령을 삽입해 데이터베이스 공격), MITM 공격(공격자가 통신 중간에 있어 송수신 정보를 가로채거나 조작하는, 주로 금융에서 사용되는 것) 등이 있다.
 
  최근 들어 딥페이크 기술을 이용한 사이버 공격이 진화하고 있다. 한 사기단은 2019년에 딥페이크 음성을 이용해 아랍에미리트(UAE)의 한 기업으로부터 3500만 달러를 탈취했다. 공격자들은 회사 임원의 목소리를 흉내 내 직원에게 전화를 걸어 송금을 지시했다. 홍콩의 한 금융회사에서는 가짜 최고재무책임자(CFO)의 지시에 따라 직원이 송금을 진행해 340억원을 날리는 사례가 있었다.
 
  “AI를 동원한 사이버 공격이 정보전(戰)의 주요 도구로 활용될 가능성이 큽니다. 허위 정보를 유포하고, 여론을 조작하고, 적군의 지도자나 고위 관료를 가장한 가짜 영상을 만들어 위장작전으로 사용할 수 있습니다. 적군의 사기를 저하하거나 민간인의 지지를 얻기 위한 조작된 영상을 제작해 심리전에 활용할 수 있습니다.”
 
  ― 할리우드 영화에서 얼굴 마스크를 써서 타인의 모습으로 변장하고, 성대 근처에 테이프를 붙여서 목소리를 조작하는 일이 이제는 사이버 상에서 마구 일어날 수 있는 거군요.
 
  “페이크 기술이 점점 정교해지면서 핵전쟁과 같은 대규모 재앙을 촉발한 가능성도 우려됩니다. AI 과학자들이 가장 우려하는 AI 리스크는 핵전쟁 촉발입니다.”
 
  ― 오인(誤認)으로 핵단추를 누를 수 있다는 겁니까?
 
  “딥페이크 기술을 사용해 국가 지도자가 공격을 명령하는 것처럼 조작된 영상을 유포할 경우에 상대국이 긴급상황이라고 판단해서 반격할 수 있습니다. 특히 국제 관계가 긴장 상태일 때는 작은 오해도 큰 충돌로 번질 수 있지 않겠습니까? 또 핵무기와 관련된 군사 시스템 중 일부는 자동화된 감시 및 대응 시스템을 갖추고 있습니다. 만약 딥페이크 영상이 자동 시스템을 속여 위협으로 감지하도록 유도한다면 실수로 공격 명령이 내려질 가능성도 있습니다.”
 
  ― 전 세계의 멸망에 이르는 길이 빨라지는 것 아닙니까.
 
  “현재로서는 핵전쟁이 딥페이크 하나로 발생할 가능성은 희박합니다. 여러 국가가 이를 방지하기 위해 위기 시 다중(多重) 검증 시스템을 마련하고 있고, 딥페이크 탐지 기술 역시 발전하고 있습니다. 그럼에도 딥페이크 기술이 더욱 정교해지고 빠르게 확산된다면 이런 위험성을 완전히 배제할 수는 없습니다.”
 
 
  “AI 알고리즘은 옳고 그름 판단 못 해”
 
  ― 딥페이크가 자정(自淨)능력을 갖출 순 없습니까?
 
  “아주 흥미로운 질문인데, 딥페이크에서 자정능력은 기술이 스스로 악용되는 것을 억제하거나 부정적인 사용을 막는 능력을 말합니다. 딥페이크 기술이 윤리적으로 올바르게 사용되도록 스스로 통제하는 딥페이크 탐지 알고리즘을 개발해 이를 통해 불량 플랫폼이나 서비스를 차단할 수 있어야 합니다. 그러나 아쉽게도 현시점에서 기술 자체가 자정능력을 갖추기는 어렵습니다. 딥페이크를 만드는 AI 알고리즘은 무엇이 옳고 그른지를 스스로 판단하지 못하고, 인간 사용자의 의도에 따라 긍정적 혹은 부정적으로 사용될 수 있습니다.”
 
  ― AI가 시비(是非)를 알지 못하기에 스스로 스톱할 수 없다는 거네요.
 
  “그 외에도 몇 가지 이유가 있습니다. 딥페이크 기술은 빠르게 발전하고 있어서 탐지 기술보다 항상 한 발 앞서 나가기 때문에 기존 탐지 기술로는 식별이 어렵습니다. 또 딥페이크가 탐지 시스템을 우회하는 방법이 끊임없이 개발되고 있어, 기술적 자정능력만으로는 한계가 있습니다. 딥페이크 콘텐츠의 온라인 확산 속도는 초고속이죠. 탐지와 삭제가 이뤄지기 전에 이미 수많은 사람이 이를 접하고 퍼뜨릴 수 있습니다.”
 
  ― 자정능력을 기대할 수 없으니, 결국 외부에서 제재하는 수밖에 없군요.
 
  “맞습니다. 딥페이크의 자정능력은 법적, 사회적 자정 작용을 통해 이뤄져야 합니다. 기술적으로는 한계가 있는 만큼 이를 악용하는 행위를 막기 위한 제도적 장치가 필수입니다. 여러 국가에서 이미 딥페이크 기술에 대한 규제를 강화하고 있으며, 생성형 AI 콘텐츠에 워터마크(문서나 사진에 저작자를 밝히기 위해 흐릿하게 삽입된 이미지)를 의무적으로 표시하는 법안이 도입되고 있습니다. 미국과 EU는 AI 기술이 가짜 뉴스나 정치적 목적으로 악용되는 것을 막기 위해 법적 규제를 강화하고 있습니다. 중국 역시 딥페이크 콘텐츠에 대한 규제를 강화하고 있습니다.”
 
챗GPT 이렇게 사용하자
 
  1. 목적과 목표를 명확히 하자.
  질문을 하기 전에 원하는 답변이 무엇인지 명확히 정하라. 가령 자료 조사를 위한 것인지, 창의적인 소설 줄거리가 필요한 것인지 등 구체화하는 것이 중요하다.
 
  2. 질문은 구체적이고 명확하게 작성하자.
  ‘효율적인 시간 관리 방법은?’이란 질문보다는 ‘효율적인 시간 관리를 위한 직장인의 스케줄 방법을 알려주세요’라고 묻는 것이 좋다.
 
  3. 단계적으로 질문하자.
  복잡한 주제는 작은 단위로 쪼개서 질문하라. 프로젝트 기획 단계라면 ‘목표 설정 방법’ ‘예산 기획’ ‘팀 배치’ 등으로 나눠서 질문하는 것이 효과적이다.
 
  4. 추가 설명과 피드백을 제공하자.
  원하는 답변과 다른 경우에 추가로 설명하거나 더 구체적인 예시를 제공해 피드백을 리턴시킨다.
 
  5. 답변 형식을 요청하자.
  답변을 특정 형식으로 요청할 수 있다. ‘300자 이내로 요약해 주세요’ ‘간단한 예시를 추가해 주세요’ 등으로 답변을 요청하면 더 원하는 형태의 답을 받을 수 있다.
 
  6. 자료 및 인용 출처도 요청하자.
  챗GPT는 기본적으로 학습한 내용을 바탕으로 답변하지만, 실질적 정보가 필요한 때는 출처를 요구해 정보를 검증할 수 있다.
 
  7. 상황에 따라 다양한 질문 방식을 사용하자.
  주제나 상황에 따라 대화형 질문이나 가정형 질문을 구분해 창의적이고 다양한 답변을 얻을 수 있다. 가령 ‘만약 이런 상황이라면 어떻게 할까요?’ ‘다른 접근법이 있나요?’처럼 상황을 가정하면 답변이 더욱 유연해진다.
 
  8. 반복적인 질문은 피하자.
 
  9. 예시나 상황 설명을 추가하자.
  원하는 답변의 방향을 유도하고 싶다면 예시나 상황 설명을 추가하자.
 
  10. 재미나 창의적 발상을 위해 사용하자.
  챗GPT는 다양한 창의적 발상과 재미 요소를 제공할 수 있다. 스토리 아이디어나 광고 문구 등 창의적인 작업에 활용해 보자.
 
  “AI 저작물 표시제 의무화해야”
 
  우리나라도 예외는 아니다. 제21대 국회 마지막 본회의가 열린 지난 5월 28일, 국민의힘은 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 법률안(AI기본법)’ 처리를 요구했으나, 야당인 더불어민주당이 거부하면서 의견 조율이 되지 않아 폐기됐다. ‘AI기본법’은 법안 발의부터 모든 것을 원점부터 제22대 국회에서 논의해야 하는 상황이 됐다.
 
  오해석 이사장은 “딥페이크는 칼과 같다. 칼이 음식을 만드는 데 사용돼 인간에게 유용한 역할을 하기도 하지만, 한편으로는 살인 도구로 사용되기도 한다. 이처럼 딥페이크는 좋게도, 나쁘게도 활용될 수 있다”고 했다.
 
  “딥페이크는 불행히도 아직 완전한 방지 기법이나 솔루션이 없는 채 창과 방패의 전쟁이 진행 중입니다. 우선 딥페이크 영상을 자동으로 식별할 수 있는 AI 기반 탐지 도구를 도입하는 것이 필수입니다. 이런 도구들은 영상의 픽셀 이상(異常), 비정상적인 움직임, 음성 합성의 불일치 등을 감지해 딥페이크 여부를 판별합니다. 보안 절차를 강화해 중요한 거래나 의사 결정을 할 때는 딥페이크를 이용한 사기나 해킹 위험을 줄여야 합니다. 청소년들에게는 미디어 리터러시 교육(미디어에 접근하고 이것이 제공하는 정보를 비판적으로 이해할 수 있는 능력)을 의무화해야 합니다. 정부과 국회는 딥페이크 관련 법률 및 규제를 준수하고 딥페이크 공격에 즉각적으로 대응할 수 있는 법적 절차와 방침을 마련해야 합니다.”
 
  ― 좀 원론적인 것들인데, 당장 우리가 해야 할 일은 뭡니까?
 
  “AI 생성물에 대해 워터마크 표시를 의무화해야 합니다. 정부는 생성형 AI가 생산한 저작물에 워터마크 표시를 연내 의무화하는 계획을 발표했는데, 이것은 새로운 디지털 질서 정립 추진계획의 일환입니다. 딥페이크를 활용한 가짜 뉴스에 대응하기 위한 바람직한 조치로 보입니다. 기업에서는 독자적인 첨단 AI 인증 솔루션을 도입해 디지털 서비스의 안전성을 강화함으로써 고객의 신뢰를 향상시킬 수 있을 겁니다.”
 
 
  “익명의 보호막 제거해야”
 
  오해석 이사장은 ‘익명의 보호막’을 제거해야 한다고 몇 번이나 주장했다.
 
  “딥페이크 성범죄가 급증하는 원인 중 하나는 익명의 보호막입니다. 윤석열 대통령이 지적했듯이 이들은 종종 익명성에 기대어 자신이 만든 영상을 유포하면서 그에 대한 책임을 회피하려 합니다. 특히 소셜 미디어를 통해 성범죄물의 유포가 매우 빠르게 이뤄지고 있어 막기 어렵습니다. 익명의 보호막을 제거해야 합니다.”
 

  ― 악플 같은 경우에도 최초 유포자가 누구였는지를 밝히는 것이 중요하다고 하죠.
 
  “기업들의 협조가 중요한데, 해외 빅테크 기업들에 불법 콘텐츠 유통에 대한 책임을 부과하는 법안 마련이 필요합니다. 이를 통해 플랫폼이 자체적으로 불법 콘텐츠를 삭제하도록 의무화할 수 있습니다. 현재 아동 성범죄로 한정된 디지털 위장수사의 허용 범위를 성인까지 확대해야 하고요. 글로벌 플랫폼과 핫라인을 구축해 국제 수사 공조를 통해 익명성을 악용한 범죄에 대응해야 합니다.”
 
 
  “AI ‘퍼스트 무버’들, 이제라도 따라잡을 수 있어”
 
  오해석 이사장이 말한 바로는 한국은 AI 도입이 부진한 국가 중 하나다. 그는 첫 번째 이유로 ‘AI 인재의 부족’을 들었다.
 
  “AI 시스템을 설계·개발·모니터링·관리할 수 있는 전문 인력이 턱없이 부족합니다. 그동안 대학에서 AI 전공 학생을 양성하지 못했고, 유학을 떠난 학생은 되돌아오지 않습니다. 고용노동부가 내놓은 한 보고서에 따르면 오는 2027년까지 AI 분야에서 1만 2800여 명의 인력이 부족하다고 합니다. 인재의 해외 유출 우려도 큽니다. 우리는 경쟁력 있는 한국산(産) AI 모델(대형언어모델·LLM)이 없습니다. 네이버가 한국어 LLM 개발에 선도적인 역할을 하고 있습니다만, 여전히 챗GPT와는 성능 비교가 불가(不可)한 상황이죠.”
 
  ― 우리나라도 정부 차원에서 ‘초거대 AI’ 개발을 한다고 하지 않습니까.
 
  “한국의 LLM 개발은 빠르게 진행되지만 여전히 글로벌 데이터가 아주 부족합니다. AI 시스템의 성능은 학습 데이터의 종류와 품질에 크게 의존하기 때문에 품질이 낮은 로컬 데이터로는 한계가 있습니다. 더구나 한국의 대기업들은 보안상의 이유로 챗GPT와 같은 미국 AI 모델 사용을 꺼립니다. 삼성전자가 회사 소유의 전자기기에서 생성형 AI 서비스 사용을 금지했고, SK하이닉스는 사내망에 챗GPT 접근을 차단했습니다. 한국 기업들이 AI 기술의 중요성을 인식하고 있음에도 막상 도입 과정에서 어려움이 크다는 얘기입니다.”
 
  ― 대한민국이 IT 강국으로서 자부심이 컸는데요.
 
  “저는 AI 강국이 될 수 있다고 봅니다. 문제는 사람이에요. 저는 ‘DNA(Data·Network·AI)’를 3대 혁신사업으로 선정해 집중 육성할 것을 건의합니다. AI 반도체를 육성하고, AI 특성화 대학을 만들어 재정 지원해야 합니다. 우리가 패스트 팔로워(Fast Follower)로서 저력을 갖고 있듯이, AI 분야에서도 퍼스트 무버들을 따라잡을 수 있다고 생각합니다.”
 
 
  “마약과의 전쟁 수준으로 대응해야”
 
2024년 11월 6일, 국무조정실 김종문 국무1차장이 정부 서울청사에서 딥페이크 성범죄 대응 강화 방안을 발표하고 있다. 사진=조선DB
  주위에서 ‘AI 시대’는 이미 우리 곁에 있다고 하면서도 이를 애써 외면하는 추세가 있다. 오해석 이사장은 “AI에 대한 저항이 여전하다”고 말했다.
 
  “AI 기술의 잠재력에 경탄하며 도입을 받아들이는 적극 도입파가 20% 정도 됩니다. 하지만 국민의 절반은 저항파로 AI 기술 도입에 거부감을 가지고 저항합니다. 주로 고학력·고소득의 전문직, 창의성을 생명으로 하는 예술 분야 종사자들입니다. AI 기술이 자신의 업무를 대체할지 모른다는 불안감, 새로운 AI 기술을 학습하는 부담, 자신의 전문성이 AI에 밀릴 수 있다는 염려 등이 복합적 원인입니다. 국민의 30% 정도는 ‘무시파’에 속합니다. AI에 대해 얘기하지도, 애써 찾아보지도 않습니다. 하지만 분명히 말할 수 있는 것은, 이미 AI는 대세라는 것입니다.”
 
  ― 딥페이크가 ‘나의 일’이 될 수 있다는 얘기군요.
 
  “맞습니다. 딥페이크는 단순히 기술적 문제가 아니라 사회적, 정치적, 경제적 문제로 확산되고 있는 ‘나의’ 문제입니다. 전 세계가 합심해서 딥페이크와의 싸움에서 얼마나 효율적으로 대응할 수 있을지 고민해야 합니다. 마약과의 전쟁에 버금가는 강력하고 실효성 있는 대책이 강구되기를 바랍니다.”⊙
Copyright ⓒ 조선뉴스프레스 - 월간조선. 무단전재 및 재배포 금지
NewsRoom 인기기사
Magazine 인기기사
댓글달기 0건
댓글달기는 로그인 하신 후 남기실 수 있습니다.
내가 본 뉴스 맨 위로

내가 본 뉴스 닫기

Loading...