이슈분석

세계 최초 AI기본법, 산업 촉진법인가 족쇄인가

“AI 태동 단계인데, 정부가 규제의 칼부터 꺼냈다”

  • 글 : 정혜연 월간조선 기자  hychung@chosun.com
글자 크기 조정
  • 스크랩
  • 본문 음성 듣기
  • 글자 크기 조정
URL이 성공적으로 복사되었습니다.
⊙ “AI기본법의 틀은 AI는 좋은 것이 아니라 인간에게 위협적이라는 것”
⊙ 국가인공지능전략위·인공지능정책센터·인공지능안전연구소 등 만들어… ‘공무원을 위한 법’
⊙ 과기부, ‘AI진흥법’이라고 홍보하지만, 업계에서는 ‘규제법’으로 인식
⊙ 美·유럽은 법으로 AI 규제하면 산업 발전에 저해된다고 판단해 한 발 물러서
2023년 12월 8일 보스턴의 한 휴대폰에 챗GPT가 생성한 컴퓨터 화면 이미지에 표시된 오픈AI의 로고가 보이고 있다. 사진= 뉴시스
통상 ‘세계 최초’라는 말은 긍정적으로 사용된다. 세계 최초로 발명했거나, 세계 최초로 성공했거나, 세계 최초의 기록을 세웠거나 말이다.
 
  우리나라가 얼마 전 세계 최초 기록을 하나 세웠다. ‘AI(인공지능)기본법’을 만들었다. 과학기술정보통신부(과기부)는 지난 1월 22일부터 ‘인공지능 발전과 신뢰기반 조성 등에 관한 기본법’(법률 제20676호·이하 AI기본법)을 시행한다고 발표했다. AI산업을 육성하면서 동시에 위험을 관리한다는 명목이다.
 
  그런데 이 법 때문에 말들이 많다. 과기부는 최소 1년 이상 유예기간을 두고, 해외 동향 등을 보며 유연하게 대처하겠다고 밝혔다. 과기부와 중소기업벤처부는 지난 1월 28일 국회에서 ‘AI기본법 설명회’를 열었고, 과기부는 2월 말에 또 한 차례 설명회를 열 예정이다. 경기도는 2월 10일에 판교 경기AI캠퍼스에서 AI 기업을 대상으로 AI기본법에 대해 설명했다.
 
 
  “노란봉투법과 비슷하지 않나 생각”
 
AI기본법 시행 첫날인 지난 1월 22일, 서울 송파구 한국인공지능·소프트웨어산업협회 출입구에 인공지능기본법 지원 데스크 현판이 걸려 있다. 사진= 뉴시스

  스타트업 회사를 4년째 운영 중인 한 관계자의 얘기다.
 
  “법은 이미 시행 중인데 업계의 얘기를 들어 보겠다며 정부에서 매달 설명회를 여는 것이 정상인가요? AI는 세상에 존재하지도 않았고 누구도 가 보지 않은 길입니다. 지금 이 순간에도 빠른 속도로, 무한하게 발전하고 있습니다. 과연 이 법이 AI의 발전 속도를 따라갈 수나 있을지 의문입니다.”
 
  ― AI로 인한 폐해는 분명히 있죠.
 
  “문제는 분명히 있고, 딥페이크 영상물이 청소년들에 나쁜 영향을 끼쳐서 형사 처벌까지 받는 사례가 있었죠. 하지만 AI라는 것이 사람들의 삶 속에 깊숙이 들어온 지 얼마 되지 않았습니다. 국민이 이런 신종 기술로부터 보호를 받아야 한다는 기본 취지에는 공감하지만, 느닷없이 AI를 규제하겠다며 덜컥 기본법부터 내놓은 이유가 무엇인지 이해가 가지 않습니다. 몇 년 전에 유럽에서 AI를 규제하겠다는 움직임을 보이니까 우리도 뒤처지면 안 되겠다는 생각에 우선 법부터 만들고 봤다는 생각이 듭니다. 정작 AI의 규제와 관련해 논의하던 유럽은 한발 물러서서 이런 법이 없습니다. ‘노란봉투법’과 비슷하지 않나 싶습니다. 일단 해보고, 아니면 도로 물리자는 식으로 말입니다.”
 
  이경전 경희대 경영학과 교수는 “법 제2조 1항의 ‘인공지능’ 정의부터 틀렸다. 또 제2항에 결과물을 ‘추론하는’ 인공지능 기반 시스템이라고 돼 있는데, 이것은 OECD에서 말하는 ‘생성’이라는 단어를 잘못 이해한 것으로 보인다”며 “인공지능의 정의부터 급하게 법을 만든 티가 난다”고 말했다.
 
  AI기본법은 제1장 인공지능의 정의와 법률의 추진 체계, 제2장 인공지능의 발전을 위한 위원회 등 설립, 제3장 인공지능산업 기반 조성 등으로 구성됐다. 제4장은 인공지능 윤리 및 신뢰성에 관한 것인데, 여기에서 ‘인공지능의 안전성’ ‘인공지능의 투명성’ ‘고(高)영향 인공지능의 확인’ 등이 다뤄진다.
 
 
  “AI기본법은 이중 규제”
 
  정부는 AI기본법이 ‘AI산업 진흥법’이라고 주장한다. 과기부는 지난 1월 28일 설명회에서 “AI기본법은 규제가 아닌 진흥에 방점이 있다”고 설명했다. 하지만 업계는 이를 곧이곧대로 받아들이지 않으려는 분위기다. (사)스타트업얼라이언스가 지난해 12월 AI 스타트업 101개 업체를 대상으로 설문조사해 발표한 보고서를 보면 ‘AI기본법에 대한 대응 계획을 수립하고 준비 중’이라고 응답한 기업은 2%에 불과했다. ‘내용을 잘 모르고 준비도 안 되고 있다’ ‘법령 내용은 인지하고 있으나 대응은 미흡하다’는 응답이 각각 48.5%였다. AI기본법의 다양한 항목 중에서 ‘기업에 가장 제약이 되는 조항’을 묻는 말에는 ‘AI 신뢰성과 안정인증 제도’를 꼽은 응답이 27.7%였다. 이경전 교수의 얘기다.
 
  “법의 명칭은 기본법인데 진흥 내용과 규제가 동시에 들어가 있기 때문에 기업들로서는 규제법이 하나 늘었다고 생각할 수 있습니다. AI산업을 촉진하려면 다른 산업에 대한 규제를 풀어 주는 것이 우선돼야 합니다.
 
  가령 현행법상 택시운전면허를 가진 사람만 영업용 택시를 운행할 수 있기 때문에, 우리나라는 우버가 앱만 있을 뿐 제 기능을 하지 못하고 있습니다. 만약 AI의 발전으로 인해 기존에 사람이 했던 영역을 인공지능이 할 수 있도록 모빌리티 분야의 규제를 완화해 주는 법이라면 AI의 진흥을 촉진하는 법이라고 할 수 있을 겁니다.
 
  또 현행법에 따르면 의료인만 환자를 진료할 수 있지만, 가령 단순 피부 질환과 같은 특정 분야에서 AI가 원격 진단을 하는 등 사람과 유사한 수준의 업무를 하는 것을 허용한다면 AI 시장 활성화라고 생각할 수 있을 텐데 AI기본법은 그와 정반대입니다.”
 

  ― 이중 규제라는 말이 그래서 나오는 거군요.
 
  “AI기본법은 ‘AI는 좋은 것이 아니라 인간에게 위협적이다. 고로 규제해야 한다’는 전제를 깔고 있습니다. 현행법으로 인해 어차피 택시 영업이나 의료행위를 할 수 없는 상황을 한 번 더 못 박아서 이중으로 규제하는 식입니다. 기존의 규제에 인공지능의 위험성을 얹어서 또 하나의 규제가 추가된 것이 AI기본법이라고 생각합니다.”
 
 
  “기업의 혁신성 떨어질 것”
 
  사실상 ‘규제’ 항목으로 읽히는 법 제4장 중에서 업계 관계자들이 우려하는 것은 인공지능 투명성 확보 의무(제31조), 고영향 인공지능과 관련한 사업자의 책무(제34조)다.
 
  법에 따르면 ‘인공지능의 투명성’을 위해 앞으로 업체들은 AI가 만든 영상에 ‘AI 생성물임을 알리는 워터마크’를 반드시 표시해야 한다. AI로 만든 글, 그림, 영상 등에 인공지능 생성물이라는 표식을 삽입해야 하는 것이다. 이 의무는 AI 서비스를 운영하는 사업자에게 있다. 법이 말하는 ‘고영향 인공지능’은 생명, 신체 안전, 기본권에 중대한 영향이나 위험을 가져올 우려가 있는 AI 시스템이다. 에너지, 물, 보건의료, 의료기기, 교통, 공공 서비스, 교육 등이 여기에 해당한다. 한 스타트업 관계자는 “기준이 너무 모호하다”고 했다.
 
  “‘인공지능의 투명성’과 관련해서 자유로울 수 있는 회사들이 거의 없지 않나 싶습니다. AI를 활용한 데이터를 사용했으면 워터마크를 달아야 하는데, 사람의 손을 거치지 않고 인공지능이 전부 작업을 했다면 당연한 얘기입니다. 하지만 사람이 거의 다 하고 수정 단계, 혹은 마지막 리터치 단계에서 AI를 활용했다면 여기에도 워터마크를 달아야 하나요? 가령 전체 작업 중에서 AI를 활용한 부분이 10% 미만임에도 워터마크를 달아야 하나요? 그렇다면 사람 크리에이터의 영역은 어디까지인가요? 현행법으로는 이런 기준이 명확지 않습니다.”
 
  ― 기업 입장에서 이와 관련한 담당자를 따로 둬야 하는 상황입니까?
 
  “워터마크를 반드시 넣어야 하니까 새로 플랫폼을 만들어야 하고, 업데이트할 때마다 이를 적용해야 하고, 우리 서비스에 맞는 조치인지 확인하려면 법무법인 컨설팅을 받아야 합니다. 이걸 또 개발자나 디자이너, 기획자에게 이해시키기 위해서 추가적인 교육을 해야 합니다. 지금은 1년 유예기간 단계니까 저희 같은 작은 회사들은 지켜보는 입장인데, 구체적인 가이드라인을 주는 곳이 없으니까 답답합니다.
 
  통상 AI와 관련해서는 EU가 제시하는 ‘CP2A(Conformity Assessment for High-Risk A)’라는 글로벌 스탠더드를 따라서 고영향 AI에 대한 위험성을 경고해 왔는데, 이건 법은 아닙니다. 그런데 우리나라는 AI기본법이 시행됐고 위반 시에는 과태료를 부과받을 수 있는데, 현재로서는 정확히 어디까지가 의무 사항인지 잘 알 수 없습니다.”
 
  ― AI기본법 시행으로 업무가 늘었나요?
 
  “아직은 다들 관망하고 있으니까 늘었다고 볼 수는 없습니다. 하지만 본격적으로 시행된다면 기업들이 이를 따라가느라 혁신성이 떨어질 수 있다고 생각합니다. 미국의 콜로라도주는 50인 미만의 기업에 대해서는 AI 관련법을 적용하지 않는다고 알고 있는데, 우리나라도 영세 중소기업에는 다르게 적용해야 하지 않을까 합니다.”
 
 
  미·유럽은 법률 대신에 분야별 규제 선택
 
2024년 8월 29일 경기도 수원시 영통구 경기도교육청에서 직원들이 딥페이크 관련 카드뉴스를 살펴보고 있다. 사진=뉴시스

  이상용 건국대 법학전문대학원 교수는 해외의 상황을 설명했다.
 
  ― 우리나라가 최초로 AI기본법을 시행했는데 우리나라가 인공지능으로 인한 폐해가 심한 편인가요?
 
  “인공지능 기술은 이제 막 태동하여 적용되기 시작한 기술입니다. 딥페이크로 인한 개인의 권리 침해 등과 같이 부작용이 가시화되기 시작한 영역도 있지만, 아직은 인공지능의 위험이나 부작용이 구체화되지는 않은 상태입니다. 폐해가 심하다고 보기는 어렵죠.”
 
  ― 유럽에서 AI 규제에 관한 얘기가 나와서 우리나라가 급하게 법을 만들었다는 얘기가 있던데요.
 
  “우리나라의 AI 규제 입법이 좀 앞서 나간 측면은 있습니다. AI는 안 쓰이는 곳을 찾기 어려운 범용 기술이어서 이용되는 영역마다 위험의 특성이 다릅니다. 예를 들어 자율주행차와 챗봇을 하나의 법으로 규율하기는 어려운 일입니다. 이 때문에 영국의 경우 모든 영역을 포괄하는 AI 규제 법률을 만들지 않고, 대신에 영역별 규제기관이 전문성을 살려 필요한 규제를 하고 과학기술부가 이를 조율하는 거버넌스를 맡는 방식을 취하고 있습니다. 이를 수직적 규제라고 할 수 있지요. 그러나 우리나라의 인공지능기본법은 EU AI법을 모델로 하여 모든 영역을 포괄하는 수평적 규제를 채택했습니다. 다만 EU AI법과는 달리 시장 출시 전 사전 적합성 평가를 하거나 무거운 과징금을 부과하지는 않고 있어 다행입니다. 일종의 ‘넓고 얇은 규제’라고 할 수 있지요.”
 
  이경전 교수는 우리나라 AI기본법이 ‘세계 최초’가 된 배경을 이렇게 설명했다.
 
  “우리보다 앞서서 AI산업을 규제할 것 같았던 EU와 영국은 정작 한 발 물러섰습니다. 유럽 국가들 입장에서도 미국, 중국을 따라잡고 AI산업을 발전시키기 위해서는 법으로 규제해서는 안 된다고 판단한 겁니다. 그러다 보니 우리나라가 제일 먼저 규제를 시작하는 모양새가 되고 말았습니다.”
 
  ― 좋은 일을 세계 최초로 한다면야 얼마나 좋겠습니까만.
 
  “기업들은 AI기본법에 맞추기 위해서 자신들이 고영향 위험군(群)인지를 스스로 판단하거나 외부 기관에 의뢰, 혹은 정부에 일일이 물어봐야 하고, 상황에 따라 미리 신고를 해야 합니다. 그러지 않으면 리스크를 짊어지는 수밖에 없는데, 그것은 기업 활동을 옥죄는 부분입니다. 기업 입장에서 이중, 삼중 규제에 시달릴 수밖에 없습니다.”
 
 
  KT, ‘리스크 사전에 차단’ 위해 선제 조치
 
  이례적으로 KT는 정부의 AI기본법 시행에 발 빠르게 대처한다고 자부한다. 법 시행을 앞두고 전 직원을 대상으로 AI윤리 교육을 하고, 2024년 4월에는 Responsible AI Center(RAIC·책임감있는 인공지능센터)를 신설했다. KT 관계자는 “AI 개발에 많은 자본을 투자하고 있기 때문에 사전에 리스크를 차단한다는 차원”이라고 설명했다.
 
  ― 조직을 만들게 된 이유는 뭡니까?
 
  “AI가 단순한 기술을 넘어 기업의 핵심 의사결정과 사회 전반에 중대한 영향을 미치는 단계로 진화하고 있다고 판단했습니다. AI의 윤리성과 신뢰성을 전사(全社) 차원에서 책임 있게 관리할 필요성이 커져서 2024년 4월에 전담 조직인 RAIC를 만들었고, 2025년에는 배순민 CRAIO(Chief Responsible AI Officer)와 박완진 센터장을 중심으로 산하 조직이 책임감 있는 AI 원칙 수립, 가드레일 학습 및 개발, 전사 임직원 교육 등을 수행하고 있습니다.”
 
  ― AI기본법에 대한 대비책은 뭐가 있습니까?
 
  “법 시행 이전부터 법의 주요 취지와 방향성을 선제로 반영해 AI 전(全) 주기에 걸친 잠재적 위험 요소를 식별, 평가하는 내부 관리 체계를 구축했습니다. 평가 수행 결과를 종합적으로 검토해 경영진의 최종 의사결정을 지원하는 프로세스를 운영 중입니다. 또 외부 자문위원회를 운영해 자사의 AI 윤리 및 평가 체계가 국내외 기준에 맞도록 지속적으로 고도화하고 있습니다. 기업은 AI 기술을 통해 고객에게 유익한 가치를 제공하는 동시에 모든 고객이 안심하고 AI를 활용할 수 있는 환경을 조성해야 합니다. KT는 기업과 사회가 함께 성장하는 선순환적 AI 생태계가 구축될 수 있도록 앞장설 예정입니다.”
 
 
  “로펌과 공무원 배만 불리는 희한한 법”
 
경기 군포시 CJ대한통운 스마트풀필먼트센터에서 AI 휴머노이드 로봇이 완충재 보충, 박스 적재 등 포장 작업을 하고 있다. 사진= 뉴시스

  취재에 응한 대기업들은 대부분 법무법인의 도움을 받아서 AI기본법 시행에 대비하는 것으로 드러났다. 그래서 일부에서는 “로펌만 돈을 벌게 하는 희한한 법”이라는 얘기마저 나온다. 한 대기업 관계자의 얘기다.
 
  “법이 조(條) 단위만 나오고 시행령은 나오지 않아서 지금은 법무법인 중심으로 대응하고 있습니다. 저희는 대기업이기 때문에 윤리 규범의 문제가 아주 심각합니다. 혹시라도 위법 사항이 나왔을 때 그룹이 통째로 도마 위에 오를 수도 있기 때문에 법무법인의 의견을 종합해서 AI 기술 개발을 하고 있습니다.”
 
  ― 결국 로펌의 도움을 받는군요.
 
  “AI기본법은 종전의 법들과 밀접한 연관이 있기 때문에 포괄적으로 다뤄져야 합니다. 인공지능을 개발하면서 기업의 윤리, 철학까지 연관시키기 때문에 결국 AI기본법에서 벗어날 수 있는 대기업은 없다고 생각합니다.”
 
  일부에서는 ‘정부를 위한 법’이라고도 한다. 한 스타트업 관계자의 얘기다.
 
  “처음에는 과기부가 아니라 문화체육관광부와 방송미디어통신위원회 소관으로 법을 제정한다고 했는데, 그때는 이보다 훨씬 규제가 강할 것으로 예상했습니다. 그나마 과기부가 주무 부처가 돼서 기업 입장에서는 다행인 것 같고, 또 열심히 하는 것도 같아요.
 
  그런데 AI산업을 진흥시킬 목적의 법이라고 하면서 세부 규정을 보면 국가인공지능전략위원회, 인공지능정책센터, 인공지능안전연구소 같은 조직을 만든다고 되어 있습니다. 결국 공무원들 일자리 아닌가요? 도대체 누구를 위한 법인지 회의가 드는 거죠.”
 

  ― 얼마 전 설명회에 200명이 넘는 사람들이 왔다고 하는데, 비슷한 얘기들을 나눴습니까?
 
  “AI가 인간보다 나쁘다는 전제, 그건 아니잖냐는 얘기들이 있었습니다. 인공지능이 자율주행을 하는 것보다 택시 기사가 운전하는 것이 오히려 위험할 수 있다는 생각을 해 보지 않았나요? 지금 상황으로는 기계보다 인재(人災)가 더 많아 보이거든요. 솔직히 AI를 써 보면 사람보다 훨씬 낫다고 느끼는 경우가 많습니다. 명절에도, 휴일에도 AI는 쉬지 않습니다. 주어진 속도에 맞춰서 자기 할 일을 제대로 해냅니다. 인공지능이 영화에서처럼 인간에게 악영향을 끼칠 수 있다는 기본 전제부터 바꿔야 한다고 봅니다.”
 
 
  “리스크 감수한 혁신이 산업 이끈다”
 
  정부의 입장과 다르게 업계에서는 AI 기본법에 우려를 표시하지만, 이 기회를 적극 활용해야 한다는 얘기도 있다.
 
  “많은 기업들이 인공지능기본법의 명확성이나 예측가능성이 떨어진다고 우려하고 있습니다. 하지만 AI 기술은 광범위한 영역에 적용되는 전형적인 범용 신기술입니다. 그 말은 장차 AI의 개발이나 이용 과정에서 어떠한 위험이 발생할지 미리 알기 어렵다는 이야기입니다. 따라서 AI에 대한 규제는 필연적으로 유연성과 적응성을 요구하고, 그 결과 구체성이나 명확성이 다소 부족할 수밖에 없습니다.”
 
  이상용 교수의 얘기다.
 
  “기업이나 조직의 리더는 AI와 관련하여 리스크가 존재한다는 점을 인식하고, 수인할 수 있는 위험 수준을 결단해야 합니다. 그런 뒤에 위험을 식별하고, 평가하고, 관리해 나가야 합니다. 오픈AI나 앤트로픽과 같은 프론티어 AI 기업의 리더들은 사업적, 법적 불확실성 하에서도 감내할 위험 수준을 결단하고 미지의 영역으로 나아갔습니다. 그들의 거대한 성공은 이러한 기업가 정신에서 비롯된 것입니다. 반면에 기존의 성공에 안주하며 리스크를 최소화하기에 급급했던 기업들은 변화의 흐름에서 뒤처지고 말았습니다. 어도비와 같은 기업을 예로 들 수 있겠죠. 우리 기업들도 인공지능기본법을 비판하기만 할 것이 아니라, 법의 내용을 잘 이해하고 감내할 위험 수준을 결단하면서 앞으로 나아갈 필요가 있습니다. 인공지능기본법을 잘 살펴보면 기업들이 도움을 받을 수 있는 진흥적 요소들도 적지 않습니다.”⊙
  • 스크랩
URL이 성공적으로 복사되었습니다.