메타 AI 로고. (사진=로이터 연합뉴스 제공)
메타 AI 로고. (사진=로이터 연합뉴스 제공)

지금 정보통신기술(ICT) 중 가장 뜨거운 분야는 인공지능(AI)이다. 오랫동안 수면 아래로 가라앉아 있다가 2016년 알파고가 프로 바둑기사 이세돌에게 승리함으로써 화려하게 부활했다.

그 후 기업마다 다투어 AI를 내세우면서 마케팅 수단으로 전락하는 것이 아닌가 하는 우려도 있었다. 그러나 올해 생성형 AI인 챗GPT의 등장으로 식어가던 관심에 다시 불이 붙었다.

생성형 AI는 이용자 요구에 따라 결과를 생성한다. 데이터를 학습해 음악을 작곡하고 그림을 그리며 시를 짓기도 한다. 학생들은 과제물 작성에 활용하며 기업에서는 문서나 발표 자료를 작성하는데 사용할 수 있다.

이에 따라 주요 정보통신 기업들은 경쟁적으로 생성형 AI 개발에 나섰고 상용화된 제품도 나타났다. 마이크로소프트(MS)는 챗GPT를 개발한 오픈AI와 제휴해 자사 제품에 생성형 AI를 탑재했다. 클라우드서비스인 ‘MS 365 오피스’에 생성형 AI를 실어 ‘코파일럿’이라는 이름으로 판매를 시작했다.

생성형 AI에는 대량의 데이터 저장과 처리가 필요하며 높은 수준의 하드웨어, 지속적인 업데이트가 필요하다. 이 때문에 일반 기업들이 자체적으로 운영하기 어렵고 클라우드에 의존하는 경향이 있다. 따라서 생성형 AI와 클라우드는 같이 성장할 가능성이 높다. 단순히 하나의 제품이 아니라 생태계가 형성되는 것이다.

하드웨어의 반도체와 더불어 소프트웨어의 AI는 정보통신 산업의 경쟁에서 핵을 이룬다. 미국은 반도체 장비의 중국 수출을 제한함으로써 선제 공격에 나선데 이어 지난달 ‘AI 개발과 사용에 관한 행정명령’을 통해 이 분야의 주도권 확보를 선언했다.

조 바이든 미국 대통령은 행정명령을 발표하면서 딥페이크를 배경으로 지목했다. 자신이 성소수자를 공격하는 가짜 영상이 돌아다니는데 목소리가 감쪽같았다. 백악관까지 나서서 해명해야 했다. 딥페이크는 AI를 이용한 이미지 합성 기술을 말한다.

행정명령 중 중요한 내용은 다음과 같다. 첫째, 국가 안보 등에 영향을 미칠 수 있는 AI를 개발하는 기업은 ‘레드팀’(Red Team)을 구성해 안전성 테스트를 하고 그 결과를 정부에 보고해야 한다.

둘째, 미국 국립표준기술원은 AI 테스트에 대한 엄격한 기준을 설정하고 국가안보부는 이 기준을 적용해 AI가 중요 인프라에 미치는 영향을 평가한다.

셋째, 상무부는 AI가 만든 콘텐츠인지 인증하고 워터마크를 부착하도록 지침을 만든다.

공교롭게도 행정명령은 지난 1일 영국에서 열린 ‘AI 안전 정상회의’ 직전에 발표됐다. 정상회의는 ‘AI가 인류의 복지를 위해 안전하게 개발되고 사용돼야 한다’는 원론적 선언문으로 끝났다. 그러나 시점으로 미뤄볼 때 미국은 향후 국제 사회에서 논의될 AI 정책은 자신의 방식을 따라야 한다고 선언한 셈이다.

그보다 앞선 지난 6월에는 유럽연합(EU) 의회가 ‘AI 규제법’을 통과시킨 바 있다. 여기서 AI를 위험도에 따라 네 등급으로 분류한다. ‘허용할 수 없는 위험 단계’는 신용이나 범죄 이력에 따라 개인을 평가·관리하는 것을 금지한다. ‘높은 위험 단계’에서는 교육·고용·사법과 같이 중요한 영역의 AI가 정부 기준을 충족한다는 문서를 사전에 제출해야 한다.

‘제한적 위험 단계’에는 챗봇·이미지합성기술 등이 포함되는데 사용자가 기계와 상대하고 있다는 것을 알려야 한다. ‘최소 위험 단계’에는 비디오게임·스팸차단프로그램 등이 해당되는데 기업은 행동 강령을 제정해야 한다.

미국과 EU의 규제는 접근 방법이 다르므로 수평적으로 비교하기는 어렵다. 그러나 공통점이 있다. 중요한 AI는 출시 전에 정부 기준을 충족시킨다는 사실을 입증해야 한다는 것이다. 이 과정에서 기업이 개발하고 있는 AI 관련 정보가 상당 부분 정부에 넘어갈 것이다. 이들 정부가 AI 기업을 통제하고 자국에게 유리하도록 정책을 수립하는 자료로 이용될 가능성이 높다.

미국 상무부는 자국 클라우드 기업에 대해 고객 정보 보고를 의무화하기로 했다. 아마존, 구글, MS 등이 대상이 되는데 이들의 시장 점유율은 66%에 달해 절대적이다. 클라우드를 통해 AI를 개발할 경우에도 이러한 정보는 미국 정부에 흘러 들어가게 된다.

AI와 클라우드가 결합되는 추세를 감안할 때 미국 정부는 AI 시장에 대한 상세한 정보를 확보하게 되는 셈이다. 이를 이용해 ‘반도체법’이나 ‘인플레이션감축법’과 같이 자국에 유리하게 산업을 재편하는 법이 나올 가능성도 배제할 수 없다.

미국의 기술적 우위를 감안할 때 EU의 법은 자국 시장을 지키는 방패로 사용될 것으로 보인다. EU는 디지털시장법(DMA)을 통해 주요 플랫폼 사업자의 경쟁제한적 행위를 금지하고 디지털서비스법(DSA)을 제정해 그들의 불법·허위정보 유통을 금지하고 있다. 이는 모두 알파벳·메타 등 미국의 거대 플랫폼 사업자를 견제하기 위한 것이다.

또한 디지털네트워크법(DNA)을 제정해 범유럽 단일 시장에서 활동할 수 있는 거대 인프라 사업자를 양성하려고 한다. 창과 방패를 동시에 휘두르고 있는 셈이다. 어떻게 하든 미국 기업의 진입을 줄이고 자국 기업을 양성하겠다는 의지를 읽을 수 있다.

일론 머스크 테슬라 최고경영자(CEO)는 AI 규제가 필요하지만 특정 국가가 아니라 독립적인 제3의 심판 기구를 만들어야 한다는 입장을 피력했다. 중국 학계도 AI를 감시할 국제 기구를 설립하고 이곳에 AI 시스템을 등록해 관리하자고 주장하고 있다.

정리하면 AI에 대한 규제는 각국 정부와 사업자의 입장이 충돌하고 있고 아직 정해진 룰이 없다. 시장 발전과 정부간 협상을 통해 점차 공통의 룰이 형성될 것이다.

우리나라도 과학기술정보통신부가 AI 생성 결과물에 워터마크를 찍는 방안의 도입을 발표하고 문화체육관광부가 ‘AI 저작권 활용 가이드 초안’을 공개하는 등 준비를 진행하고 있다. 또한 ‘AI기본법’(인공지능산업 진흥 및 신뢰 기반 조성 등에 관한 법률안)이 국회에 계류 중이다.

법은 AI에 대한 ‘우선허용·사후규제’ 원칙을 적용하고 있다. 우리나라가 AI에서 뒤지지 않기 위해 가급적 가벼운 규제를 취하자는 입장은 이해할 수 있다. 그러나 미국과 EU의 정책은 오히려 AI의 위험을 방지하기 위해 사전 규제를 강화하는 방향으로 흐르고 있어 충돌의 여지가 있다.

우리가 기술적으로 앞서 나가지도 못하고 국제적인 룰을 결정할 수 있는 것도 아닌 상황에서 자승자박이 될 수 있다. 그러한 내용을 제외하면 법은 국가가 AI 산업을 지원해야 한다는 선언적 내용이 주를 이루기 때문에 시급성도 떨어진다.

따라서 반드시 필요한 조치는 개인정보보호법 등을 보완하는 방식으로 대응하고 기본법은 국제적인 동향을 지켜보면서 천천히 만드는 것이 옳다. AI에서 상당한 실력을 갖춘 우리나라에게 기술 선도국과 소비국 사이의 중재 역할을 할 수 있는 공간이 있을 것이다.

정인호 객원기자 프로필

▲캘리포니아 주립대 데이비스 캠퍼스 경제학 박사 ▲KT경제경영연구소 IT 정책연구 담당(상무보) ▲KT그룹 컨설팅지원실 이사 ▲건국대 경제학과 겸임교수 등을 지낸 경제 및 IT 정책 전문가

저작권자 © 한국아이닷컴 무단전재 및 재배포 금지