|
한국에서는 지난해 12월 국민의힘과 야당이 국회 정치개혁특위에서 '딥페이크(Deep fake)'를 활용한 선거운동을 선거일 90일 전부터 전면 금지하기로 합의했다. 지난 대통령 선거 당시 국민의힘이 윤석열 후보 선거운동에 활용해 화제를 모았던 'AI 윤석열'과 이를 따라 시작했던 'AI 이재명'식의 선거운동을 제한하기로 했다.
기존 이미지나 동영상 속 인물을 다른 사람의 모습으로 바꿔치기한 AI 합성 미디어인 딥페이크 기술이 하루가 다르게 발전하고 있다. 전문적인 지식 없이도 누구나 스마트폰 앱으로 간단히 딥페이크 영상을 만들 수 있다. 미국에서는 이미 정치권을 중심으로 이를 악용해 사회적 혼란이 발생한 사례가 여러 건 있다.
최근 선거 사례들을 통해서도 악의적인 행위자들이 디지털 애플리케이션을 이용해 민주주의를 위협한다는 사실이 이미 확인됐다. 챗GPT 등 생성형 AI와 같은 새로운 언어 모델의 등장으로 이들은 더욱 강력한 새 무기를 보유하게 됐다. 따라서 정치권과 규제 당국은 이러한 위험을 사전에 방지하기 위해 적극적으로 노력해야 한다.
이러한 가운데 지난해 7월, 미국 민주당의 엘리자베스 워런과 공화당의 린지 그레이엄 상원의원은 디지털 소비자 보호 위원회 법안을 발의했다. 이 초당적 법안은 경쟁, 투명성, 개인정보 보호, 국가 안보와 관련해 디지털 플랫폼을 규제할 수 있는 권한을 가진 새로운 디지털 소비자 보호 위원회를 설립하는 내용을 담고 있다. 또한 이 법안은 지배적인 플랫폼이 사업을 운영하기 위해 면허를 취득하도록 하고, 심각한 소비자 피해를 야기한 반복적이고 중대하며 불법적인 위법 행위에 대해 위원회가 면허를 취소할 수 있는 권한을 부여하도록 했다.
AI 시대가 본격화하면서 디지털 규제 기관의 필요성은 온라인 세계에서 경쟁을 촉진하고, 개인정보를 보호하며, 언론의 자유를 발전시키기 위해 무엇이 필요한지에 대한 신중한 성찰에서 비롯됐다. 정부와 의회에서는 이러한 디지털 공공 정책 목표를 전반적으로 발전시키기 위한 조치를 마련할 수 있다. 그러나 이를 디지털 산업 분야 전반에 실효성 있게 적용하려면 전문 규제 기관에서만 찾을 수 있는 정책 및 산업적 전문성이 필수적이다.
AI 등 첨단 과학기술을 기반으로 하는 디지털 경제의 핵심 목표는 '혁신'이다. 그런데 미국이나 한국이나 혁신을 추구하는 과정에서 예상치 못했던 많은 문제가 생기지만 이를 관리하기 위한 규제는 쉽지 않다. 급속한 기술 혁신이 이루어지는 동안 언제 무엇을 혁신할 것인지, 그리고 어떻게 디지털 제품과 서비스를 시장에 내놓을 것인지 등 많은 결정은 정부보다 기술기업들의 손에 의해 이루어진다. 기술기업들은 모든 일에 정부 허가를 받는다면, 혁신은 불가능하다고 주장한다. 반면 정부는 혁신을 추구하는 과정에서 기술의 오용과 남용 문제를 예방하는 조치가 필수적이라는 입장이다.
산업화 시대에 소비자, 경쟁, 국가 안보를 보호하는 데 효과적이었던 과거의 방식만으로는 AI 시대의 새로운 도전에 대응하기에 부족하다. AI 기술의 작동 방식뿐만 아니라 그로 인한 사회적, 경제적, 안보적 영향을 이해하기 위해서는 전문적인 지식이 필요하다. 혁신 기술의 지속적인 개발을 장려하면서도 이러한 영향에 대한 책임을 결정하는 것은 혁신과 책임 사이에서 줄타기하는 것과 같다.
게다가 AI 기술의 속도와 확장성에 대응하기 위해 오래된 법령과 규제 구조에 의존하는 것은 불가능한 일이다. 오래된 시스템이 기술의 발전 속도를 따라가지 못하고, 기업 등 민간 부문이 사회의 행동 방향을 결정하도록 허용할 경우 피할 수 없는 공익적 해악을 초래할 수 있다.
무엇보다 AI 규제의 목표는 공익을 보호하면서도 기술 혁신을 촉진하는 두 가지 모두가 돼야 한다. 산업 규제의 특징이었던 기존의 하향식 미시적 관리는 AI 혁신의 혜택을 늦출 것이다. 기존 미시적 관리 대신 민첩한 리스크 관리가 요구된다. 이러한 새로운 규제 패러다임 마련을 위해서는 다음 사항을 고려해야 한다.
우선, AI 기술의 효과는 일률적이지 않다. 검색 선택이나 온라인 게임을 지원하는 AI는 개인 또는 국가 안보에 영향을 미치는 AI와는 매우 다른 영향을 미친다. 규제 감독은 모든 사람에게 일률적으로 적용하는 것이 아니라 필요에 따라 맞춤형으로 이루어져야 한다.
다음으로, 경직된 유틸리티 스타일의 규제 대신 AI 규제는 민첩하고 혁신적이어야 한다. 위험이 식별되면 그 위험을 완화하기 위해 설계된 필수 행동 방식을 미리 준비해야 한다. 이를 위해서는 새로운 규제 담당 기관이 문제를 파악하고, 업계 전문가들을 모아 기관의 전문가들과 협력해 필요한 행동 방식을 미리 마련해야 한다. 그 과정에서 그것이 수용할 수 있는 것인지 여부를 결정하는 새로운 수준의 정부-업계 협력이 요구된다.
AI가 미래에 어떤 영향을 미칠지 현재로서는 정확히 알 수 없다. 다만 디지털 시대에 급변하는 기술 속에서 공익을 보호하지 못하면 어떤 해로운 결과를 초래하는지는 우리 모두 경험을 통해 알고 있다.
지금 우리는 다시 한번 새로운 기술이 개발되고 그 결과에 대한 고려 없이 그것이 보급, 활용되는 상황을 지켜보고 있다. 이제 이 강력한 신기술에 대한 공익적 규제 방법을 확립해야 할 때다. 기술을 통해 상업적 또는 정치적 이익을 얻으려는 사람들보다 더 큰 힘이 없다면, 혁신가가 규칙을 만들고 사회가 그 결과를 감당하는 초기 디지털 시대 역사의 반복을 피할 수 없게 될 것이다.
※본란의 칼럼은 본지 견해와 다를 수 있습니다.
박재형 재미 정치학자