정부가 AI 관련 규제를 주도하는 건 바람직하지 않다. 민간의 자율성을 인정하되 향후 시장이 성숙해 위험 문제가 현실화될 때 꼭 필요한 규제를 보완하는 방식으로 접근해야 한다. /셔터스톡
정부가 AI 관련 규제를 주도하는 건 바람직하지 않다. 민간의 자율성을 인정하되 향후 시장이 성숙해 위험 문제가 현실화될 때 꼭 필요한 규제를 보완하는 방식으로 접근해야 한다. /셔터스톡
이성엽 고려대 기술경영 전문대학원 교수서울대 법학 박사, 현 고려대 기술법정책센터장, 현 한국데이터법정책학회 회장, 전 김앤장 법률사무소 외국변호사
이성엽 고려대 기술경영 전문대학원 교수
서울대 법학 박사, 현 고려대 기술법정책센터장, 현 한국데이터법정책학회 회장, 전 김앤장 법률사무소 외국변호사

생성 AI(Generative AI)의 등장과 함께 AI 기술이 급속하게 발전해 사회 전 분야에 광범위하게 활용되면서 획기적인 혁신을 주도할 것으로 예상되고 있다. 이에 주요 국가는 AI 기술, 인력 양성 등 국가 차원의 투자와 지원을 확대하고 있다. 동시에 사람을 능가하는 AI의 예상할 수 없는 잠재력으로 생기는 위험을 통제하기 위해 AI 윤리와 법제 등 규제도 속속 도입하고 있다.

유럽연합(EU)은 전 세계에서 처음으로 AI에 대한 포괄적, 일반법 성격의 AI법(AI act)을 2024년 5월 21일(이하 현지시각) 확정, 8월 1일 발효했다. 2년 뒤인 2026년 8월에는 전면 시행된다. EU의 AI 법은 AI에 대한 정의부터 사업자의 의무, 처벌 규정 등을 담고 있다. 향후 전 세계 AI 규제에 상당한 영향을 끼칠 것으로 예상된다.

한국도 AI 발전 및 신뢰 기반 조성을 균형 있게 고려한 AI 기본법 제정을 통해 국가의 AI 경쟁력 강화의 제도적 기반과 위험관리 기반을 마련해야 한다는 목소리가 이전부터 나왔다. 이에 제21대 국회(2020~2024년) 회기 중인 2020년부터 AI 법안들이 발의됐다. 회기 중 총 9개의 AI 법안이 발의됐으며 소관 상임위원회에서 7개의 법률안을 병합해 심사한 후 위원회 대안을 제시하기도 했다. 하지만 위원회 대안 등은 제21대 국회 회기 종료로 폐기됐다. 이후 2024년 5월 30일 제22대 국회가 시작되면서 AI 법안들이 다시 발의되기 시작했고, 2024년 7월 26일 기준 6개 법안이 발의된 상태다.

국내 발의 AI 관련 법안 대체로 비슷

제22대 국회에서 발의된 AI 관련 법안은 일부 차이가 있지만 대체로 다음 사항에 관해 규정하고 있다. 첫째 AI에 대해 “학습, 추론, 지각, 판단, 언어의 이해 등 인간이 가진 지적 능력을 전자적 방법으로 구현한 것을 말한다”고 규정하고 있다. 대표적으로 안철수 의원 안은 “자율성을 가지고 외부의 환경 또는 입력에 적응하여 학습, 추론, 지각, 판단, 언어의 이해 등 인간이 가진 지적 능력을 전자적 방법으로 구현한 것을 말한다”고 정의했다. 

둘째 AI 거버넌스에 관한 내용이다. 정부와 민간이 함께 참여하는 AI 위원회 구조를 도입하고 있다. 또 AI 안전연구소, AI 진흥협회 등의 설립 근거도 마련했다. 

셋째 대부분 법안은 사람의 생명, 신체의 안전 및 기본권 보호에 중대한 영향을 미칠 우려가 있는 고위험 영역 AI를 법률에서 구체적으로 열거하고 있다. 하지만 세부 항목에는 차이가 있다. 권칠승 의원 안을 보면 구체적 열거 대신 대통령령으로 위임하는 형식을 취한다. 고위험 AI 관련 사업자의 의무, 고위험 AI 해당 여부를 확인 요청하는 제도, 안전성 확보 조치 등을 정하고 있다. 정점식 의원 안, 안철수 의원 안의 경우 생성 AI를 정의하고 사업자의 사전 고지 의무 등을 정하고 있다.

넷째 AI 산업 진흥을 위해 표준화, 학습용 데이터, 기업 지원, 창업 및 융합 촉진, 전문 인력 양성, 국제 협력 등 산업 기반 조성 및 활성화를 위한 다양한 제도를 도입하고 있다. 조인철 의원 안은 규제 실증 특례를 도입하고 있으며, 김성원·권칠승 의원 안은 네거티브 규제 원칙인 우선 허용 사후 규제 원칙을 적용하고 있다.

AI 위험도 4단계로 나누는 EU, 국내는 고위험에 집중

AI를 위험도에 따라 4단계(수인 불가(Un-acceptable)한 위험·고위험·제한된 위험·최소 위험)로 나누는 EU의 AI 법과 달리 국내에 발의된 AI 관련 법안은 고위험에 대한 규제에 집중하고 있다. 또 고위험 AI에 대한 규제에서도 차이가 있다. EU가 공급자에게 위험관리 시스템, 로그 기록 보존 등 서비스 출시 전 의무와 시정 조치 및 정보 제공, EU 데이터베이스 등록 의무 등 사후적 의무까지 부과하는 것과 달리 국내는 사업자에게만 안전성 확보 조치 정도의 의무를 부과한다. 의무 위반에 대한 제재에서도 EU의 AI 법이 매우 높은 수준의 과징금을 부과하는 반면, 국내에서 발의된 AI 관련 법안은 권칠승 의원 안을 제외하고는 처벌하는 조항이 없다.

구체적으로 EU AI 법의 특성을 보면 금지·고위험 AI에 대해서 매우 강도 높은 의무를 부과하고 있다. 특히 EU 집행위 안에는 포함되지 않은 인공 일반 지능(AGI) 관련 규제도 포함됐다. 기업에는 투자 불확실성 증가 등 상당한 부담이 될 수 있는 내용이다.

EU의 AI 법 참고하되 균형적 법안 추진해

EU의 AI 법이 전 세계에서 처음으로 발효됐지만, 글로벌 표준 규범으로 역할을 할 가능성은 작아 보인다. 미국, 영국, 중국 등 주요국의 AI 패권 경쟁이 가열되고 있기 때문이다. 따라서 우리나라는 EU의 AI 법을 참고하되 규제보다는 AI 기술 발전이 필요한 상황을 인식해 진흥과 규제를 균형적으로 고려한 법안을 추진하는 것이 바람직하다. 제22대 국회에서 발의된 AI 관련 법안들은 그런 취지를 잘 담고 있다고 볼 수 있다.

그럼에도 입법 논의 시 고려할 부분은 있다. 우선 EU는 AI 공급자와 배포자를 구분하고 있는데, 한국도 안철수·권칠승 의원 안과 같이 개발 사업자와 이용 사업자를 구분해 각각의 특성을 반영할 필요가 있다. 또 EU의 위험도에 따른 4단계 규제 접근 방식과 유사하게 국내 AI 관련 법안도 중소기업과 스타트업에 대한 완화된 규제, 자율 규제 등 다양한 수준의 규제를 도입해 산업 진흥과 최소 규제의 조화를 이뤄야 한다.

AI 거버넌스를 구성할 때는 가급적 민간 전문가가 분야별로 참여할 수 있도록 해야 한다. 우리나라의 경우 AI 기술·산업이 초기 단계로 주요국과 경쟁을 해야 하는 상황인 만큼 과도한 부담을 지우는 의무나 벌칙은 지양해야 한다. AI 기술과 산업은 전 분야에 적용되는 범용성을 갖고 있다. 동시에 다른 기술 및 산업보다 향후 발전 방향이나 파급력 등을 예상하기 어려운 특성이 있다. 그러므로 더욱 유연하고 적응력 있는 규제 설계가 필요하다. 이런 이유로 정부가 AI 관련 규제를 주도하는 건 바람직하지 않다. 민간의 자율성을 인정하되 향후 시장이 성숙해 위험 문제가 현실화할 때 꼭 필요한 규제를 보완하는 방식으로 접근해야 한다. 

이성엽 고려대 기술경영 전문대학원 교수