배경 설명│ 유럽연합(EU)이 세계 최초로 ‘인공지능(AI)법’을 통과시켰다. 이는 AI 규제안을 준비하는 세계 각국에 입법 모델의 역할을 할 것으로 보이지만, 일각에서는 AI 분야의 성장을 위축시킬 수 있다는 우려의 목소리도 나왔다. EU 의회는 3월 13일(이하 현지시각) 프랑스 스트라스부르에서 열린 본회의에서 ‘AI법’ 최종안이 찬성 523표로 가결됐다고 밝혔다. 이 법은 EU 27개 회원국이 각각 의회 비준을 거치고, EU 공식 관보에 게재되면 발효된다. 이후 회원국별로 단계적으로 도입돼 2026년 전면 시행된다. 최종안에 따르면 EU는 AI 활용 분야를 총 네 단계의 위험 등급으로 나눠 차등 규제할 계획이다. 고위험 등급으로 분류되는 의료, 교육을 비롯한 공공 서비스나 선거, 핵심 인프라, 자율주행 등에서 AI 기술을 사용할 때 사람이 반드시 감독하도록 하고 위험관리 시스템을 구축해야 한다. ① 범용 AI(AGI) 개발사에는 ‘투명성 의무’를 부여했다. AGI 업체들은 EU 저작권법을 반드시 준수해야 하고, AI의 학습 과정에 사용한 콘텐츠를 명시해야 한다. 개인의 특성, 행동과 관련한 데이터로 개별 점수를 매기는 ‘사회적 점수 평가(소셜 스코어링)’ 등 일부 AI 기술 활용은 원천 금지된다. 이외에도 딥페이크 영상과 이미지는 AI로 만든 콘텐츠라는 점을 표기하도록 했다. 법을 위반한 기업은 경중에 따라 전 세계 매출의 1.5%에서 최대 7%의 과징금을 물어야 한다. 법이 가결되자 유럽의 기업들은 우려를 표출했다. 유럽 디지털 업계 이익 단체 ‘디지털 유럽’의 세실리아 본펠드 달 사무총장은 “(유럽이) 27개가 아닌 하나의 규칙을 가지게 된 것을 기쁘게 생각한다”면서도 “그러나 AI법은 다른 국가 기업이 갖지 않는 추가적인 부담을 유럽 기업에 지울 것”이라고 우려했다. 이어 “의료 분야의 AI는 고위험 범주에 속하는데, 유럽의 의료 AI 스타트업 보석들이 유럽을 떠나는 것을 어떻게 막을 수 있을까”라고 덧붙였다. 필자는 이에 대해 “혁신을 방해한다는 주장이 있지만, 일관된 규제는 기술 혁신가가 신제품을 개발하는 데 필요한 확신을 준다”라며 “규제 당국으로서 EU는 안전과 대중의 신뢰를 보장하는 의무를 다함으로써 기술이 번성할 수 있는 조건을 만들었다”고 주장한다.
EU 의회 의원들이 3월 13일 프랑스 스트라스부르에서 열린  본회의에서 AI법에 대한 찬반 투표를 하고 있다. /AP연합
EU 의회 의원들이 3월 13일 프랑스 스트라스부르에서 열린 본회의에서 AI법에 대한 찬반 투표를 하고 있다. /AP연합

바르샤바에서 동쪽으로 325㎞(200마일) 떨어진 포즈난(Poznan)에서는 기술 연구원, 기술자, 보육사로 구성된 팀이 작은 혁명을 만들고 있다. 그들의 공동 프로젝트인 ② ‘인센션(Insension)’은 AI 얼굴 인식 기능을 사용해 다중 장애를 가진 아이들을 돕는다. 이는 빠르게 발전하는 기술의 힘을 입증한다.

수천㎞ 떨어진 베이징 거리에서 정부 관리들은 AI 기반 안면 인식을 사용해 시민의 일상적인 움직임을 추적하고 전체 인구를 면밀히 감시한다. 같은 기술이지만 결과는 근본적으로 다르다. 이 두 가지 예는 광범위한 AI 문제를 요약한다. 기본 기술은 그 자체로는 좋지도 나쁘지도 않다. 모든 것은 그것이 어떻게 사용되는지에 달려 있다.

우리의 접근 방식은 다음과 같은 간단한 원칙으로 요약된다. AI가 위험할수록 AI를 개발하는 사람들의 의무는 더욱 강해진다. AI의 본질적인 이중적 특성은 기술 자체보다는 AI의 활용에 초점을 맞춘 규정인 ‘유럽 AI법’을 설계하는 데 영향을 미쳤다. 

마그레테 베스타거유럽연합(EU) 집행 위원회 수석부회장
전 EU 집행위원회 경쟁위원, 전 덴마크 경제·내무부 장관
마그레테 베스타거
유럽연합(EU) 집행
위원회 수석부회장
전 EU 집행위원회 경쟁위원,
전 덴마크 경제·내무부 장관

AI는 이미 휴대전화 잠금 해제부터 선호도에 따른 노래 추천까지 우리가 매일 수행하는 수많은 무해한 기능을 지원한다. 우리는 이러한 모든 사용을 규제할 필요가 없다. 그러나 AI는 삶의 결정적인 순간에 점점 더 많은 역할을 하고 있다. 은행이 누군가의 신용을 평가하는 것은 단순히 대출 자격 여부를 판단하기만 하는 것이 아니다. 이는 차주가 부를 쌓고 재정적 안정을 추구하게 하기도 한다. 고용주가 감정 인식 소프트웨어를 채용 과정에서 추가적으로 사용하거나 AI를 사용해 뇌 이미지에서 질병을 감지하는 경우에도 마찬가지다. 후자는 단순한 일상적인 건강검진이 아니라 말 그대로 생사가 걸린 문제다.

이러한 경우 새로운 규제는 AI 개발자에게 상당한 의무를 부과한다. 그들은 시스템을 시장에 출시하기 전에 위험 평가 실행부터 기술적 견고성, 인적 감독 및 사이버 보안에 이르기까지 다양한 요구 사항을 준수해야 한다. AI법은 우리의 가장 근본적인 가치에 명백히 반하는 모든 사용을 금지한다.

일각에서는 이러한 높은 수준의 통제가 혁신을 방해한다고 주장하지만, 유럽에서는 이를 다르게 본다. 우선 일관된 규제는 기술 혁신가가 신제품을 개발하는 데 필요한 확신을 준다. 더 중요한 점은 최종 사용자가 AI를 신뢰하지 않는 한 AI는 긍정적인 잠재력을 발휘하지 못한다는 것이다. 여기에서는 다른 어떤 분야보다도 신뢰가 혁신의 원동력이 된다. 규제 당국으로서 우리는 안전과 대중의 신뢰를 보장하는 의무를 다함으로써 기술이 번성할 수 있는 조건을 만들 수 있다.

물론 큰 위험 중 하나는 우리가 항상 가짜와 진짜를 구별하지 못할 수도 있다는 것이다. AGI가 생성한 ‘딥페이크’는 이미 스캔들을 일으키며 뉴스 헤드라인을 장식하고 있다.

이러한 콘텐츠가 개인의 정신 건강에 미칠 수 있는 피해를 상상하기란 어렵지 않다. 하지만 선거처럼 훨씬 더 광범위한 범위에서 적용된다면 전체 인구를 위협할 수 있다. AI법은 이 문제에 대한 간단한 대응책을 제시한다. AI가 생성한 콘텐츠에 라벨을 붙여 모든 사람이 실제가 아님인 것을 즉시 알 수 있도록 한다. 즉, 제공 업체는 합성 오디오, 비디오, 텍스트 및 이미지를 기계가 판독 가능한 형식으로 표시하고 인위적으로 생성되거나 조작된 것으로 감지할 수 있는 방식으로시스템을 설계해야 한다.

유럽은 AI 규제의 첫발을 내디뎠지만, 그 노력은 이미 다른 곳에서 대응책을 마련하는 데 도움이 되고 있다. ‘신뢰할 수 있고 책임감 있는 AI 기술 발전을 위한 위험 기반 접근법’ 에 대해 유럽과 협력하고 있는 미국을 비롯해 다른 많은 국가가 유사한 프레임워크를 채택하기 시작하면서, 우리의 전반적인 접근 방식이 올바른 접근법이라고 확신한다. 불과 몇 달 전, ③ 세계 주요 7개국(G7) 지도자들이 최초로 AI에 관한 행동 지침을 마련할 수있도록 영감을 줬다. 이러한 종류의 국제 가드레일은 법적 의무가 시작될 때까지 사용자를 안전하게 보호하는 데 도움이 된다.

AI는 좋지도 나쁘지도 않다. 하지만 전 세계적으로 복잡하고 모호한 AI 시대가 열릴 것이다. 유럽에서는 이를 반영한 규정을 마련했다. 이 법안은 다른 어떤 EU 법안보다 권리와 책임, 혁신과 신뢰, 자유와 안전 사이에서 신중한 균형을 맞추는 행위가 필요했다고 생각한다. 

Tip│

사람과 유사한 수준 혹은 그 이상의 지능을 갖춘AI를 뜻한다. 단순한 특정 작업에 특화된 AI와 달리 다양한 인지적 작업을 수행하고, 다양한 도메인에서 학습한 지식을 활용해 문제를 해결할 수 있다.

폴란드 포즈난 슈퍼컴퓨팅·네트워킹센터(PSNC)가 EU의 지원하에 추진하는 프로젝트로, 장애의 정도가 매우 심한 두 가지 이상의 장애를 가진 중도·중복장애인의 의사소통을 돕는 플랫폼 개발이 목적이다. 표정 인식과 음성인식, 생리적 지수, 사물인터넷(IoT), 행동 패턴 인식 등 다양한 기술을 활용하고 있다.

G7 국가는 2023년 10월 30일 첨단 AI 시스템 개발기업을 위한 행동 강령을 도입하는 데 합의했다. 11개 항목으로 구성된 행동 강령에는 AI 수명 주기 전반에 걸쳐 위험을 식별·평가하고, 강력한 보안 통제에 투자하도록 하는 내용이 담겼다. 구속력은 없지만 세계 각국이 마련할 AI 규제법의 기준점이 됐다는 분석이 나온다.