최용민광운대 경영학 박사, 무역협회 전 FTA통상연구실장, 전 베이징 지부장, 전 동향분석실장, 전 경영관리본부장
최용민
광운대 경영학 박사, 무역협회 전 FTA통상연구실장, 전 베이징 지부장, 전 동향분석실장, 전 경영관리본부장

최근 국내에서 인공지능(AI) 챗봇 ‘이루다’를 두고 논란이 뜨겁다. 새로운 형태의 서비스라는 점에서 관심이 높았지만 예상치 못했던 부적절한 표현 등의 문제가 불거지면서 곧바로 고객의 시야에서 사라졌다. 개발사는 부족한 부분을 보완하여 조만간 서비스를 재개하겠다고 약속했지만 앞으로 AI와 관련된 논란은 쉽게 가라앉지 않을 것으로 보인다. 단순히 번역상의 문제 그리고 적법한 정보의 활용 여부를 뛰어넘어 AI 관련 윤리규범과 그에 따른 부작용을 줄이려는 노력을 소홀히 하면서 기술개발에만 시선을 고정한 최근의 세태와 무관하지 않기 때문이다.

특히 AI가 우리의 일상을 깊숙이 파고들고 기업의 업무를 빠르게 대체하고 있지만 상당수 개발자는 물론 대다수의 이용자들은 구체적인 위험도나 활용상 문제점을 잘 모르고 있다. 시야를 글로벌 차원으로 넓히면 가이드라인도 다수 발견되지만 실제 적용 측면에서 미흡한 점이 적지 않다. 그래서 AI 관련 기술개발과 활용에 대한 긍정적인 측면에만 박수를 보내면서 그 효과를 부풀리고 부작용은 눈 감은 것 아니냐는 자성론이 부상하고 있다.

최근 국내에서 불거진 AI 윤리 논란은 초보적인 내용으로 어쩌면 시작에 불과하다. 도덕적인 문제에 그치지 않고 실생활에서 경제적인 피해도 입을 수 있다. 나도 모르게 내 정보가 쉽게 활용되고 통제받지 않은 부정확한 정보로 둔갑한다면 막심한 손해를 볼 수 있기 때문이다. 글로벌 시각에서 볼 때 AI와 관련되어 인류의 인권과 안전이 위협받을 수 있다는 예측에도 쉽게 도달한다.

1월 초에 미국의 싱크탱크가 워싱턴에서 개최한 웹세미나에서 한 연사는 스스로 당한 어처구니없는 사례를 공개하였다. 자신과 이름이 같은 뉴저지 거주자가 미납한 통신료로 인해 전혀 무관한 자신의 신용등급이 강등되었으나 통신사는 이를 수정할 법적 의무가 없다는 이유로 힘든 시간을 보냈다고 토로하였다. 금융사가 빅데이터를 토대로 개인 신용점수제를 시행하는데 AI는 이들 자료에 의존하여 신용카드 수수료율과 대출이자율을 등락시키면서 쉽게 오류에 빠질 수 있다고 어이없어했다. 이 발표자는 빅데이터를 통한 신용 조정이 법적으로도 타당한지 의문이라고 덧붙였다. 또한 그는 전통적인 미국식 이름이 개인 이메일과 이력서 등에 사용되면 그러지 않은 경우보다 신용등급에서 가점을 받는다는 다소 황당한 AI 오류도 전했다. 예컨대 이민자를 추정할 수 있는 이름이나 민족(국가) 색이 짙은 문자가 들어간 경우 인종차별과 마주할 가능성이 충분히 존재한다고 강조하였다. 일부 의료서비스가 AI의 안면인식시스템에 의존하면서 피부색이나 작은 외모 변화에도 오작동하는 문제를 해결해야 한다는 주장도 힘을 얻는다.

중국 등 일부 권위주의 국가에서 AI를 국민에 대한 통제 도구로 사용하는 것에 대한 우려는 이미 오래전부터 지적되고 있다. 신종 코로나 바이러스 감염증(코로나19) 팬데믹(감염병 대유행) 상황에서 효과적인 방역을 위해 안면인식 기술을 활용하기도 하지만 동일한 기술이 정치적 목적으로 특정 인물에 대한 추적이나 통제에 사용될 수도 있기 때문이다. 특히 국가안보를 이유로 안면인식 AI 기술을 무분별하게 사용할 경우 개인의 사생활 침해로 자유가 억압될 수 있다. 통제장치 없이 군사적으로 남용된다면 보다 끔찍한 결론도 예상된다. 고도화된 AI 기술이 무기에 응용되면서 인간의 직접적인 의사결정 없이 AI의 자율적 판단에 따라 인명 살상이 행해질 수 있는 셈이다.


윤리 논란으로 서비스 중단을 공지한 AI 이루다 사이트. 사진 스캐터랩
윤리 논란으로 서비스 중단을 공지한 AI 이루다 사이트. 사진 스캐터랩

우리는 그동안 AI의 찬양에만 매몰되어 부작용에 제대로 눈을 돌리지 못했다. 국경이 없어지는 디지털 경제의 핵심이라는 측면에서 구체적인 대안을 국제적인 공조를 통해 찾아야 한다. 2019년 5월에 OECD(경제협력개발기구)는 AI에 대한 의미 있는 의견을 회원국의 만장일치를 통해 내놓았다. 브라질과 아르헨티나 등 12개 비회원국도 이 권고를 따르기로 하였다. 골자는 AI 활용이 포괄적이고 호혜적인 협력을 기반으로 민주주의와 다양성의 가치를 제고하는 방향을 추구해야 하며 오남용에 대한 안전장치 필요성도 언급되었다.

세계적인 기업들의 가이드라인도 얼굴을 내밀고 있다. 선도적인 IT 기업인 마이크로소프트(MS), 구글(Google), IBM 등이 그 주인공이다. 이들은 사용자에 대한 신뢰를 확보하기 위해 AI에 대한 정밀한 규제를 만들어야 한다는 데 대체로 동의하며 그 원칙은 책임, 투명성, 공정성, 보안이라고 강조하고 있다. IBM정책연구소는 이런 대원칙하에 5가지 가이드라인을 공론화하였다. 우선 회사별로 윤리책임자를 지정하여 시스템 위험을 완화하고, 사업별로 맞춤형 규정을 수립하여 위험요소를 사전에 제거하며 기업 차원에서 영업비밀이나 지식재산권을 공개까지는 아니더라도 해당 서비스에서 AI가 어떤 목적으로 시스템에 적용되었는지 밝혀야 한다.

또한 사용자가 납득할 수 있도록 AI의 의사결정 과정을 역으로 추적할 수 있어야 한다는 의견을 제시하였다. ‘결과가 이것이니 닥치고 수긍하라’는 식이 아니라 모든 AI 시스템은 결론에 도달한 방법과 이유를 상황에 맞게 설명할 수 있어야 한다는 것이다. 마지막으로 중요한 요소가 편향성에 대한 테스트다. 기업들이 서비스하는 시스템이 공정성(편향성)과 보안성 측면에서 문제가 없는지를 점검하는 프로세스가 필요한데 이는 기업 내부 관리자와 정부 간 협업모델을 통해 완성되어야 한다는 것이다.

최근 합의된 국가 간 디지털 무역협정에서도 AI 윤리에 대한 언급이 등장하여 주목을 받고 있다. 칠레-뉴질랜드-싱가포르 간에 체결된 디지털경제동반자협정(8-2항)은 AI 기술의 사용에 있어 윤리적 틀에서 신뢰, 안전, 책임을 다해야 한다고 명시하였다. 또한 동협정은 국경 없는 디지털 경제의 특성을 감안하여 양측 모두 윤리적 프레임 구축에 노력할 것도 의무사항으로 덧붙였다. 지난해에 호주와 싱가포르는 AI만을 대상으로 MOU를 체결하였다. MOU는 경제적인 협력에 주안점을 두고 있지만 윤리적인 거버넌스도 논의함을 목적으로 한다고 명시하여 내용 면에서 선도적이다. EU(유럽연합)도 AI에 대한 윤리강령 설정에 높은 관심을 보이고 있다. 데이터 통제와 프라이버시를 중요시하고 투명성과 비차별성도 간과해서는 안 된다고 주장한다. 인간의 자율성을 존중하되 피해방지에도 노력하라는 것이 골자다. 그러나 이런 국제적인 논의도 구체적이고 실질적인 내용이라는 측면에서는 좋은 점수를 받기 힘들다.

AI는 디지털 경제의 핵심이자 미래의 성장동력이다. 국내 기업들은 기술을 개발하고 필요시 국경을 넘나드는 협력에 나서고 있다. 그 과정에서 일부 부작용이 나타나더라도 브레이크를 걸기보다는 그것을 치유하면서 앞으로 나아가야 한다. 한국인공지능윤리협회가 2인3각 경기처럼 AI 기술과 윤리는 함께 가야 한다고 말하는 것과 맥을 같이한다. AI 기술이 개별 기업의 경쟁력은 물론 향후 3∼5년 내 우리나라의 산업 판도와 국제 경쟁력을 결정할 게임체인저(Game Changer)로 거론되는 절박함을 감안할 때 더욱 그러하다. 단순히 IT 분야를 위시한 서비스업뿐만 아니라 전통 제조업도 이런 파고에서 무관하지 않다.

민·관·학이 머리를 맞대고 글로벌 차원에서 AI 윤리규범이 쉽게 실행될 수 있도록 꾸준히 업그레이드하고 개발자와 이용자에 대한 경각심 제고에도 소홀해서는 안 된다. 특히 기업들이 AI를 통해 마음껏 미래 산업의 꿈을 펼치도록 투명하고 안전한 플랫폼 위에서 연구개발(R&D)과 응용은 활성화되어야 한다. 더불어 정부도 지난해 12월에 AI 윤리를 제정한 데 만족하지 말고 통상 차원에서 AI를 디지털무역의 핵심 어젠다로 선정하고 WTO(세계무역기구) 등 다자 틀에서 보다 구체적인 윤리규범 논의가 이뤄지도록 주도해야 한다.