감정 처리 유닛(EPU)을 적용해 스스로 감정을 조합할 수 있는 AI 여배우 레이첼(Rachael) https://youtu.be/VjGbepfOk8s. 사진 이모셰이프 홈페이지
감정 처리 유닛(EPU)을 적용해 스스로 감정을 조합할 수 있는 AI 여배우 레이첼(Rachael) https://youtu.be/VjGbepfOk8s. 사진 이모셰이프 홈페이지
패트릭 레비-로젠탈 이모셰이프 창업자 겸 CEO 전 오디오트랙(Audiotrack) 창업자 겸 CEO, 전 피트복스(Pitvox) 창업자 겸 CEO, 전 D&L 퓨처스(Futures) CEO 사진 패트릭 레비-로젠탈
패트릭 레비-로젠탈 이모셰이프 창업자 겸 CEO 전 오디오트랙(Audiotrack) 창업자 겸 CEO, 전 피트복스(Pitvox) 창업자 겸 CEO, 전 D&L 퓨처스(Futures) CEO 사진 패트릭 레비-로젠탈

다른 사람의 편지를 대신 써 주는 대필 작가 테오도르는 아내와 별거 중이다. 타인의 마음을 전해주는 일을 하고 있지만, 정작 테오도르 자신은 외롭고 공허하기만 하다. 그러다 어느 날 스스로 생각하고 느끼는 인공지능(AI) 운영체제 ‘사만다’와 만나게 된다. 자기 말에 귀 기울여주고 이해해 주는 사만다에게 테오도르는 사랑을 느끼기 시작한다. 2013년 개봉한 영화 ‘허(Her)’의 내용이다.

인간의 감정을 읽는 AI 개발 벤처 기업 이모셰이프(EmoShape)의 창업자 겸 최고경영자(CEO) 패트릭 레비-로젠탈은 4월 27일 ‘이코노미조선’과 서면 인터뷰에서 “감정과 지각이 있는 AI와 인간이 교류하는 것은 더 이상 먼 미래의 일이 아니다”라고 말했다. 그는 인스타그램·스냅챗 등에 자주 사용되는 시각 효과 필터(filter)를 개발한 개발자 출신으로, 2009년 영국에서 이모셰이프를 설립했다. 이모셰이프의 혁신적인 기술은 ‘와이어드’ ‘포브스’ 등 여러 언론에 소개된 바 있다. 다음은 레비-로젠탈과 일문일답.


이모셰이프의 AI는 어떻게 인간의 감정을 읽고, 인간과 교류할 수 있나.
“우리의 혁신적인 알고리즘은 분노·공포·슬픔·무관심·후회 등 인간의 12가지 주요 감정에 따라 반응하도록 설계됐다. 또한 ‘감정 처리 유닛(EPU·Emotion Processing Unit)’은 AI가 자체적으로 고통·기쁨·좌절 등을 경험하도록 할 수 있다. 이러한 기술 덕분에 (인간과의) 대화에서 감정 파악 정확도가 86% 이상이다. 우리의 가장 혁신적인 기술은 EPG(Emotion Profile Graph) 계산 기능을 사용한 실시간 감정 평가 및 강화 학습 기술이다. 이는 AI가 64조 개의 감정 상태를 경험하게 해서 보다 인간에 가까워지게 만들었다.”

AI 스스로 감정을 느낄 수 있단 말인가.
“그렇다. 다른 회사들은 AI가 어떤 특수한 감정 상태를 자각하고 분석하도록 하는 데 주안점을 두고 있다. 하지만 우리는 인지 평가, 반응, 음성·표정 응용 기법 등을 사용해 AI가 스스로 감정 상태를 만들어내고, 감정을 조합(synthesize)하는 단계까지 갔다. 예를 들어보겠다. 일반적인 경우, 인간이 AI에 ‘너를 좋아해’라고 말하면, AI는 ‘행복해’라고 답한다. 몇 번이고 똑같이. 하지만 감정 조합을 할 수 있는 AI는 처음 ‘너를 좋아해’라고 하면 ‘행복해’라고 답했다가, 두 번째로 같은 말을 하면 ‘황홀해’ 했다가, 10번 이상 같은 말을 반복하면 짜증스러운 반응을 보인다. 이것이 감정 분석(sentiment analysis)과 감정 조합(emotion synthesis)의 차이다.”

감정 조합이 왜 중요한가.
“최근까지 기계는 스스로 어떠한 감정적 상태를 만들어낼 수 없었다. 그렇기 때문에 AI는 공감을 흉내 낼 수 있을 뿐, 인간에게 제대로 공감하기 어려웠다. 하지만 AI가 감정 상태를 만들어낼 수 있으면 감정적 추론과 의사 결정을 통해 (인간이 처한) 여러 상황을 감정적으로 이해하고, 인간에게 공감하게 된다.”

AI의 감정 인식·조합 기술이 실생활에서 어떤 도움을 주나.
“내가 가장 좋아하는 사례는 자폐증 아동 헬스케어 센터에 우리의 기술을 적용한 가상 간호사(virtual nurse)를 도입한 고객이다. 이 가상 간호사는 아동의 표정과 행동을 분석해서 아동이 느끼는 통증을 평가할 수 있다.” 

인간도 상대방의 감정을 항상 알아맞히진 못한다. 그런데 AI가 그걸 할 수 있을까.
“인간처럼 기계도 상대방의 마음을 ‘짐작’할 뿐이고, 당연히 인간처럼 실수할 수 있다. 아직 AI가 주도할 미래는 시작 단계에 불과하다. 하지만 지금보다 기술이 조금 더 발전하면 감정을 인식하는 AI가 우리 삶을 더 나은 방향으로 이끄는 데 이바지할 수 있다고 생각한다.” 

감정 인식 AI 개발에 관심을 두게 된 계기는.
“2014년 런던 임페리얼 칼리지에서 강연 당시, 이번 세기말 무렵엔 인간이 같은 인간 보다 감정을 읽을 수 있는 AI와 더 자주 대화를 나눌 것이라고 얘기했었다. 인간에게 사회적 교류 욕구, 인간 대 인간의 상호 작용에 대한 근본적 욕구가 있다는 점을 감안하면, 이런 예견은 놀라운 일이 아니다. 아직은 AI가 이런 인간의 욕구를 해결할 수 없지만, 2050년 혹은 2090년이 되면 상황은 지금과는 많이 달라져 있을 것이다.”

향후 계획은 뭔가.
“우리가 추진 중인 ‘메타소울(MetaSoul)’ 프로젝트는 디지털 세상에서 새로운 인류 혁명이 될 것이다. 세계 수십억 명의 사람이 매일 소셜미디어를 이용하고, 게임을 하고, 디지털 자산과 가상현실 속 자신의 또 다른 자아(alter ego)를 돋보이게 만드는 필터에 수십억달러를 쓴다. 그런데 불행하게도 이러한 디지털 개체엔 한 가지 공통점이 있다. 바로 영혼이 없다는 것이다. 메타소울은 인간이 가상현실에서 자신의 내적 자아(inner self)를 반영한 고유한 디지털 영혼을 만드는 프로젝트다. 메타버스(metaverse·현실과 가상이 혼합된 세계) 안에서 지속해서 진화할 수 있는 디지털 영혼은 미래에 인간이 메타버스와 상호 교류하는 방식을 완전히 뒤바꿔 놓을 것이다.”

디지털 세상에서 여전히 인간의 감정이 중요할 것이라고 생각하나.
“물론이다. 감정과 공감은 중요할 뿐 아니라 (인간에게) 필수적이다. ‘공감’은 인간이라는 종족이 생태계에서 살아남을 수 있도록 한 중요한 생존 기술이다. 디지털 세상에서도 마찬가지다. 메타버스는 현실 세계의 거울, 혹은 연장(extension)으로 볼 수 있다. 현실 세계에서 우리가 감정을 느낀다면, 디지털 세상에선 우리의 아바타가 조합된 감정, 고통, 기쁨과 공감을 느끼게 될 것이다.”


plus point

인간에 가까워지는 AI, 인간 대체할 수 있을까

기술의 발달로 인간과 비슷한, 혹은 인간의 역량을 뛰어넘는 AI가 잇따라 등장하고 있다. 아직 AI가 따라잡지 못한 부분은 인간의 감성적인 영역 정도밖에 없다. 먼 훗날 인류가 인간과 비슷한 감정을 느낄 수 있는 AI를 개발한다면, AI는 인간을 대체하지 않을까. 이러한 우려에 대해 많은 전문가는 기계가 절대 인간의 감정을 완전히 재현할 수는 없을 것이라고 지적한다. 인간과 비슷한 감정을 느끼는 로봇이 ‘휴먼 터치’에 대한 인간의 욕구를 채워줄지언정 결코 인간은 될 수 없을 것이라는 이야기다.

케임브리지대 리스크 연구센터(Center for the Study of Existential Risk)의 알렉사 하게티(Alexa Hagerty) 교수는 미국 뉴스 웹사이트 ‘더 버지(The Verge)’와 인터뷰에서 인간의 표정·동작 등으로 감정을 추론하는 기술을 가리켜 “이런 기술은 얼굴과 내면의 감정이 예측 가능한 방식으로 상호 연관돼 있다는 것을 전제로 한다. 이를테면 웃으면 행복하고, 눈살을 찌푸리면 화가 난다고 보는 식이다. 하지만 사람의 감정은 얼굴 움직임만으로 쉽게 추론할 수 있는 게 아니다”라고 말했다.

마이크 슈스터(Mike Schuster) 구글 번역 총괄 연구원도 2017년 ‘이코노미조선’과 인터뷰에서 “구글 번역기가 인간을 대체할 수 있느냐”는 질문에 “AI가 아무리 발전해도 인간의 번역을 완전히 대체할 수 없을지도 모른다. 언어는 단순한 도구가 아니라, 그 이상의 것이기 때문이다”라고 답변한 바 있다.

오윤희 기자

  • 목록
  • 인쇄
  • 스크랩
  • PDF 다운
ⓒ 조선경제아이 & economychosun.com