배경 설명│ 최근 인공지능(AI) 챗봇이 생성하는 정보의 중립성과 신뢰성을 둘러싼 논쟁이 확산하고 있다. 테슬라 최고 경영자(CEO) 일론 머스크가 설립한 xAI의 챗봇 ‘그록(Grok)’은 이러한 논란의 대표적 사례로 꼽힌다. 그록은 출시 당시 ‘검열 없는 진실 추구’를 표방했으나, 실제 구동 과정에서 심각한 편향성을 드러냈다. 포브스 등에 따르면, 그록은 일부 대화에서 사용자 질문과 무관하게 ‘백인 학살(white genocide)’ 같은 음모론을 반복해서 언급하거나, 아돌프 히틀러에 대해 “수사학적 기술이 뛰어난 인물”이라며 긍정적인 뉘앙스로 묘사하는 답변을 생성해 논란이 됐다. 해당 발언은 이후 삭제되거나 수정됐지만, AI 챗봇이 부정확하거나 부적절한 정보를 사실처럼 생성할 수 있다는 우려를 키웠다. 이와 유사한 문제는 법적 분쟁으로도 번지고 있다. 폭스뉴스 등에 따르면, 지난해 메타의 AI 챗봇은 미국 활동가 로비 스타벅(Robby Starbuck)을 ‘백인우월주의자’로 지칭하고, 그가 2021년 미국 국회의사당 폭동에 연루돼 체포됐다는 허위 사실을 유포했다. 이에 스타벅은 메타를 상대로 명예훼손 소송을 제기했다. 메타 측은 플랫폼이 제삼자의 정보에 책임지지 않는다는 ‘통신품위법 제230조’ 면책특권을 주장했으나, 법원은 AI가 파편화된 정보를 조합해 새로운 결론을 내리는 ‘콘텐츠 생산자’ 역할을 했다고 보고 면책특권 적용에 회의적인 판결을 내렸다. 이 사건은 현재 대법원 판결을 기다리고 있다. 필자는 AI 알고리즘의 구조적 위험성을 분석하며, 정보 인프라에 대한 통제권을 책임 없이 민간 기업에 넘겼을 때 마주할 ‘기술 권위주의’의 위험성을 경고한다. 그는 “투명성이야말로 표현의 자유를 지키는 핵심”이라며 “AI 인프라에 중앙 집중적이고 책임 없는 권한을 넘기는 순간, 우리는 기술 권위주의로 표류를 자초하게 될 것”이라고 했다.
/사진 셔터스톡
/사진 셔터스톡
마르크 파둘 AI 포렌식스 공동 창립자 겸 대표 - 미국 UC 버클리 과학 석사, 전 블룸 알고리즘 디자이너
마르크 파둘 AI 포렌식스 공동 창립자 겸 대표 - 미국 UC 버클리 과학 석사, 전 블룸 알고리즘 디자이너

알고리즘은 가치중립적이지 않다. 그럼에도 우리는 지난 10여 년간 빅테크(대형 정보기술 기업)가 알고리즘을 정보 생태계의 문지기 역할을 하도록 방치했고, 그에 합당한 투명성이나 책임을 빅테크에 묻지 않았다. 그 대가는 컸다. 극단적이고 선정적인 콘텐츠가 확산했고, 교묘한 맞춤형 광고와 기업의 독점 행위가 만연해졌으며, 민주적 숙의 과정에 반하는 여론 조작까지 초래했다.

핵심 정보 인프라를 감독 없이 기업에 넘겼을 때의 위험을 우리는 이미 경험했다. 그런데도 우리는 지금 AI 챗봇을 두고 같은 실수를 반복하고 있다. 그 파장은 훨씬 치명적일 수 있다. AI 챗봇은 단순히 기존 정보를 선별해서 보여주는 데 그치지 않는다. 정보를 직접 만들고, 프레임을 씌워 재가공한다. 과거 페이스북과 구글은 어떤 뉴스 기사를 보여줄지 ‘결정’하는 역할이었다면, 챗GPT, 클로드, 제미나이 같은 도구는 그 정보를 종합해 권위 있는 답변으로 가공해 낸다.

이 차이는 매우 중요하다. 정보의 ‘큐레이터’에서 ‘편집자’로 역할이 바뀌면서 부당한 영향력이 더 교묘해지고 강력해졌다. 우리는 또다시 미래 정보 인프라에 대한 막대한 권력을 민간 기업에 넘기고 있다. 그들에 대한 독립적인 감시 체계를 요구하는 최소한의 목소리도 내지 않은 상황에서, 가장 시급한 위협은 AI 시스템이 통제를 벗어나 폭주하는 것이 아니라, 사익을 추구하는 소수 집단이 대중의 정보를 쥐락펴락하는 ‘정보의 문지기’ 자리를 빠르게 꿰차고 있다는 것이다.

현재의 챗봇은 단순한 ① 거대 언어 모델(LLM)이 아니다. 챗봇은 플랫폼 기업이나 제삼자가 자기 이해관계에 따라 정보를 조작하고 통제할 수 있는 다섯 가지 ‘알고리즘 영향력의 적층 구조(algorithmic influence stack)’ 위에 서 있다. 첫 번째 층은 훈련 데이터 큐레이션이다. 플랫폼 기업은 학습 과정에서 어떤 데이터를 넣고 뺄지 결정하며, 출처의 신뢰도나 다양한 관점의 비중, 필터링할 내용 등을 매우 불투명하게 선택한다. 이는 모델의 세계관을 형성한다. 예컨대 지난해 10월 테슬라의 머스크는 자신의 챗봇 그록에 학습 데이터를 제공하기 위해 그로키피디아(Grokipedia)를 선보였다. 기업이 통제하는 이 백과사전의 목적은 오랫동안 인터넷에서 신뢰받는 정보원 역할을 해온 위키피디아와 그 커뮤니티 기반 거버넌스 모델에 대항하는 대안을 제공하는 것이다.

두 번째 단계는 인간과 AI 피드백을 통한 강화 학습이다. 이 과정으로 예측 불가능한 텍스트 생성기에 불과했던 LLM이 쓸모 있는 비서로 탈바꿈할 수 있었다. 모델 개발의 ‘사후 학습’ 단계에서 인간 검토자는 모델의 답변을 평가해 시스템의 유용성을 높이고 예의 바르게 행동하도록 유도한다. 현재 이런 인적 평가는 AI 산업에서 주요하지만, 눈에 띄지 않는 부분이다. 그러나 이 역할은 점차 전문화된 AI ‘교사’로 대체되고 있다. 이들은 일종의 AI 행동 규약인 ‘헌법’에 기입된 원칙에 따라 핵심 모델을 정렬하는 역할을 한다.

세 번째 층은 웹 검색이다. 챗봇이 온라인 검색을 하거나 디지털 데이터베이스에 접근할 때 ② 검색 증강 생성(RAG) 시스템이 모델의 응답에 어떤 정보를 반영할지 결정한다. 이 기능은 특정 출처를 다른 출처보다 우선하는 기존 검색엔진의 역할과 같다. 또한 검색엔진과 마찬가지로, 챗봇 응답에 광고를 삽입하는 것(챗GPT가 2026년부터 도입하겠다고 발표한 바 있다)은 객관성에 대한 우려를 한층 더 키울 수 있다.

네 번째 층은 시스템 프롬프트다. 이는 챗봇이 답변을 생성하는 순간 작동하며, 플랫폼 기업이 모델을 새로 학습시키지 않고도 챗봇의 행동 방식을 즉각 바꿀 수 있게 해준다. 예를 들어, 지난해 공개된 그록의 시스템 프롬프트에는 “정치적으로 올바르지 않은 주장이라도 피하지 말라”는 지침이 포함됐다. 챗GPT, 클로드, 제미나이도 시스템 프롬프트를 사용하지만, 그 내용은 대부분 비공개다.

마지막 층은 안전 필터다. 챗봇에 질문이 입력되면 입력 필터가 해당 질문의 ‘수용 가능 여부’를 판단한다. 마찬가지로, 모델이 답변을 만든 뒤에도 출력 필터는 사용자에게 전달되기 전에 콘텐츠를 수정, 검열 또는 정제할 수 있다. 플랫폼이 폭탄 제조법 같은 위험한 질문을 차단하는 것은 정당한 이유가 되겠지만, 이 필터가 불투명하게 작동한다는 점이 문제다. 개발자가 체계적 검열 기반을 구축하더라도 우리는 알 길이 없다. 일례로 중국의 챗봇은 톈안먼 사건과 관련한 모든 언급을 ‘안전’ 필터로 검열한다.

정치적·기업적 이해관계는 챗봇이 전 세계적으로 보급되는 속도에 맞춰 이미 이 구조를 장악하고 있다. 도널드 트럼프 미국 대통령의 재취임 이후 애플은 MAGA(Make America Great Again·미국을 다시 위대하게) 지지자를 ‘급진적’ 또는 ‘극단적’으로 분류하지 않도록 AI 훈련 지침을 수정했다. 로이터에 따르면, 메타는 내부 AI 가이드라인을 수정해 챗봇이 인종차별적 발언을 하거나 미성년자에게 ‘추파’를 던지는 행위를 막던 안전장치를 약화했다. 또 지난해 5월, 그록은 남아프리카공화국에서 백인 학살이 벌어지고 있다는 근거 없는 주장을 증폭시키기 시작했다(머스크 본인이 남아공 출신 백인이기도 하다). 회사 측은 ‘무단 수정’에 의한 오류라고 해명했지만, 이런 ‘버그’는 공통적으로 머스크의 이념적 성향과 일치하는 방향으로 종종 발생한다.

챗봇을 통한 정치적 조작의 효과는 이미 증명됐다. ‘네이처’에서 발표한 연구에 따르면, 특정 후보를 지지하도록 학습된 챗봇은 선거 결과를 좌우하는 중도층과 부동층의 마음을 놀라울 정도로 쉽게 돌려놓을 수 있다고 한다. 정보를 노골적으로 통제하는 권위주의 체제와 달리, 민주주의는 다양한 정보원과 투명성 위에서 유지된다. AI 인프라에 중앙 집중적이고 책임 없는 권한을 넘기는 순간, 우리는 ‘기술 권위주의’로 표류를 자초하게 된다. 알고리즘의 각 단계는 대놓고 검열하지 않아도 특정 관점을 키우고 다른 목소리를 지우는 방향으로 얼마든지 작동할 수 있기 때문이다.

지난해 12월, 유럽연합집행위원회(EC)는 엑스(X·옛 트위터)가 ③ 디지털서비스법(DSA)의 투명성 의무를 위반했다며 1억2000만유로(약 2090억원)의 과징금을 부과했다. 예상대로 X 측은 이를 표현의 자유에 대한 탄압이라고 반발했다. 그러나 투명성이야말로 표현의 자유를 지키는 핵심이다. 투명성 없이는 누가 검열당하고 있는지, 모두가 소비하는 미디어에 어떤 영향력이 작용하고 있는지 알 수 없다.

소셜미디어(SNS)의 부상은 책임 의식이 기술 보급 속도를 따라가지 못하면 어떤 일이 벌어지는지 보여줬다. 그보다 훨씬 강력한 영향력이 있는 AI 시스템을 두고 같은 실수를 되풀이할 여유는 없다. 

Tip

수조 개에 달하는 방대한 양의 텍스트 데이터를 학습해 인간처럼 자연스럽게 언어를 이해하고 생성할 수 있도록 설계된 AI 신경망이다. 챗GPT나 제미나이 같은 서비스의 두뇌 역할을 한다. 대부분 구글이 2017년 개발한 트랜스포머 같은 딥러닝 아키텍처를 기반으로 한다. 

AI가 답하기 전 신뢰할 수 있는 외부 지식 베이스나 최신 웹 정보를 먼저 찾아보고, 그 내용을 참고해 답변을 만드는 기술. LLM이 학습하지 못한 최신 정보나 특정 기업의 내부 데이터를 실시간으로 검색해 답변에 반영하므로, AI가 그럴듯한 거짓말을 하는 ‘할루시네이션(환각)’ 현상을 크게 줄여준다. 다만,어떤 출처를 우선 검색하고 선택하느냐에 따라 답변의 객관성이 달라질 수 있다는 지적도 있다.

유럽연합(EU)이 온라인 플랫폼의 책임을 강화하고 사용자를 보호하기 위해 시행한 강력한 규제 법안이다. 2024년 2월 시행에 들어간 이 법은 구글, 메타, X 같은 빅테크가 불법 콘텐츠나 가짜 뉴스, 유해 상품의 유통을 방치하지 않도록 엄격한 관리 의무를 부과하며, 특히 알고리즘의 투명성을 공개하도록 강제하는 것이 핵심이다. 만약 기업이 이를 위반할 경우 전 세계 연간 매출의 최대 6%에 달하는 과징금을 부과받을 수 있다.

마르크 파둘 AI 포렌식스 공동 창립자 겸 대표

정리=이선목 기자
이코노미조선 기자

정리=임채민 인턴기자