배경 설명│ 최근 인공지능(AI) 챗봇이 생성하는 정보의 중립성과 신뢰성을 둘러싼 논쟁이 확산하고 있다. 테슬라 최고 경영자(CEO) 일론 머스크가 설립한 xAI의 챗봇 ‘그록(Grok)’은 이러한 논란의 대표적 사례로 꼽힌다. 그록은 출시 당시 ‘검열 없는 진실 추구’를 표방했으나, 실제 구동 과정에서 심각한 편향성을 드러냈다. 포브스 등에 따르면, 그록은 일부 대화에서 사용자 질문과 무관하게 ‘백인 학살(white genocide)’ 같은 음모론을 반복해서 언급하거나, 아돌프 히틀러에 대해 “수사학적 기술이 뛰어난 인물”이라며 긍정적인 뉘앙스로 묘사하는 답변을 생성해 논란이 됐다. 해당 발언은 이후 삭제되거나 수정됐지만, AI 챗봇이 부정확하거나 부적절한 정보를 사실처럼 생성할 수 있다는 우려를 키웠다. 이와 유사한 문제는 법적 분쟁으로도 번지고 있다. 폭스뉴스 등에 따르면, 지난해 메타의 AI 챗봇은 미국 활동가 로비 스타벅(Robby Starbuck)을 ‘백인우월주의자’로 지칭하고, 그가 2021년 미국 국회의사당 폭동에 연루돼 체포됐다는 허위 사실을 유포했다. 이에 스타벅은 메타를 상대로 명예훼손 소송을 제기했다. 메타 측은 플랫폼이 제삼자의 정보에 책임지지 않는다는 ‘통신품위법 제230조’ 면책특권을 주장했으나, 법원은 AI가 파편화된 정보를 조합해 새로운 결론을 내리는 ‘콘텐츠 생산자’ 역할을 했다고 보고 면책특권 적용에 회의적인 판결을 내렸다. 이 사건은 현재 대법원 판결을 기다리고 있다. 필자는 AI 알고리즘의 구조적 위험성을 분석하며, 정보 인프라에 대한 통제권을 책임 없이 민간 기업에 넘겼을 때 마주할 ‘기술 권위주의’의 위험성을 경고한다. 그는 “투명성이야말로 표현의 자유를 지키는 핵심”이라며 “AI 인프라에 중앙 집중적이고 책임 없는 권한을 넘기는 순간, 우리는 기술 권위주의로 표류를 자초하게 될 것”이라고 했다.
알고리즘은 가치중립적이지 않다. 그럼에도 우리는 지난 10여 년간 빅테크(대형 정보기술 기업)가 알고리즘을 정보 생태계의 문지기 역할을 하도록 방치했고, 그에 합당한 투명성이나 책임을 빅테크에 묻지 않았다. 그 대가는 컸다. 극단적이고 선정적인 콘텐츠가 확산했고, 교묘한 맞춤형 광고와 기업의 독점 행위가 만연해졌으며, 민주적 숙의 과정에 반하는 여론 조작까지 초래했다.
핵심 정보 인프라를 감독 없이 기업에 넘겼을 때의 위험을 우리는 이미 경험했다. 그런데도 우리는 지금 AI 챗봇을 두고 같은 실수를 반복하고 있다. 그 파장은 훨씬 치명적일 수 있다. AI 챗봇은 단순히 기존 정보를 선별해서 보여주는 데 그치지 않는다. 정보를 직접 만들고, 프레임을 씌워 재가공한다. 과거 페이스북과 구글은 어떤 뉴스 기사를 보여줄지 ‘결정’하는 역할이었다면, 챗GPT, 클로드, 제미나이 같은 도구는 그 정보를 종합해 권위 있는 답변으로 가공해 낸다.
이 차이는 매우 중요하다. 정보의 ‘큐레이터’에서 ‘편집자’로 역할이 바뀌면서 부당한 영향력이 더 교묘해지고 강력해졌다. 우리는 또다시 미래 정보 인프라에 대한 막대한 권력을 민간 기업에 넘기고 있다. 그들에 대한 독립적인 감..
이코노미조선 멤버십 기사입니다
커버스토리를 제외한 모든 이코노미조선 기사는
발행주 금요일 낮 12시에
무료로 공개됩니다.
발행주 금요일 낮 12시에
무료로 공개됩니다.
멤버십 회원이신가요? 로그인