입력
수정
태국 상원 선거, AI 기반 이상 투표 패턴 포착 필리핀, AI 활용 정치 조작과 허위 정보 확산 기술 아닌 제도가 결정한 민주주의의 명암
본 기사는 The Economy 연구팀의 The Economy Research 기고를 번역한 기사입니다. 본 기고 시리즈는 글로벌 유수 연구 기관의 최근 연구 결과, 경제 분석, 정책 제안 등을 평범한 언어로 풀어내 일반 독자들에게 친근한 콘텐츠를 제공하는 데 목표를 두고 있습니다. 기고자의 해석과 논평이 추가된 만큼, 본 기사에 제시된 견해는 원문의 견해와 일치하지 않을 수도 있습니다.
2024년 태국 상원 선거에서 법무부 특별수사국(Department of Special Investigation, DSI)은 CCTV 영상과 투표 데이터를 AI로 분석해 조직적 부정 의혹을 포착했다. 이 선거는 각계 전문가들이 상원의원을 선출하는 간접선거였으며, 군부와 정당의 영향력이 크다는 비판이 지속돼 왔다. DSI는 외부 통계 전문가와 법률 자문단과 협력해 분석 기준과 절차를 정립했고, 분석 경로와 결과는 대중에게 공개됐다. 이는 기존 수사 시스템에 AI를 접목해 신뢰를 회복하려는 시도로 평가된다.
같은 시기 필리핀에서는 상황이 정반대였다. 한 상원의원이 AI로 제작한 정치 영상을 SNS에 게시해 860만 회 이상 조회됐고, 두테르테 전 대통령에 대한 ICC 체포 이후에는 AI 기반 딥페이크와 조작 콘텐츠가 급속히 확산됐다. 정치권과 연계된 마케팅 업체들이 가짜 계정을 동원해 공격성 게시물을 유포했고, 피해자 가족과 반정부 인사를 조롱하는 콘텐츠도 반복적으로 등장했다.
두 사례의 차이는 기술이 아니라 제도다. 태국은 AI를 감시와 검증의 도구로 활용했지만, 필리핀은 정치적 조작의 수단으로 사용했다. AI는 기술 그 자체보다 그것을 설계하고 통제하는 방식에 따라 완전히 다른 결과를 낳는다.

숫자보다 중요한 건 해석의 과정
2024년 태국 상원 선거에서 수사당국은 총 14테라바이트에 달하는 CCTV 영상과 투표 데이터를 AI로 분석한 결과, 서로 다른 유권자 1,014명이 작성한 투표용지에서 후보 선택 순서가 동일하게 반복되는 비정상적 패턴이 발견됐다. 전체 투표 규모가 명확히 공개된 것은 아니지만, 보수적으로 1만~2만 건 수준으로 가정할 경우, 해당 수치는 통계적으로 매우 이례적인 일치 사례다. 단순한 우연으로 보기 어렵다는 점에서, 조직적 개입 가능성에 대한 조사가 필요한 정황으로 해석된다.
이 분석은 이상 정황이 어떤 방식으로 드러났는지 그 과정을 중심으로 이뤄졌다. 수사기관은 외부 전문가와 협력해 분석 기준과 절차를 명확히 했고, 분석 경로는 대중에 공개됐다. 시민이 판단의 근거를 직접 확인할 수 있도록 한 점에서, 수치 자체보다 더 중요한 건 ‘해석의 과정’이었다.

주: CCTV 및 투표 데이터 분석량 및 이상 패턴으로 표시된 투표 건수(X축), 측정 수치(Y축)
필리핀의 상황은 대조적이다. 2025년 3월부터 7월 사이, 국제형사재판소가 로드리고 두테르테 전 대통령을 체포한 이후, SNS를 중심으로 AI 기반 딥페이크 영상과 조작 콘텐츠가 급속히 확산됐다. 정치권의 조직적 개입 정황도 드러났다. 일부 마케팅 업체는 가짜 계정을 동원해 특정 인물에 대한 비방 댓글을 대량 유포했고, 실제로 피해자 가족과 비판 인사를 조롱하는 AI 콘텐츠가 반복적으로 게시됐다. 두테르테 정부의 마약 전쟁 피해자 유족들은 주요 공격 대상으로 떠올랐고, 이들 중 상당수가 일상적인 온라인 괴롭힘에 시달리고 있다.
로이터 연구소(Reuters Institute)가 같은 해 6월 발표한 조사에 따르면, 필리핀 국민의 약 67%가 ‘허위 정보에 대한 우려가 과거보다 커졌다’라고 응답했다. 정보의 신뢰성이 흔들리면 시민 참여 역시 위축된다. 정치적 냉소와 정보 피로가 동시에 누적되며, 민주주의 기반을 잠식하는 구조다.

주: 삭제 전 AI 생성 정치 영상 조회 수 및 허위 정보를 우려하는 필리핀 국민 비율(X축), 측정 수치(Y축)
이번 조사에서는 수치뿐 아니라, 실제 시민들이 접한 영상, 댓글, 확산 경로 등도 함께 분석에 포함됐다. AI가 단순히 콘텐츠를 생산하는 수준을 넘어, 현실 인식을 재편하는 수단으로 작동할 수 있다는 점을 보여주는 사례다.
교육이 개입해야 할 시점
글로벌 기준으로 정부와 언론에 대한 신뢰도는 모두 50%대 초반에 그친다. 교육이 이를 직접 회복시킬 수는 없지만, 시민이 정보를 분석하고 검증할 수 있는 역량을 기르는 데 중요한 역할을 할 수 있다. 캠퍼스 안전, 학생 언론, 지역 예산 등 일상 속 공공 이슈를 통해 공공 감시 역량을 훈련할 수 있다.
핵심은 결과가 아니라 과정을 해석하는 능력이다. 어떤 데이터를 어떻게 수집하고, AI 도구를 어떤 조건에서 사용할 것인지, 그 결과가 어떻게 도출됐는지를 설명할 수 있어야 한다. 태국이 AI를 신뢰의 도구로 활용할 수 있었던 이유도 여기에 있다.
실제로 케임브리지대와 구글은 유튜브에서 프리벙킹(Prebunking, 허위 정보 유포 이전에 선제 대응하는 방식) 실험을 진행했다. 90초짜리 조작 기법 안내 영상을 540만 명에게 노출한 결과, 하루 만에 관련 기법 인지율이 약 5%포인트 증가했다. 비용은 1회당 약 0.05달러(약 70원)로, 공교육 차원에서도 충분히 실행할 수 있는 수준이다. OECD 연구에 따르면 소셜미디어를 주요 뉴스 수단으로 활용하는 사람일수록 허위 정보 판별에 어려움을 겪는 경향이 있다. 따라서 프리벙킹은 플랫폼 기반 선제 대응과 교실 내 검증 훈련을 결합하는 방식으로 설계돼야 한다.
정책은 절차 위에 설계돼야 한다
AI를 공공 행정이나 감시에 활용하려면 그 정당성을 확보할 수 있는 투명한 설계가 필요하다. 브라질 선거관리위원회는 AI 남용을 금지하는 공식 결의안을 마련했고, 에스토니아 의회는 AI 기반 분석을 전면 문서화해 관리하고 있다. 기술 도입 자체보다 중요한 것은 어떻게 설계하고, 어떤 절차로 검증할지를 명확히 하는 일이다.
행정 시스템에 AI를 도입할 때 허용 범위와 책임 구조를 명확히 해야 한다. 특히 고위험 분야에서는 사고 발생 시 보고 및 개선 체계를 법제화하고, 외부 감사와 정보 공개를 통해 시민이 검증할 수 있는 구조를 갖춰야 한다. 정책은 기술의 성능이 아니라 설계 방식에 따라 작동 여부가 갈린다.
반론에 정면으로 답하기
AI를 공공 감시에 활용하면 결국 사생활 침해와 정보 통제가 일상화되는 것 아니냐는 우려가 있다. 하지만 태국의 사례는 이러한 걱정과 거리를 둔다. 분석은 선거 시설 내 CCTV에 한정됐고, 법적 감독과 문서화된 절차 아래 진행됐다. 분석 기준과 결과는 모두 공개됐으며, 후속 조치 또한 투명하게 이뤄졌다. 핵심은 목적이 분명하고, 권한 행사가 절제돼 있었으며, 책임 구조가 제도화돼 있었다는 점이다. 기술이 신뢰를 얻으려면 감시가 아닌 검증 가능한 절차 위에서 작동해야 한다.
프리벙킹의 효과에 대한 회의론도 존재한다. 하지만 실제 90초짜리 영상이 하루 만에 조작 기법 인지율을 약 5% 높였다. 비용도 낮고 효과도 확인된 방식으로, 감시 리터러시나 사실 검증 훈련과 함께 활용될 때 효과는 누적될 수 있다.
기술 발전 속도가 지나치게 빠르므로 정책이 이를 따라가지 못한다는 반론도 설득력을 가진다. 그러나 바로 그 이유 때문에 원칙 중심의 제도 설계가 더욱 중요해진다. 입력 로그의 공개, 외부 감사 체계, 신속한 삭제 조치 등 기능 중심의 절차를 법제화해야 한다. AI 시스템 도입 시에는 모델 정보와 데이터 보호 기준을 명시하고, 사고 발생 시 개선 내역을 정기적으로 공표하는 구조가 필요하다. 모든 위험을 예측할 수는 없어도, 위험에 대응할 수 있는 시스템은 충분히 설계할 수 있다. 그것이 공공 기술의 최소 조건이다.
신뢰는 설계의 결과다
결국 AI를 어떻게 활용하느냐는 기술의 문제가 아니라 태도와 구조의 문제다. 태국은 AI로 시민의 기록을 선명하게 밝혔고, 필리핀은 같은 기술로 민주주의를 왜곡했다. 이 차이를 만든 건 기술 자체가 아니라, 그것을 투명하고 책임 있게 다룰 수 있는 제도적 기반이었다.
따라서 정책 설계자는 AI를 기술이 아닌 절차로 인식해야 한다. 프리벙킹은 시민들이 실제 머무는 플랫폼에서 실질적으로 작동해야 하며, 공익 실험에는 모델 정보와 분석 로그, 외부 검토 절차가 모두 공개돼야 한다. 입법자는 데이터 흐름, 기준 설정, 이의 제기, 삭제 절차까지 포함한 투명성 규범을 명문화해야 한다. 디지털 정치에서 한때 경고 사례로 불렸던 국가들이 책임 있는 AI 활용의 모델이 되는 전환은, 결국 기술이 아닌 설명하려는 태도에서 시작된다.
본 연구 기사의 원문은 When AI Empowers Democracy: Lessons from Thailand’s Transparency Play and the Philippines’ Disinformation Spiral | The Economy를 참고해 주시기 바랍니다. 2차 저작물의 저작권은 The Economy Research를 운영 중인 The Gordon Institute of Artificial Intelligence에 있습니다.