[딥테크] 공정성 검증이 관건인 AI 선거 정보 도구
입력
수정
AI 선거 가이드, 선거 단순화 효과와 편향 위험 공존 규칙 설정과 출처 공개를 통한 오류 최소화 독립적 감독으로 패배한 측도 수용 가능한 신뢰 확보
본 기사는 스위스 인공지능연구소(SIAI)의 SIAI Research Memo 시리즈 기고문을 한국 시장 상황에 맞춰 재구성한 글입니다. 본 시리즈는 최신 기술·경제·정책 이슈에 대해 연구자의 시각을 담아, 일반 독자들에게도 이해하기 쉽게 전달하는 것을 목표로 합니다. 기사에 담긴 견해는 집필자의 개인적 의견이며, SIAI 또는 그 소속 기관의 공식 입장과 일치하지 않을 수 있습니다.
2024년은 전 세계적으로 선거가 집중된 해였다. 약 70개국에서 37억 명이 투표권을 행사할 수 있었고, 이는 인류의 절반에 해당한다. 같은 시기 네이처 휴먼 비헤이비어(Nature Human Behaviour)에 실린 연구는 토론 상황에서 대형 언어모델(LLM)이 인간보다 설득력을 가질 확률이 64%에 달했다고 밝혔다. 성별이나 정치 성향 같은 민감한 정보를 활용하지 않고도, 최소한의 개인 정보를 바탕으로 맞춤형 논리를 제시했을 때 효과가 두드러졌다.
이 결과는 인공지능이 적은 정보만으로도 유권자의 판단에 영향을 줄 수 있음을 보여준다. 동시에 방대한 선거 정보를 정리해 전달할 잠재력도 확인됐다. 따라서 후보자의 입장과 정책을 신속히 요약해 제공하는 정치 정보 도구의 필요성이 커지고 있다. 그러나 어떤 내용을 요약할지, 출처의 비중을 어떻게 둘지, 답변을 제한할 조건을 어디에 설정할지는 단순한 기술적 선택이 아니라 정치적 결정과 직결된다. 핵심 과제는 새로운 도구의 도입 여부가 아니라, 경쟁에서 패한 세력까지 납득할 수 있을 만큼 공정하게 설계할 수 있느냐다.
실험으로 확인된 가능성과 한계
2024년 11월 미국 캘리포니아 주민발의안 선거에서 진행된 무작위 대조 실험은 이 가능성과 한계를 동시에 보여줬다. 당시 유권자들은 12개 이상의 발의안을 검토해야 했으며, 각 문항은 수십 쪽에 달하는 공식 안내문으로만 제공됐다. 연구팀은 이 안내문을 그대로 제공하는 표준 가이드와, 동일 자료를 기반으로 질의응답을 지원하는 인공지능 챗봇을 비교했다.
그 결과 챗봇을 활용한 집단은 정책 세부 질문에 대한 정답률이 18% 높았고, 응답 시간은 10% 단축됐다. 다른 발의안을 추가로 확인한 비율도 70% 이상 증가했다. 이는 긴 문서를 읽지 않고도 핵심을 파악할 수 있음을 보여줬다. 그러나 투표율과 표심 변화에는 별다른 차이가 나타나지 않았고, 지식 향상도 반복 사용이 없으면 유지되지 않았다. 정보 접근성은 개선됐지만 민주적 참여의 질적 향상으로 자동 연결되지는 않았다.

주: 그래프(a) 정답 비율, 그래프(b) 응답시간, 그래프(c) 정답에 대한 확신/심화 문항에서는 정답률이 상승하고 응답 시간이 단축되었으며, 기초 문항에서는 변화가 거의 없거나 부정적이어서, 효과는 이해 난도가 높은 문항에 집중되는 것으로 나타났다.
신뢰성과 공정성의 과제
문제는 신뢰성이다. 2024년 미국 예비선거 기간 진행된 독립 테스트에서 범용 챗봇은 선거 행정 질문의 절반 이상을 잘못 답변했고, 약 40%는 오도되거나 유해한 응답으로 판정됐다. 사용자는 효율성을 느낄 수 있지만, 검증 체계가 부족할 경우 오류가 대규모로 확산될 위험이 크다. 실제로 2025년 조사에서도 미국 성인의 3분의 1만이 선거 정보 검색에 챗봇을 활용한 경험이 있었으며, 신뢰 수준은 낮게 나타났다.
공정성 역시 핵심 쟁점이다. 정치 정보 도구가 중립을 표방하더라도 정보를 배열하고 요약하는 방식이 해석에 영향을 미친다. 기존 검색엔진의 순위 조정만으로도 부동층 유권자의 선택에 영향을 줄 수 있다는 연구가 이를 뒷받침한다. 특정 후보의 의정 활동을 강조하거나, 다른 후보는 공약만 부각하는 식의 불균형은 사실상 의제 설정 권력을 행사하는 결과를 낳는다. 따라서 요약 기능 자체를 배제하기보다는 동등한 노출, 출처의 균형, 이의 제기 절차를 제도화하는 접근이 요구된다.
오류 관리와 설계 원칙
대규모 환경에서 작은 오류도 치명적 결과를 낳을 수 있다. 선거 직전 2주 동안 100만 건의 질의가 집중될 경우, 오류율이 5%만 돼도 수천 건의 잘못된 답변이 발생한다. 따라서 불확실한 경우 답변을 중단하고 공식 출처로 안내하며, 오류를 신속히 수정하는 체계가 필수적이다.
정치 정보 도구의 성격은 결국 설계 원칙에 달려 있다. 출처, 균형, 신중함이 핵심이다. 첫째, 법률·표결 기록·공식 성명 등 권위 있는 자료를 우선 인용해 오류 가능성을 줄여야 한다. 둘째, 모든 후보의 정보를 동일한 틀과 순서로 제시해 균형을 유지해야 한다. 셋째, 설득력과 개인화 위험을 관리하기 위해 민족·성별·성향에 따른 개인화는 금지하고, 출처가 불분명하면 답변을 거부하며, 정확도 기록과 사후 감사 체계를 마련해야 한다.
합의 가능한 공공 서비스로
정치 정보 도구가 공정성을 인정받으려면 네 가지 조건이 충족돼야 한다. 첫째, 모든 후보의 공식 문서를 동일한 기준으로 처리하는 대칭적 입력이다. 둘째, 모든 주장을 법률, 표결, 예산 등 구체적 근거와 연결하는 출처의 가시성이다. 근거가 없을 경우에는 추측하지 않고 명확히 밝혀야 한다. 셋째, 잘못된 정보가 노출될 경우 후보 측이 정식으로 수정 요청을 할 수 있는 이의 제기 절차다. 이 과정은 공개 기록으로 남아야 한다. 넷째, 선거 관리기관이나 제3자가 정기적으로 정확도를 검증하는 독립적 감독이다. 이는 신뢰를 요구하는 수준을 넘어, 검증 가능한 체계로 옮겨가는 과정이다.
또한 설득이나 맞춤형 메시지는 엄격히 제한돼야 한다. 정치 정보 도구는 정보를 제공하는 수단일 뿐 특정 선택을 유도해서는 안 된다. 유권자가 환경 보호와 감세를 동시에 중시한다고 질문할 경우, 특정 후보를 권하는 대신 각 후보의 기록과 정책 간 상충 요소를 근거와 함께 제시해야 한다.
전 세계적 논의는 이미 이러한 원칙을 제도화하는 방향으로 움직이고 있다. 공정한 출처 인용, 균형 있는 요약, 불확실 시 답변 중단, 정기적 검증 공개가 뒷받침된다면 정치 정보 도구는 민주주의를 위협하는 변수가 아니라 시민을 위한 공공 서비스로 자리매김할 수 있다.
선거 신뢰를 위한 과제
2024년의 세계적 선거 주기는 끝났지만, 과제는 반복된다. 인공지능 기반 정치 정보 도구는 앞으로 더 널리 쓰일 수밖에 없다. 따라서 도입 여부가 아니라 공정한 입력, 투명한 출처, 오류 관리, 독립적 감독 같은 원칙을 제도화하는 것이 관건이다. 신뢰는 단기간에 생기지 않으며, 선거마다 검증과 개선을 거쳐야만 축적된다. 다음 선거의 공정성은 바로 이 준비에 달려 있다.
본 연구 기사의 원문은 The Case for a Contestable “Politician Scan”: Designing AI That Even the Loser Can Trust를 참고해 주시기 바랍니다. 본 기사의 저작권은 스위스 인공지능연구소(SIAI)에 있습니다.