“예측불가 AI 경쟁, 멈춰야”한다는 공개서한, 단순한 ‘꼬장’일까 ‘위조’일까?

첨단기술 종사자 공개서한에 일론 머스크, 스티브 워즈니악 등 1천여 명 시진핑 중국 국가 주석의 허위 서명 발견, 논란 일자 슬그머니 삭제 공개서한은 오픈 AI에 대한 견제? 한편 AI 윤리 논쟁 촉발은 긍정적이란 평가도

160X600_GIAI_AIDSNote

OpenAI의 GPT-4와 ChatGPT의 성공에 힘입어 AI 기술이 빠르게 발전함에 따라 수많은 기업과 AI 개발 조직이 연구 개발에 대한 투자를 강화하고 있다. 그러나 이런 급속한 발전을 우려한 일론 머스크, 스티브 워즈니악을 비롯한 AI 전문가, 연구자, 옹호자 등 저명인사 1,000여 명이 최소 6개월 동안 GPT-4 이후의 AI 개발을 즉각 중단할 것을 촉구하는 공개서한에 서명하고 나섰다. 이 서한은 AI가 사회와 인류에 초래할 수 있는 잠재적 위험을 강조하지만, 구체적인 내용은 없다. 공개된 이후로도 꾸준히 서명이 늘고 있으며, 해당 사이트에 따르면 31일 현재까지 2,000명 이상이 이 서한에 서명했다. 

더 발전된 AI 시스템과 관련된 잠재적 위험을 적절히 평가하고 해결하기 위해 AI 개발을 일시적으로 중단할 것을 촉구하는 이 공개서한 서명에는 다양한 개인이 참여했다. 저명한 연구 자격을 갖춘 여러 교수를 비롯해 배우 앨런 알다와 모건 프리먼과 같은 엔터테인먼트 업계 인사도 포함되어 있다. 이로 인해 서명의 진위 여부와 이들 개인이 AI 개발 논의와 관련이 있는지에 대한 논쟁도 이어지고 있다. 

생명의 미래 연구소의 공개서한

지난 28일(현지 시간) 책임감 있고 윤리적인 AI 개발을 옹호하는 비영리 단체인 ‘생명의 미래 연구소(Future of Life Institute)’가 공개서한을 발표했다. 이 서한은 현재 AI 개발의 물결에 적절한 기업 및 규제 안전장치가 부족하여 사회에 심각한 위험을 초래할 수 있다고 주장한다. 아울러 AI가 인간의 능력을 능가하도록 허용함으로써 우리가 구축한 문명을 잃을 위험을 감수할 의향이 있는지에 대한 의문도 제기한다. 이러한 우려는 AI 연구 및 윤리에 대한 일련의 지침인 아실로마 원칙(Asilomar Principles)에도 반영되어 있다.

아실로마 원칙은 AI 기술의 안전한 개발을 보장하기 위해 적절한 계획, 관리, 자원 배분의 필요성을 강조한다. AI가 계속 성장함에 따라 테스트 및 프로그래밍을 비롯한 다양한 작업에서 인간과 경쟁하기 시작한 만큼 AI 개발을 추진할 때 경계와 주의의 필요성은 물론, 연구자와 기업이 사회의 안전과 복지를 보다 우선시할 것을 촉구하고 있다.

공개서한에 인용된 논문의 저자들은 “연구자들이 서한에서 ‘거대’ 모델의 벤치마크로 삼은 GPT-4보다 더 강력한 AI 모델에 대한 연구를 자발적으로 중단하지 않는다면 정부가 개입해야 한다”고 말한다. 이어 “이는 일반적으로 AI 개발을 중단하는 것이 아니라 새로운 기능을 갖춘 예측할 수 없는 더 큰 블랙박스 모델을 향한 위험한 경쟁에서 한 발짝 물러나는 것을 의미한다”고 덧붙였다.

그러나 공개서한을 통해 제기된 우려에도 불구하고 OpenAI의 대변인은 서명을 거부했다. OpenAI의 홍보 담당자는 “우리는 GPT-4의 훈련 종료 후 모델의 안전성에 관한 조정에 6개월 이상을 보냈다”고 밝혔다. 이러한 반응은 AI 연구 조직이 이미 잠재적 위험을 해결하기 위한 조치를 취하고 있을 가능성이 있는 만큼, AI 개발을 중단해야 할 필요성에 대한 의문을 제기한다.

공개서한을 둘러싼 논란

한편 일론 머스크, 스티브 워즈니악, 시진핑 중국 국가주석 등 일부 서명이 가짜거나 위조된 것일 수 있다는 보도가 나옴에 따라 공개서한의 신뢰성과 주장의 타당성에 대한 회의론과 함께 논쟁이 벌어지고 있다. 특히 해당 연구소의 최대 후원자가 머스크 재단(Musk Foundation)인 부분도 미심쩍다.

사진=Yann Lecun 트위터 갈무리

생명의 미래 연구소는 서명의 진위에 대해 “직접 커뮤니케이션을 통해 독자적으로 검증했다”고 밝혔다. 하지만 공개 후 얼마 지나지 않아 서명의 일부가 허위임이 드러났다. 해외 미디어 모더보드에 따르면 GPT 시리즈 개발과 상품화를 다루고 있는 OpenAI의 서명자는 없었음에도 불구하고, 서명 중에는 OpenAI의 삼 알토만 CEO의 이름이 있었다고 전했다. 마찬가지로 서명자로 되어 있던 메타(Meta)의 수석 AI 과학자인 얀 르쿤(Yann LeCun)도 서한이 전제로 하고 있는 내용에 동의할 수 없기 때문에 서명하지 않았다고 부정하고 있다. 논란이 일자 해당 인물들은 동의 명단에서 지워진 상태다.

워싱턴 대학교 교수이자 공개서한 속 피인용 논문의 저자인 에밀리 벤더(Emily M. Bender)는 “공개서한이 ‘AI 과대광고’를 퍼뜨리고 자신의 연구를 오용하고 있다”고 비판했다. 벤더는 자신의 연구가 가상의 미래 AI 시스템이 아닌 현재 규모의 언어 모델에 초점을 맞췄다고 주장한다. 또 AI 개발의 잠재적 위험과 이점을 논의할 때 연구에 대한 정확한 표현과 해석이 필요하다는 점을 강조했다.

이처럼 생명의 미래 연구소의 공개서한에 대한 진위가 불분명한 가운데, 촉발된 논쟁은 AI 개발에 있어 윤리적 고려사항의 중요성에 대한 관심을 불러일으키고 있다. AI 기술의 급속한 확장은 혁신과 발전을 위한 수많은 기회를 제공하지만, 개발 과정에서 안전, 윤리, 나아가 사회의 안녕을 우선시하는 것이 필수적이다. 아실로마 원칙과 같은 가이드라인을 준수하고 AI의 잠재적 위험과 이점에 대해 열린 대화를 나누면 연구자, 기업, 정책 입안자가 함께 협력하여 발전과 신중함 사이의 균형을 맞출 수 있다.

AI 유예 제안에 대한 앤드류 응 박사의 답변

랜딩 AI의 설립자이자 저명한 AI 연구자인 앤드류 응 박사는 GPT-4 이후 6개월간 AI 개발을 유예하자는 주장에 반대하는 의견을 밝혔다. 응 박사는 교육, 의료, 식품 생산 등과 같은 분야에서 AI가 수많은 사람에게 혜택을 줄 수 있는, 잠재력을 가진 수많은 응용 분야를 강조하며 “GPT-4 및 유사한 AI 기술을 개선하면 사회 발전에 크게 기여할 수 있으며, AI의 잠재적 가치를 현실적인 위험과 균형 있게 고려해야 한다”고 답변했다.

이어 “정부가 나서서 개발 중단을 강제하지 않는 한 AI 개발에 대한 유예를 시행하는 것은 비현실적”이라고 지적하면서도 “정부가 완전히 이해하지 못할 수도 있는 신흥 기술을 중단시키기 위해 개입하는 것은 반경쟁적이며 혁신 정책의 위험한 선례가 될 수 있다”고 주장했다. 또한 “6개월간의 유예가 궁극적으로 AI 개발의 진전을 저해할 것”이라고 우려하기도 했다.

응 박사는 AI 안전에 대한 우려를 언급하면서 AI 기업이 무책임하게 안전하지 않은 코드를 배포하고 있다는 통념에 대해서도 반박했다. 그는 대다수의 AI 팀이 책임감 있는 AI와 안전을 중요하게 생각하며, 유예로 AI 기술 발전을 억제하기보다는 안전 조치에 더 많이 투자하는 것이 중요하다고 강변했다.

이와 더불어 응 박사는 6개월의 유예는 AI 안전을 보장하기 위한 실질적인 제안이 아니라고 말했다. 그는 “대신 투명성과 감사에 관한 규제에 초점을 맞추는 것이 기술 발전을 저해하지 않으면서도 AI 안전을 발전시키는 데 더 큰 영향을 미칠 수 있다”며 “실용적이고 효과적인 규제를 시행함으로써 연구자, 기업, 정책 입안자들이 협력하여 AI 기술 개발에 따른 잠재적 위험에 대해 책임감 있는 방향으로 대비할 수 있다”고 제언했다.