오픈AI·구글 직원들 “AI 통제 못하면 인간 멸종할 수도”

160X600_GIAI_AIDSNote
“AI 통제상실 위험”, 오픈AI 및 구글 전현직 13인 성명
직원들의 섬뜩한 경고, "인류 멸망 시킬지도 모른다"
오류·표절 등 다양한 문제 대두 "기술 제약 극복해야"
the-artificial-intelligence-holding-an-employment-resume_openAI_001_20240606

챗GPT 개발사 오픈AI와 구글 딥마인드의 전·현직 직원들이 규제되지 않은 인공지능(AI)은 위험하다며 ‘인간 멸종’을 초래할 수 있다고 경고하고 나섰다. 이에 AI를 직접 만든 기업들은 자체적으로 문제를 해결할 수 없다며 위험 우려가 공유될 수 있도록 내부 고발자에 대한 보호 조치가 마련돼야 한다고 주장하고 있다.

오픈AI·구글 딥마인드 전현직 직원들 ‘AI 위험’ 경고

4일(현지시간) 월스트리트저널(WSJ)과 로이터통신 등에 따르면 오픈AI, 구글의 딥마인드 전·현직 직원 10여 명은 이날 공동 성명을 내고 ‘AI라는 새로운 기술이 초래할 수 있는 위험’에 대한 우려를 제기했다. 해당 성명서에 실명을 올린 윌리엄 손더스 오픈AI 전 직원은 “최첨단 AI 시스템의 작동 방식과 배포와 관련한 위험에 대해 가장 많은 지식을 가진 사람들이 자유롭게 말할 수 없다”고 밝혔다. 손더스 외에도 오픈AI 전 직원 6명, 현 직원 4명을 비롯해 딥마인드의 전·현직 직원은 각 1명이 이름을 올렸으며, 서명자 중 6명은 익명을 요구했다.

이들은 성명에서 “AI와 관련된 위험은 기존의 불평등을 심화시키는 것부터 조작과 잘못된 정보, 잠재적으로 인간의 멸종을 초래하는 자율적인 AI 시스템의 통제 상실까지 다양하다”며 “이는 인류의 멸망으로 이어질 수 있다”고 지적했다. 일부 사례로 오픈AI를 비롯한 여러 회사의 AI 프로그램이 투표와 관련한 잘못된 정보를 포함한 사진을 생성한 사례를 발견했다고 전했다.

이러한 AI와 관련한 위험 관리는 맞춤형 기업 지배구조 탓에 기업 내부에서 고발을 하는 등 변화를 일으키기는 어렵다고 밝혔다. 이들은 “AI 기업은 이윤 추구 목표로 제대로 된 감독을 하지 못하고 기업 내부의 규제 시스템만으로는 문제를 해결할 수 없다”며 “AI 기업은 다양한 종류의 위험 수준에 대한 상당한 비공개 정보를 보유하고 있지만 이런 정보 중 일부를 정부 및 시민사회와 공유할 의무가 약하고, 자발적으로 공유할 것이라고 생각하지 않는다”고 주장했다.

또 AI 기업들이 과도한 기밀 유지 계약으로 관련 우려 제기나 비판을 막아서고 있다고도 비판했다. 이들은 “회사와 광범위한 기밀 유지 계약으로 우려를 표명할 수 없다”며 “일반적인 내부고발자 보호는 불법 행위에 초점을 맞춰져 있으며, 우리 중 일부는 업계 전반에 걸쳐 이런(내부 고발) 사례의 역사를 고려할 때 다양한 형태의 보복을 두려워한다”고 강조했다. 이에 △회사의 위험 관련 우려에 대한 비방이나 비판을 금지하는 계약 체결 금지 △독립 기관에 위험 관련 우려 사항을 제기할 수 있는 익명 절차 마련 △위험 관련 정보를 공개적으로 공유하는 전현직 직원에 대한 보복 금지 등을 촉구했다.

Einstein_PK_20240606_002
구글의 생성형 AI ‘제미나이’가 그린 흑인 앨버트 아인슈타인/사진=구글 제미나이

지속적 할루시네이션, 큰 과제

실제로 많은 전문가들은 AI가 할루시네이션(잘못된 정보 생성)을 비롯한 많은 위험성을 안고 있다고 지적한다. 가공할 만한 연상 능력을 지닌 생성형 AI가 엄청난 규모의 학습 과정을 통해 내놓은 정보의 진위를 사람이 가려내는 일이 매우 어렵기 때문에 할루시네이션 문제는 첨단 AI 기술이 지닌 위험성을 역으로 드러내는 대목이기도 하다.

다만 단순히 엉뚱한 대답을 내놓는 것이라면 웃음거리로 넘어갈 수 있으나 AI 이미지 생성 프로그램이 독일 나치군을 아시아인으로 묘사하거나 아인슈타인을 흑인으로 묘사하는 등 사회적으로 민감한 오류가 나오며 논란이 됐다. 이에 따라 할루시네이션 현상 해결은 생성형 AI를 개발하는 기업들의 최우선 과제로 꼽혔다.

그러나 이달 출시된 구글의 생성형 AI ‘구글 오버뷰’ 역시 할루시네이션 현상을 피하지 못했다. AI 오버뷰는 버락 오바마 전 미국 대통령이 무슬림이라고 대답하거나 사람이 하루에 돌 하나를 먹어야 한다고 답변하는 등의 사례가 발견됐다. 구글 오버뷰가 피자에 치즈가 달라붙지 않을 때 접착제를 넣으라고 한 사례의 경우, 구글이 학습에 사용했을 것으로 추정되는 인터넷 커뮤니티 유머글이 발굴되기도 했다.

저작권 침해 및 편향성도 문제

문제는 이뿐만이 아니다. 데이터를 무단 사용해 저작권 문제가 발생하고, 학습 데이터에 내재된 편향성이 나타나거나, 잘못된 답변 사례가 빈발하는 등 현장에서는 기술적 한계와 지식재산권 침해 문제도 끊임없이 제기되고 있다. 이로 인해 사용에 대한 불신이나 사회적 갈등을 야기할 수 있는 윤리적 문제도 지속되고 있다. 특히 이는 인종·성차별적 콘텐츠를 만들거나, 가짜 뉴스 혹은 딥페이크 영상 제작에도 사용될 수 있다는 점에서 우려하지 않을 수 없다.

마이크로소프트가 제공하는 빙의 코파일럿의 경우도 통계나 최신 정보 소개에는 한계를 보이고 있고, 구글 제미나이도 잘못된 통계를 정확한 정보인 것처럼 소개하는 경우가 비일비재하다. AI들이 편향된 데이터를 학습해 정확하지 않은 결과를 만들어 내자, 이런 불신이 자칫하면 투자 위축과 기술 발전 둔화를 가져올 수 있다는 지적도 나온다.

이렇다 보니 1년 전만 해도 대부분 이사회가 최고경영자(CEO)에게 생성형 AI를 최대한 빨리 도입할 방법을 찾으라고 압력을 가했을 정도의 초기 투자 열기와 달리, 이제는 기업들이 생성형 AI가 예상했던 만큼 효과적이지 않다는 것을 깨닫고 투자에 신중한 태도를 보이고 있다. 이에 생성형 AI의 물결을 이끈 일부 선도 스타트업들이 중도에 무너지고 있으며, 지난 3월에는 주요 선도 스타트업인 인플렉션 AI의 경영진과 연구원들이 퇴사하는 일도 발생했다. 다른 스타트업들도 자금난으로 인한 연구원 이직이 늘고 있다.

다만 전문가들은 이런 현상들이 생성형 AI의 종말을 의미하는 것은 아니라고 말한다. 모든 주요 신기술, 특히 세상을 변화시키는 기술들은 이와 같은 단계를 거쳤다는 것이다. 오히려 이들은 장기적인 관점에서 기술 발전의 기대감을 보이는 모습이다. 생성형 AI는 발전 가능성이 높은 기술인 만큼 현실적인 문제점을 해결해 기술 완성도를 제고하면 새로운 여정을 시작할 수 있다는 분석이다. 이를 위해 가장 중요한 것은 기술적 완성도 향상이라고 입을 모은다. 생성형 AI의 기술 완성도를 높이기 위해 연구와 개발을 지속해 안정성과 정확성을 개선하고, 효과적 콘텐츠 생성을 위한 기술적 제약을 극복해야 한다는 설명이다.