‘유료 고객’ 데이터는 학습 안 시킨다는 오픈AI, 결국 ‘보안’마저 ‘수익화 사업’의 일환인가

오픈AI, 사실상 ‘무료 고객’ 데이터는 계속 수집하겠다 선언 제4의 물결 거스르지 못하는 대기업들, 결국 유료 사용 기업 속출 하나의 ‘도구’에 불과한 챗GPT, 보다 나은 사회 만들기 위해선 윤리인식 필요

160X600_GIAI_AIDSNote

샘 알트만 오픈AI CEO(최고경영자)가 더 이상 고객 데이터를 초거대 AI 언어모델 학습에 활용하지 않겠다고 선언했다. 모델 학습 과정에서 개인정보나 기업 기밀이 유출될 수 있다는 우려를 잠재우기 위함이다. 단 무료 고객 데이터는 계속 학습에 활용할 것으로 알려졌다. 즉 ‘유료’ 고객의 데이터만 보호해 주겠단 의미다.

오픈AI “유료 고객 데이터 학습시키지 않겠다”

8일 외신에 따르면 알트만 CEO는 “챗GPT와 같은 초거대 AI 언어모델에 한동안 유료 고객 데이터를 교육하지 않았다”고 밝혔다. 그는 “우리는 API(응용프로그램 인터페이스)로 들어온 데이터는 전혀 훈련하지 않았다”고 강조했다. 오픈AI는 현재 API를 유료 서비스로서 제공하고 있으며, 많은 기업들이 챗GPT API를 적용해 생성형 AI 서비스를 고객들에게 제공하고 있다.

이어 오픈AI는 이번 선언을 통해 최소한의 윤리 원칙은 지키겠단 방침을 세웠다. 앞으로도 최소한 유료 고객에 한해선 정보를 학습시키지 않겠다고 밝힌 것이다. 이에 따라 국가 차원에서 ‘볼드모트’ 취급까지 당하던 챗GPT의 입지는 다시금 점차 넓어질 것으로 기대된다.

다만 ‘유료 고객의 정보는 학습하지 않겠다’는 선언이 오픈AI 입장에서 오히려 독으로 작용할 수 있다는 분석도 일각에서 나오고 있다. 오픈AI는 그동안 챗GPT가 정확히 어떤 데이터를 학습했는지 밝히지 않았다. 결국 이번 선언으로 오픈AI는 자신이 개인정보나 민감한 정보까지 학습 데이터로 사용했을 가능성이 있음을 자인한 꼴이 된 것이다. 특히 오픈AI의 선언은 결국 앞으로도 무료 고객의 데이터는 그대로 사용하겠다는 뜻으로 읽힐 수 있어 논란이 더욱 가중되는 모양새다.

오픈AI, 보안 시스템조차 ‘수익화 사업’으로 활용

실질적으로 오픈AI가 내놓은 건 ‘유료 고객 한정’ 보안 시스템이다. 보안 시스템 강화 또한 오픈AI에 있어 챗GPT 수익화 사업의 일환에 불과하다는 의미다. 그럼에도 불구하고 국내 대기업들은 챗GPT를 도입을 서두르는 모습이다. 보안 우려가 크기는 하지만 이메일 초고를 쓰거나 실시간 번역, 정보 정리 등 단순한 작업을 수행하는 데 있어 챗GPT만큼 효율적인 도구가 사실상 따로 없는 만큼, 챗GPT는 이미 국내 기업들에 팔려나가기 시작했다. 다가오는 AI의 물결을 국내 대기업도 채 거스를 수 없었던 것이다.

챗GPT를 업무에 공식적으로 도입한 기업들은 저마다 회사 전용 챗GPT를 사용하는 방식으로 보안 문제를 해결하고 있다. 챗GPT를 외부와 분리된 서버에서 작동시킴으로써 정보의 재활용을 막겠단 취지다. 실제 SK텔레콤은 오픈AI에 돈을 지불하며 ‘폐쇄형 챗GPT 서비스’를 업무에 정식 도입했다. SK텔레콤은 전용 챗GPT를 회사 내부 클라우드에서 작동시킴으로써 정보가 외부로 흐를 위험을 차단했다. 포스코도 사내 협업툴인 ‘팀즈’에 챗GPT를 도입했고, LG CNS 또한 사내 AI 챗봇 ‘엘비’에 전용 챗GPT를 탑재했다. 향후 챗GPT를 도입하는 기업 수는 지속적으로 늘어날 것으로 보인다.

사진=pexels

‘유료’로 이용하면 정보 보호? “이게 말이 되나”

이번 오픈AI의 보안 시스템 강화 선언에 기업들은 다소 마음을 놓고 있다. 그나마 유료 시스템을 이용한다면 적은 비용으로 기업의 기밀 유출 걱정 없이 챗GPT를 마음껏 활용할 수 있기 때문이다. 그러나 오픈AI의 보안 방식은 여전히 문제가 많다. 고객이 유료 시스템을 이용할 때만 개인정보를 모으지 않겠다는 게 오픈AI 측의 공식 입장인데, 세상에 이런 식의 ‘장사’를 하는 기업이 어디 있단 말인가.

오픈AI는 애초 수집하려는 콘텐츠 자체가 유료이거나 기밀 자료인 경우 이것을 학습에 사용하지 말아야 한다. 이용자가 유료 시스템을 이용하는가 여부는 차치하고 이용자가 입력하는 데이터가 유료 콘텐츠인 경우 이는 결국 지적재산권 침해로 이어질 수밖에 없기 때문이다. 특히 대중들은 저작권법과 저작권 침해에 대한 법적 의미를 제대로 알지 못하는 경우가 부지기수다. 그런 만큼 오픈AI 차원에서 자체적으로 유료 콘텐츠 및 기밀 자료를 걸러내 학습하지 못하도록 막아서야 한다.

챗GPT는 ‘답을 내어주는 신과 같은 존재’가 아닌 인간이 만들어 낸 하나의 ‘도구’에 불과하다. 때문에 오픈AI 측은 챗GPT가 보다 나은 사회를 구축하는 데 이용될 수 있도록 가능한 윤리적 의식을 갖출 필요가 있다. 윤리적 문제 해결이 선행되지 않는다면 앞서 이탈리아가 챗GPT를 통제했듯 과거 ‘러다이트 운동’과 비슷한 현상이 벌어질 수밖에 없다. AI 러다이트는 단순히 개개인 혹은 하나의 국가만의 문제라 보기 어렵다. AI 자체가 비윤리적이라면 이를 거부하는 것도 나쁘다고 보기는 어렵지 않겠는가. ‘제4의 물결’을 주도하는 입장에 서 있는 오픈AI는 보다 나은 미래를 위한 AI를 만드는 데 주력해야 할 것이다.