OpenAI, 중국의 AI 기반 감시 도구 발견 - 네옴시티에서살기

OpenAI, 중국의 AI 기반 감시 도구 발견

AI 기술, 감시와 정보 조작의 도구로 활용되나?

 

OpenAI가 최근 중국의 보안 기관이 인공지능(AI)을 이용해 서방 국가의 소셜미디어(SNS)에서 반중(反中) 게시물을 감시하는 감시 도구를 개발한 정황을 발견했다고 밝혔다. 이는 AI 기술이 감시, 해킹, 허위 정보 확산 등의 악의적인 목적으로도 사용될 수 있음을 보여주는 사례로, 전 세계적으로 AI의 윤리적 문제에 대한 논의가 더욱 심화될 것으로 보인다.

 

AI를 활용한 감시 도구, 어떻게 발견되었나?

 

OpenAI 연구진은 이번 감시 도구가 우연한 계기로 발견되었다고 전했다. 감시 도구를 개발하던 누군가가 OpenAI의 기술을 사용해 해당 프로그램의 오류를 수정하려 했고, 이를 통해 OpenAI 측이 해당 프로그램의 존재를 포착하게 된 것이다.

 

이 감시 도구는 중국의 특정 기관에서 개발한 것으로 추정되며, 서방 국가들의 소셜미디어에서 반중 성향의 게시물을 실시간으로 탐색하고 이를 분석하는 역할을 한다.

 

OpenAI의 주요 조사관 중 한 명인 벤 니모(Ben Nimmo)는 “우리는 AI 모델이 악의적인 목적으로도 사용될 수 있음을 알고 있었지만, AI가 이러한 방식으로 감시 도구 개발에 활용되고 있다는 점을 직접 확인한 것은 이번이 처음”이라며 우려를 표했다.

 

감시 도구의 기반 기술은?

 

OpenAI의 분석에 따르면, 해당 감시 도구는 메타(Meta)가 개발한 AI 기술인 ‘Llama’를 기반으로 만들어졌을 가능성이 크다. 메타는 이 기술을 오픈 소스로 공개했기 때문에 전 세계 개발자들이 자유롭게 사용할 수 있으며, 이를 바탕으로 감시 도구가 개발된 것으로 보인다.

 

즉, AI 기술이 개방성을 기반으로 빠르게 발전하는 것은 긍정적인 측면이 있지만, 이와 동시에 악의적인 목적을 가진 세력에게도 쉽게 활용될 수 있다는 위험성을 내포하고 있다.

 

중국, AI를 활용한 여론 조작 정황도 포착

 

이번 조사에서 OpenAI는 감시 도구 외에도 중국이 AI를 활용해 글로벌 여론을 조작하려는 정황도 포착했다고 밝혔다.

 

특히, ‘Sponsored Discontent'(스폰서드 디스컨텐트)라고 불리는 중국의 또 다른 온라인 작전은 OpenAI의 기술을 사용해 영어 게시물을 자동으로 생성하고, 이를 통해 중국 반체제 인사들을 비판하는 콘텐츠를 제작한 것으로 밝혀졌다.

 

이 작전은 특정 정치적 목적을 가지고 AI를 활용해 허위 정보를 확산하는 방식으로 운영되었으며, 미국 및 서방 국가의 대중 여론에 영향을 미치려는 의도를 가진 것으로 보인다.

 

또한, OpenAI 연구진은 해당 조직이 AI를 활용해 특정 기사들을 스페인어로 번역하고, 이를 남미 지역에서 배포한 정황도 발견했다. 이 기사들은 미국 사회와 정치에 대한 부정적인 내용을 담고 있었으며, 중국 정부의 입장을 대변하는 내용으로 구성되어 있었다.

 

이 같은 사실은 AI가 단순한 번역 도구를 넘어 정치적 목적을 가진 정보전에서 강력한 무기로 활용될 수 있음을 보여준다.

 

캄보디아에서도 AI 활용한 온라인 사기 정황 발견

 

한편, OpenAI 연구진은 이번 보고서를 통해 캄보디아를 기반으로 한 또 다른 AI 악용 사례도 발표했다.

 

캄보디아에서 운영된 해당 작전은 소셜미디어에서 ‘피그 부처링'(Pig Butchering)이라는 온라인 사기 방식에 AI를 활용한 정황이 포착되었다.

 

피그 부처링 사기는 보통 온라인을 통해 피해자를 유인한 후, 가짜 투자 기회 등을 제공해 돈을 갈취하는 방식으로 운영된다. 이번 조사에서 OpenAI는 AI가 생성한 댓글 및 메시지가 이러한 사기 작전에서 피해자들을 현혹하는 데 사용되었다는 증거를 발견했다.

 

즉, AI가 단순한 챗봇을 넘어 감성적인 대화 및 신뢰를 조작하는 도구로 활용될 가능성이 커지고 있다는 점을 보여주는 사례다.

 

AI 기술의 양면성, 윤리적 논의 필요

 

이번 OpenAI의 조사 결과는 AI가 감시, 여론 조작, 사기 등의 악의적인 목적으로 사용될 수 있음을 명확하게 보여준다.

 

AI는 본래 인간의 삶을 편리하게 만들고, 창작 활동을 돕고, 복잡한 문제를 해결하는 데 사용될 수 있는 혁신적인 기술이다. 하지만 이번 사례처럼 AI가 악용될 경우, 개인정보 침해, 사회 혼란, 정치적 조작 등의 심각한 문제를 초래할 수 있다.

 

특히, AI 기술이 발전함에 따라 이러한 문제를 감시하고 방지할 수 있는 기술과 정책이 함께 발전해야 한다는 목소리가 높아지고 있다.

 

벤 니모는 “AI 기술을 개발하는 기업들은 AI의 악용 가능성을 항상 염두에 두고, 이를 방지하기 위한 기술적·윤리적 대책을 마련해야 한다”고 강조했다.

 

 

결론

 

OpenAI가 밝힌 이번 사례들은 AI 기술이 단순한 혁신 도구를 넘어 감시, 선전, 사기 등의 위험한 용도로 활용될 수 있음을 보여준다.

 

특히, 중국의 감시 도구 개발 정황과 여론 조작 시도는 AI 기술이 정치적 목적을 위한 강력한 무기가 될 수 있음을 시사한다. 캄보디아의 온라인 사기 사례 역시 AI가 범죄에 적극 활용될 수 있음을 보여주는 중요한 사례다.

 

이제 AI 기술 개발자와 글로벌 기술 기업들은 AI의 윤리적 사용을 보장하기 위한 강력한 규제와 감시 체계를 구축해야 할 필요성이 더욱 커졌다.

 

AI가 인간 사회에 긍정적인 변화를 가져오기 위해서는, 악용 가능성을 최소화하고 기술의 올바른 사용을 장려하는 체계적인 대책이 필요할 것이다.

Leave a Comment