메뉴

로이슈

검색

범죄학·범죄심리학

"AI가 쓰고, 봇이 퍼뜨리고"... ChatGPT를 선전 공장으로 쓴 러시아 정보전 정황

[크라임 시리즈] 오픈AI 보고서, '생성형 AI를 이용한 범죄' ③

2026-03-14 20:28:52

- OpenAI 보고서 공개...'Rybar' 러시아 선전 네트워크, 다국어로 게시글·댓글·홍보 영상까지 AI로 대량 생산

2026년 2월 OpenAI는 ChatGPT 주간 활성 사용자가 9억 명을 돌파했다고 공식 발표했다. TechCrunch 전 세계 성인 10명 중 1명이 매주 ChatGPT를 쓰는 시대, 이 거대한 플랫폼은 이제 학습·업무·창작의 도구를 넘어 또 다른 전장(戰場)이 되고 있다.

앞선 기사에서는 ChatGPT를 이용해 미국 공무원을 표적으로 삼은 정보기관식 포섭 공작을 살펴봤다. 생성형 AI는 단순한 이메일 한 통에서 출발해 딥페이크 신원 위장 준비까지 동원되는 신종 스파이 도구로 진화하고 있었다. 이번에는 또 다른 방식의 AI 악용 사례를 들여다본다. 특정 국가의 입장을 온라인에서 대규모로 확산시키는 선전 네트워크가 ChatGPT를 어떻게 활용했는지다.

OpenAI 분석에 따르면, 러시아 정부 입장을 온라인에서 퍼뜨리는 선전 네트워크가 ChatGPT를 이용해 소셜미디어 게시글과 댓글을 대량으로 생성한 뒤 여러 계정을 통해 확산시킨 것으로 나타났다. OpenAI는 이러한 활동을 "Fish Food" 작전이라고 명명했다. 러시아 선전 네트워크 'Rybar'(러시아어로 '어부'라는 뜻)에 콘텐츠를 공급하는 방식이 마치 어부에게 먹이를 제공하는 것처럼 보였기 때문이라는 설명이다.

OpenAI가 2026년 2월 공개한 보고서 'Disrupting Malicious Uses of Our Models'에 따르면, 러시아 선전 네트워크 Rybar와 연관된 계정들이 ChatGPT를 콘텐츠 농장처럼 활용해 다국어 선전글과 댓글을 대량 생산하고, 동일한 댓글을 복수의 계정에 동시 게시하는 방식으로 온라인 여론을 인위적으로 증폭시킨 정황이 포착됐다. OpenAI는 아프리카 선거 개입 계획 문서 작성에도 AI가 동원된 사실을 확인하고 관련 계정을 전면 차단했다. / 이미지 디자인=로이슈 AI 디자인팀(*본 이미지는 기사 내용의 이해를 돕기 위해 AI로 생성한 것입니다.)이미지 확대보기
OpenAI가 2026년 2월 공개한 보고서 'Disrupting Malicious Uses of Our Models'에 따르면, 러시아 선전 네트워크 Rybar와 연관된 계정들이 ChatGPT를 콘텐츠 농장처럼 활용해 다국어 선전글과 댓글을 대량 생산하고, 동일한 댓글을 복수의 계정에 동시 게시하는 방식으로 온라인 여론을 인위적으로 증폭시킨 정황이 포착됐다. OpenAI는 아프리카 선거 개입 계획 문서 작성에도 AI가 동원된 사실을 확인하고 관련 계정을 전면 차단했다. / 이미지 디자인=로이슈 AI 디자인팀(*본 이미지는 기사 내용의 이해를 돕기 위해 AI로 생성한 것입니다.)
■ 러시아 선전 네트워크 'Rybar'… ChatGPT를 콘텐츠 공급원으로 사용

OpenAI는 러시아 선전 네트워크 'Rybar'와 연관된 것으로 보이는 일부 ChatGPT 계정을 차단했다고 밝혔다.

Rybar는 러시아 군사 블로거 미하일 즈빈추크(Mikhail Zvinchuk)가 운영하는 온라인 채널로, 텔레그램 채널로 시작해 현재는 텔레그램·X(옛 트위터)·웹사이트·영상 플랫폼 등 다양한 매체를 통해 러시아 관점의 정치·군사 콘텐츠를 확산시키고 있다. 게시 콘텐츠는 주로 러시아 정부 정책 옹호, 우크라이나와 서방 국가 비판, 러시아 군사 활동 홍보 메시지 등으로 구성된다.

Rybar 네트워크는 소셜미디어에서 상당한 영향력을 보유하고 있다. 러시아어 텔레그램 채널 하나만 해도 구독자가 약 140만 명에 달한다. Rybar 관련 콘텐츠를 게시한 X와 텔레그램 계정 가운데 상당수도 수만 명 규모의 팔로워를 확보하고 있다.

■ ChatGPT로 게시글·댓글 대량 생성

OpenAI 보고서에 따르면 Rybar 관련 계정들은 ChatGPT를 이용해 소셜미디어 게시글과 댓글을 대량 생성했다.

해당 계정 운영자들은 주로 러시아어로 프롬프트를 입력했지만, 생성된 콘텐츠는 러시아어뿐 아니라 영어·스페인어 등 다양한 언어로 작성됐다. 일부 콘텐츠는 Rybar 브랜드 계정을 통해 게시됐고, 나머지는 Rybar와 직접적인 연관성을 드러내지 않은 별도 계정을 통해 유포됐다. 또한 운영자 가운데 한 명은 OpenAI의 영상 생성 도구 Sora를 이용해 Rybar 브랜드 홍보 영상을 제작하기도 했다.

사진=주요 ChatGPT 계정이 생성한 댓글 묶음과 동일한 내용의 트윗 6개가 서로 다른 X 계정 6곳에서 게시된 사실이 확인됐다. /사진출처= OpenAI의 ‘Disrupting Malicious Uses of Our Models[모델의 악의적 사용 차단]’ 보고서, p.23)이미지 확대보기
사진=주요 ChatGPT 계정이 생성한 댓글 묶음과 동일한 내용의 트윗 6개가 서로 다른 X 계정 6곳에서 게시된 사실이 확인됐다. /사진출처= OpenAI의 ‘Disrupting Malicious Uses of Our Models[모델의 악의적 사용 차단]’ 보고서, p.23)
■ 같은 댓글을 여러 계정에서 게시… '여론 증폭' 가능성

Rybar 관련 계정들은 게시글뿐 아니라 댓글도 대량으로 생성했다.

OpenAI 조사에 따르면, 운영자 가운데 한 명은 ChatGPT에 특정 기사에 달 수 있는 영어 댓글 여러 개를 한 번에 생성하도록 요청했다. 이후 생성된 댓글이 X와 텔레그램의 여러 계정에서 동일하게 게시된 사실이 확인됐다.

서로 다른 계정들이 같은 댓글을 반복 게시하면 다수의 이용자가 여러 사람이 동일한 의견을 가진 것처럼 인식하게 되는 효과가 나타난다. 온라인에서 여론을 인위적으로 부풀리는 전략으로 활용되는 방식이다.

OpenAI는 이 같은 ChatGPT 활용 방식이 해당 계정들을 위한 '콘텐츠 농장(content farm)' 역할을 한 것으로 보인다고 분석했다.

다만 AI로 생성된 콘텐츠가 실제로 어떤 방식으로 게시됐는지는 독립적으로 확인하지 못했다고 밝혔다. 일부 계정은 OpenAI 모델로 생성되지 않은 콘텐츠도 함께 게시한 것으로 나타났다.

■ 아프리카 영향력 사업 계획까지… '은밀한 정보작전' 정황

Rybar 관련 계정 가운데 일부는 아프리카 지역에서 영향력 활동을 수행하기 위한 계획 문서 작성도 ChatGPT에 요청한 것으로 나타났다.

해당 문서에는 X와 텔레그램 계정 운영, 아프리카를 중심으로 한 이중 언어 탐사보도 웹사이트 구축 방안이 포함됐다. 프랑스어 매체에 유료 콘텐츠를 게재하고, 온라인 메시지 확산을 위한 증폭 네트워크(amplifier network)를 구축하는 계획도 담겼다.

별도의 프롬프트에서는 아프리카에서 활동할 선거 개입팀(election interference team) 제안서 수정이 요청됐다. 해당 제안서에는 온라인 활동뿐 아니라 현지 요원 네트워크 구축과 대규모 행사 조직 등 현장 활동 계획도 포함돼 있었다.

보고서에는 콩고민주공화국(DRC)을 중심으로 한 정보 캠페인 구상도 언급됐다. 부룬디와 카메룬의 선거 절차에 대한 정보 요청, 마다가스카르에서 추진 가능한 정치 캠페인 전략도 논의된 것으로 나타났다. 일부 구상에는 현지 시위를 촉발하는 방안까지 포함됐다.

OpenAI 분석에 따르면, 해당 프로젝트에 책정된 예산 규모도 상당했다. 가장 규모가 큰 프로젝트의 경우 연간 최대 60만 달러의 예산이 편성된 것으로 나타났다.

■ 러시아 영향력 작전과 유사한 메시지 패턴… 온라인 정보에 대한 경계 필요

OpenAI는 'Fish Food' 작전에서 생성된 콘텐츠가 러시아 영향력 작전에서 흔히 나타나는 메시지 패턴을 보였다고 분석했다. 러시아와 동맹국(예: 벨라루스)을 긍정적으로 묘사하고 우크라이나를 비판하는 내용, 서방 국가들이 외국 정치에 개입하고 있다는 주장이 대표적이다.

다만 OpenAI는 해당 콘텐츠가 주요 언론에서 크게 확산된 사례나 아프리카 현장에서 실제 활동이 이루어졌다는 증거는 확인하지 못했다고 밝혔다.

이번 사건은 생성형 AI가 실제로 어떻게 악용될 수 있는지 보여주는 사례로 평가된다. 생성형 AI를 활용하면 게시글·댓글·영상 콘텐츠 등을 빠르게 대량 생산할 수 있다. 생산된 콘텐츠는 일반 이용자나 뉴스 계정처럼 위장한 계정을 통해 유포될 수 있으며, 메시지를 만든 주체를 숨긴 채 확산될 경우 온라인 여론 형성에 영향을 미칠 가능성이 있다. 전문가들은 웹사이트나 SNS에서 접하는 정보의 출처를 확인하는 습관이 필요하다고 지적한다.

▶ 원문 기사 출처
"Disrupting malicious uses of our models. An update, February 2026," OpenAI.

김지연(Jee Yearn Kim) Ph.D.
미국 신시내티 대학교(Cincinnati University)에서 형사정책학 박사를 취득했다. 현재 동국대 경찰행정학부 법심리연구소 박사후 연구원으로, 생성형 AI 기술 역기능 및 사용자 위험 요인 대응 정책 연구에 참여하고 있다. 주요 연구 분야는 범죄 행위의 심리학, 범죄자 위험 평가, 교정 개입 원칙, 형사사법 실무자 조직행동, 스토킹 범죄자 개입 등이다.


김지연 형사정책학 박사 cjdr.kim@gmail.com
로이슈가 제공하는 콘텐츠에 대해 독자는 친근하게 접근할 권리와 정정·반론·추후 보도를 청구 할 권리가 있습니다.
메일: law@lawissue.co.kr 전화번호: 02-6925-0217
리스트바로가기
상단으로 이동