▲ 인스타그램
매일 출퇴근길 지하철 2호선에서 스마트폰을 들여다보는 직장인 김 모 씨는 인스타그램 피드에 뜬 인플루언서의 게시글을 습관처럼 확인합니다.
사진 속 스타일과 배경이 시선을 사로잡고 게시물에는 '좋아요 10만 개 돌파', 수백 개의 긍정적인 댓글이 반짝입니다.
하지만 문득 김 씨는 이 엄청난 '좋아요'와 댓글들이 과연 실제 사람들의 손에서만 나왔을까 하는 의문을 지울 수 없습니다.
인터넷과 소셜미디어(SNS)에서 '좋아요'나 '댓글'의 숫자는 단순한 반응 수치를 넘어서는 의미를 가집니다.
사람들이 이 수치를 콘텐츠의 인기와 신뢰도를 가늠하는 기준으로 삼기 때문입니다.
상품 후기나 인플루언서 게시글에 수백 개가 넘는 '좋아요'가 붙어 있다면 "많은 사람이 좋다고 했으니 믿을 만하다"고 판단하기 쉽습니다.
그러나 최근 국내외 연구들은 이러한 '추천 수와 댓글 수'의 상당 부분이 실제 사용자가 아닌 생성형 인공지능(AI)과 봇 계정 자동화를 통해 생성되고 있다는 사실을 보여주고 있습니다.
카이스트 연구팀은 한국어로 작성된 AI 생성 댓글 식별 기술을 개발하며 "몇 시간 안에 수십만 개의 댓글을 만들어낼 수 있다"고 설명해 자동화의 심각성을 경고했습니다.
구체적인 요금표나 업체명은 공개되지 않았지만 최근의 보도들은 "월 10만 원대 비용으로 수만 건의 댓글과 '좋아요'를 자동으로 생성해 준다"는 주장을 다루고 있습니다.
이처럼 적은 비용으로 대규모의 반응 조작이 가능해진 배경에는 GPT-4o 등 대규모 언어 모델(LLM) 기반 생성형 AI의 발전과 서버 비용 하락이 자리 잡고 있습니다.
실제로 GPT-4o 등 최신 LLM을 이용할 경우 댓글 한 개에 약 1원 내외의 비용으로 수십만 건의 자동 댓글 및 '좋아요' 생성이 가능한 것으로 알려졌습니다.
심지어 250만 원 내외의 비용으로 하루 만에 인스타그램 팔로워 30만 명, '좋아요' 수만 개를 조작한 사례도 발각된 바 있습니다.
카이스트 연구팀 역시 "GPT-4o API 등을 활용하면 한국어 댓글 한 개에 비용이 약 1원 수준이 될 수 있다"고 밝혔습니다.
이러한 구조는 소규모 자본으로도 대량의 그럴듯한 여론을 손쉽게 만들어낼 수 있는 환경이 조성됐음을 보여줍니다.
네이버, 인스타그램, 유튜브 등 주요 플랫폼 운영사들이 AI 댓글·좋아요 탐지 시스템인 '클린봇' 등을 고도화하고 있지만 완벽한 차단에는 어려움을 겪는 실정입니다.
카이스트 연구팀 보고서에 따르면 인간이 AI가 작성한 댓글을 실제 사람의 댓글로 오인하는 비율이 67%에 달해 LLM이 만든 자동화 댓글의 자연스러움이 매우 높은 것으로 나타났습니다.
문제는 단순히 '좋아요' 수가 늘어나는 것에만 머무르지 않는다는 점입니다.
인플루언서 게시글의 댓글, 온라인 쇼핑몰 후기의 별점과 댓글, 유튜브 영상의 추천 및 댓글에 이르기까지 전방위적인 자동화 조작 우려가 커지고 있습니다.
'좋아요'와 추천 수 조작은 주로 봇 계정(허위 계정)의 대량 생성 및 활용으로 이뤄집니다.
댓글 조작은 생성형 AI가 실제 게시글의 맥락에 맞춰 사람처럼 자연스러운 문장을 만들어내는 방식이 주류입니다.
이 두 기술이 결합하면서 '가상 인플루언서의 가상 인기'가 만들어지는 상황까지 초래될 수 있습니다.
이러한 자동화된 반응이 실제 여론으로 인식되면 경쟁 상품이나 게시물의 시장 및 사회적 신뢰도와 평가가 심각하게 왜곡됩니다.
2021년 조사에 따르면 뉴스 댓글 영향력 조사에서 42% 이상이 댓글 수가 많은 뉴스를 선택한다고 답해 댓글 수가 여론 형성의 중요한 기반임을 시사했습니다.
댓글 수가 많아 보이는 현상이 사실은 AI로 자동화된 조작일 경우 사회적 논의의 기반 자체가 흔들릴 수 있습니다.
AI에 의한 자동 댓글 및 '좋아요' 조작은 현행법상 정보통신망법, 업무방해죄, 표시광고법 등 여러 법률 위반 가능성이 높습니다.
하지만 법과 제도의 개선 속도가 AI 기술 발전을 따라잡지 못하고 있다는 지적이 끊이지 않고 있습니다.
우리가 스스로 AI 조작 가능성을 점검할 수 있는 몇 가지 방법이 있습니다.
우선 조회 수 대비 반응 비율을 보는 것입니다.
조회수가 500건인데 댓글이 1천000개 달리는 등 댓글이나 '좋아요' 수가 조회수 대비 지나치게 많지 않은지 확인해 볼 필요가 있습니다.
댓글 내용에서 문장 구조나 어투의 반복성이 높다면 자동화 가능성을 의심해야 합니다.
특정 시간대에 댓글이 갑자기 몰리거나 급격히 증가했다면 AI를 이용한 대량 생성의 가능성이 있습니다.
또한, 플랫폼이 제공하는 신고 기능이나 이상 반응 감지 기능을 적극적으로 확인해 보는 것도 좋습니다.
이처럼 우리가 스마트폰을 들여다보며 확인하는 '좋아요 100개'라는 숫자 뒤에는 실제 사람이 아닌 코드가 숨어 있을 가능성이 있습니다.
단순한 반응처럼 보였던 수치가 사실은 생성형 AI와 봇 계정이 만들어낸 것일 수 있다는 점은 우리의 일상적인 선택과 나아가 여론의 흐름에까지 어두운 그림자를 드리웁니다.
앞으로 인플루언서 게시물을 볼 때 댓글과 '좋아요' 숫자를 한 번 더 눈여겨보며 그 뒤에 정말 '사람'이 눌렀는지 묻는 비판적인 시각이 필요한 시대가 됐습니다.
(사진=연합뉴스TV 제공, 연합뉴스)



동영상 기사
동영상 기사
동영상 기사
동영상 기사
동영상 기사