폭발적으로 늘어난 생성형 AI 사용자, 언론 산업의 교차로에서 바라보다
생성형 AI의 확산 속도는 이전의 기술적 진보들과는 차원이 다르다. 최근 발표된 관련 통계에 따르면, 전 세계 생성형 AI의 실사용자 수가 불과 1년 만에 2배 가까이 급증한 것으로 나타났다. 실제로 ChatGPT, 구글 젬미니(Gemini), 미드저니, 클로드 등 대표적 생성형 모델들은 각각 수억 명의 월간 활성 사용자를 확보하며 플랫폼 생태계에서 필수적인 역할로 자리잡았다. 국내 주요 포털과 언론사에서도 생성형 AI를 활용한 자동 기사 작성·콘텐츠 추천 서비스들이 속속 도입됐으며, AI 기반 뉴스 콘텐츠 제작 플랫폼들도 베타 테스트를 넘어 실제 기사라인에 배치되고 있다.
이러한 성장세의 중심에는 무엇보다 ‘거대언어모델(LLM)’ 기술이 있다. 생성형 AI는 자연어를 이해하고 처리하는 LLM과 대용량의 크롤링 데이터를 내부적으로 학습해 인간과 거의 유사하거나 때로는 인간이 추정하기 힘든 창의성과 속도를 구현한다. 이른바 ‘단어의 의미 공간’을 수학적으로 표현하는 임베딩 기술, 파라메터 수십억~수조 규모의 학습 가중치 최적화, 텍스트 생성 과정에서의 attention·sampling 알고리즘 등은 기술적인 변곡점이 되었고, 자연스레 다양한 산업군에 파급 효과를 낳았다. 특히 데이터의 디지털화 비중이 높은 에디터·언론 산업, 프로그래밍·코딩, 마케팅·브랜딩 영역에선 생성형 AI가 빠른 속도로 기존 업무 플로우를 바꾸고 있다.
그러나, 기술의 진보와 달리 뉴스 생산의 현장에서는 여전히 생성형 AI의 본격적 적용을 경계하거나 유보하는 기류가 강하다. 국내외 주요 뉴스 조직과 저널리스트들 사이에서 제기되는 주된 우려는 크게 세 가지다. 첫째, 신뢰성 체계의 붕괴다. AI가 만들어낸 기사 초안은 종종 ‘할루시네이션(허위정보 생성)’ 문제를 동반하며, 사실 검증과 크로스체킹이 요구되는 뉴스룸에선 이 문제가 치명적이다. 둘째, 저널리즘 윤리·책임의 문제다. AI가 대량 생산한 기사에 오류나 저작권 침해, 또는 영향력 남용 문제 발생 시 최종 책임 주체가 불분명해진다. 셋째, 독창성과 인간적 해석력의 결핍이다. AI는 대량의 텍스트·데이터변수에서 통계적 패턴을 찾아내지만, 사회적 맥락과 사안의 본질을 해석하거나 새로운 시각을 제시하는 데에는 한계가 여전하다.
사례는 이미 국내외 곳곳에서 확인할 수 있다. 미국의 일부 지역언론은 AI가 쓴 지역뉴스를 그대로 송출했다가 잘못된 인명 표기, 엉뚱한 사건 해석 등으로 독자 클레임이 폭증하는 사태를 겪었다. 국내 포털의 자동요약·자동작성 서비스도 맞춤법 실수, 사건의 맥락 누락, 기계 번역체 문장 등이 기사 신뢰도를 하락시키는 근본적 약점으로 지적받는다. 더욱이, 현재 AI가 자동 생성하는 콘텐츠 상당수는 기존 데이터의 반복적 조합에 머물러 있고, 언론의 감시 역할(‘파수꾼 기능’)에서 결정적 취재·심층 해설 능력까지 대체했다고 평가받기 어렵다는 점은 대다수 전문가들이 공감한다.
이처럼 현실적 한계와 우려에도 불구하고, 글로벌 뉴스 산업은 생성형 AI 도입의 속도를 늦추긴커녕 ‘협업의 미래’로 초점을 옮기고 있다. 해외 유력 언론사의 경우, AI가 ‘기사 초안 작성-사실관계 1차 요약-팩트체크 자동화’ 같은 단계를 도와 기자가 오롯이 해설과 심층 인터뷰에 집중할 수 있게 돕는 ‘에디터+AI’ 모델을 실험한다. 또 데이터 저널리즘, 범죄 뉴스의 그래픽 분석 등 구조화가 가능한 분야에서는 AI가 큰 가치를 입증하고 있다. 실제로 ‘AI로 기초 데이터 수집→기자가 자체 검증·스토리텔링’의 역할 분리, 그리고 독자의 수요패턴 변화(짧고 핵심만 소비)를 반영한 뉴스 소비 그라인드는 뉴스 생산·배포 패러다임에 서서히 균열을 내고 있다. 저널리스트의 전문성·윤리의식·탐구력을 중심축으로 AI를 ‘생산 보조 시스템’으로 활용해야 한다는 목소리가 늘어나는 배경이다.
향후 관전 포인트는 다음 세 가지다. 첫째, 기술적 엄밀성과 저널리즘 가치의 균형. LLM 기반 생성형 AI의 한계(팩트 검증, 사회적 맥락 이해 등)를 시스템적으로 최소화하면서, 인간 취재의 본질적 가치를 유지할 방법론이 주요 이슈가 될 전망이다. 둘째, AI 윤리·정책의 빠른 정립. 말 많은 저작권 논란, 취재원 보호, 데이터 편향·차별성 문제 등에서 미흡한 채 AI 뉴스 생산이 상용화되면 뉴스 소비자와 사회 전체의 신뢰가 위태로워질 수 있다. 셋째, 언론 소비 패턴의 다변화다. AI 기반 뉴스 큐레이션·개인화 추천 시대에 ‘읽고 싶은 것만’ 접하는 필터 버블 현상, 선정적·감성적 AI콘텐츠의 부상도 눈여겨볼 지점이다.
세계 언론 산업이 맞이한 이 교차점에서 우리에게 가장 필요한 것은 기술에 대한 맹목적 수용이 아니라, 기술적·윤리적 성찰과 책임 있는 활용, 그리고 인간 저널리스트의 창의성과 해석력이 결합된 뉴스 생태계 구축임을 다시 한번 확인한다. 생성형 AI의 도전과 기회는 이제 시작이다.
— 이도현 ([email protected])


결국 소비자도 똑똑해야겠네요. AI 기사라고 다 믿지 말고 체크 필수.
결국 AI도 인간 뉴스의 한계 못 벗어나는 거 아닌가 싶습니다. 사용자는 폭증하지만 중요한 건 ‘질’이지 숫자 문제가 아니죠. 사실 수치 늘었다고 사회 전체가 발전했다는 식의 보도엔 늘 회의적입니다. 특히 뉴스 분야는 검증·윤리 없인 AI 출력물은 위험할 수밖에 없다고 보네요. 미국 언론 사례들만 봐도 오류 투성이 기사문제, 책임 불명확한 점이 무서운 겁니다. 국내 언론이 이 흐름을 쫓아가기만 하다가는 내부 자체 검증력만 잃을까 우려스럽네요. 기업의 효율성만 볼게 아니라, 근본적으로 이런 기술이 진짜 사회에 도움이 되는지 숙고할 시점입니다.
진짜 AI가 기사 써도 댓글은 못따라오지ㅋㅋㅋ
뉴스 생산의 자동화, 혁신의 상징 같지만…결국 정보 신뢰성과 맥락 해석에선 인간 저널리스트의 역할이 여전하다는 걸 다시 체감합니다. AI가 데이터 처리는 잘하지만, 정말 중요한 관점이나 의미를 뽑아주는 것엔 확실히 한계가 있어요. 특히 최신 이슈처럼 맥락이 시시각각 변하는 분야는 더더욱. 독자들도 이런 점을 간과하면 안 될 듯하네요.