서울시 공무원 63% 생성형 AI 실무 도입, 생산성 혁신 이끄나
서울시가 발표한 최근 내부 조사의 결과, 전체 공무원 중 63%가 생성형 AI를 실제 업무에서 적극적으로 활용 중인 것으로 파악됐다. 생성형 AI 도입 이후 반복적인 문서작성, 데이터 요약, 보고서 초안 작성 등 주요 행정 업무 소요 시간이 3~4시간에서 1시간 이내로 단축됐다는 취재 결과가 나왔다. 이러한 변화는 지방행정 실무의 효율성 향상과 인적 자원 배치의 혁신적 재편 가능성을 시사한다. 다만, 기술의 급속한 전파와 대규모 플랫폼 활용 증가가 새로운 보안 위협, 데이터 유출 우려를 동반하기 때문에, 사용 패턴의 세밀한 분석과 보안 체계의 강화가 시급한 과제로 떠오르고 있다.
서울시 AI 현장 도입 사례를 분석해보면, 정책 문서의 초안 작성이나 주민 안내문 자동화, 내부 회의록 요약, 민원 대응 상담 업무 등에서 생성형 AI가 주요히 활용되고 있다. 특히 텍스트 문서 자동 요약, 표준 양식 기반 템플릿 생성 등 단순 반복성 높은 업무에서 큰 시간을 절감하고 있다. 일부 부서에서는 AI 챗봇을 통해 내부 지식 데이터베이스와 연동, 과거 수집된 정책 정보를 실시간 조회하는 방식까지 도입됐다. 전자결재와 연계되는 자동 문서화에도 실험적인 시도가 진행 중이다. 서울시 측은 실무 효율성이 개선돼 직원들의 잔업이 크게 감소했다고 밝힌다.
한편, 생성형 AI 도입에 부정적 시각도 만만치 않다. 우선, 문서 초안 자동화의 빈번한 활용이 결재부서의 검증 부실, 내·외부 공유용 문서의 데이터 정확성 저하로 이어질 수 있다는 우려가 실무진에서 제기됐다. 생성형 AI의 출력 결과가 원천 데이터와 불일치하거나, 국문 특유의 서식·표현이 어색하게 적용되는 경우도 있었다. 실제로, 일부 문서에서 개인정보나 외부 유관기관 비공개 정보가 실수로 AI 입력값에 포함돼 서버로 전송되는 사고도 보고된 바 있다. 이는 국내 공공기관의 데이터주권 논의와 밀접하게 연관된다.
AI 서비스의 활용 패턴에서 보안상 높은 리스크 요인이 식별된다. 생성형 AI는 내부적으로 외부 API 연동, 클라우드 기반 모델 운용을 기반으로 한다. 이때 입력하는 정보가 해외 클라우드 서버를 경유할 가능성이 높으며, 민감한 정책 문서, 내부 DB 질의 내용이 제3자에 노출될 수 있다. 서울시는 올 초부터 AI 사용 가이드라인을 배포해 개인정보, 보안 등급의 문서 및 기밀 데이터를 입력하지 못하도록 권고했다. 하지만 현장에서는 실효적 검증 메커니즘이 부재해 일선 직원 개개인에만 의존하는 구조가 여전히 유지되고 있다. 특히 AI가 생성하는 문서 결과물 품질과 투명성 확보를 위한 모니터링 시스템은 사실상 초기 단계에 머물러 있어, 체계적인 관리·감독이 필요하다는 지적이 뒤따른다.
추가적으로, 생성형 AI의 도입이 조직 내 업무 구조 변화에 미치는 영향 또한 주목할 만하다. 반복적이고 창의성이 덜 요구되는 정형화된 업무가 자동화됨에 따라, 일부 기능 인력이 업무 중심축에서 이탈 위험에 직면할 수 있다. 이는 중·장기적으로 ‘직원 스킬셋 다각화’, ‘AI 작동 오퍼레이터’ 같은 새로운 직무 체계 도입으로 이어질 전망이다. 아울러, AI 활용 교육, 프롬프트 설계 역량 강화 등 조직 전체의 디지털 전환 내재화가 장기적 관점에서 필수적임을 시사한다.
각국 공공기관 AI 활용 사례를 보면, 미국 및 영국의 경우 AI 전담팀을 통해 모델 출력물 검증과 감사 체계를 구비하고 있다. 반면, 국내 지자체는 해당 체계가 미흡하거나, 도입이 초기 단계에 머물러 있다. 생성형 AI 결과의 신뢰성과 데이터 유출 방지, AI가 학습에 사용하는 내·외부 데이터셋의 점검이 뒷받침되지 않으면 조직 차원의 심각한 리스크로 전이될 수 있다.
궁극적으로, 생성형 AI의 적극 활용은 업무혁신과 디지털 행정의 전환 효과를 본격적으로 견인한다. 그러나 신뢰성 낮은 결과물, 데이터 유출, 허위 정보 자동화 등 부정적 파장을 최소화하기 위한 기술적·제도적 보완 역시 시급하다. 서울시와 같은 대규모 기관일수록 API 호출 모니터링, 입력·출력 데이터 감사, 내부 교육 강화 같은 다층적 보안 조치 마련이 필수다. 마지막으로, 정책 실무의 혁신이라는 긍정 효과와, 그 이면에 내재된 보안·신뢰성 문제의 균형 잡힌 관점이 향후 AI 거버넌스의 핵심으로 제기된다.
— 윤세현 ([email protected])


업무 시간 단축했다니 좋은데🤔 혹시 이러다 세금으로 AI 구독권만 엄청 사는 거 아님? 결국 감시체계가 더 필요해 보입니다🤔
생성형 AI를 무분별하게 도입하다가 조직 내 기밀 정보가 외부 클라우드 서버로 유출되는 사태가 발생할 가능성이 큽니다. 국내 공공기관에서 표준화된 AI 보안 가이드라인과 다층 방어 체계 없이 업무 효율성만 강조하는 것은 명백한 위험 요소입니다. 실무현장에서 AI 결과물 신뢰성 검증 절차와 입력 데이터 모니터링 없이 도입 확장에만 치중하는 점은 중대한 간과입니다. 앞으로 도입 확산보다 안전망 마련이 시급하다고 판단됩니다.