최근 소프트웨어 개발자들 사이에서 인공지능(AI) 도구 활용이 빠르게 확산되고 있는 가운데, 여전히 AI의 ‘정확성’에 대한 신뢰는 낮은 것으로 나타났다. 기술 커뮤니티 플랫폼 스택오버플로우(Stack Overflow)가 발표한 2025년 개발자 보고서에 따르면, 전체 응답자의 84%가 일상 업무에 AI 코딩 도구나 보조 시스템을 사용하고 있다고 응답했다.

이들 중 상당수는 코드 자동 완성, 오류 탐지, 문서 생성 등 다양한 방식으로 AI를 활용하고 있지만, AI의 결과물에 대해 무조건적으로 신뢰하지는 않는 분위기다. 실제로 응답자의 단 33%만이 “AI가 제시하는 답변의 정확성을 대체로 신뢰한다”고 밝혔다. 나머지는 “검증이 반드시 필요하다”거나 “AI가 틀린 정보를 줄 가능성이 있다”고 우려했다.
특히 초급 개발자일수록 AI 의존도가 높지만, 그만큼 잘못된 코드나 보안 취약점을 그대로 반영할 위험도 있다는 지적이 나온다. 스택오버플로우는 보고서에서 “AI는 생산성을 높이는 도구로 유용하지만, 인간 개발자의 비판적 사고를 대체할 수는 없다”고 강조했다.
기업 입장에서도 AI 코딩 도구 도입은 양날의 검이다. 빠른 개발 주기와 비용 절감에는 도움이 되지만, 품질 관리 및 보안 이슈를 어떻게 해결할 것인가에 대한 기준이 모호하다는 것이다. 이에 따라 일부 기업은 사내 코드 리뷰 가이드라인에 ‘AI 생성 코드의 수동 검증’ 항목을 추가하고 있는 것으로 알려졌다.

한편, 보고서에 따르면 AI 도구로 가장 많이 사용되는 플랫폼은 GitHub Copilot, ChatGPT, Amazon CodeWhisperer 등이며, 최근에는 자체 LLM(대형언어모델)을 활용해 사내 개발 환경에 최적화된 코딩 AI를 구축하려는 시도도 증가하고 있다.
이번 결과는 AI 도입의 양적 성장은 분명하지만, 질적 신뢰를 확보하기 위해서는 투명성, 레퍼런스 공개, 코드 출처 명시 등 보다 정교한 기능 개선과 윤리 기준 마련이 필요하다는 업계의 숙제를 다시 한번 드러낸다.
글 / 한만수 news@cowave.kr
(c) 비교하고 잘 사는, 다나와 www.danawa.com








