
Beyond the hype: The business reality of AI for cybersecurity
전세계 기업 98%, 이미 AI 사이버보안 도입 중
보안 소프트웨어 및 하드웨어 기업 소포스(Sophos)에서 실시한 벤더 중립적인 설문조사에 따르면, 소규모 및 중간 규모 조직(50-3,000명 직원)에서 근무하는 400명의 IT 및 사이버보안 리더들 중 98%가 이미 사이버보안 인프라에서 어떤 형태로든 AI를 사용하고 있다고 응답했다. 또한 새로운 사이버보안 플랫폼을 선택할 때 거의 99%의 조직이 AI 기능을 필수 요구사항 목록에 포함시키고 있다. 이런 높은 수준의 AI 보편화로 인해 AI가 항상 정답이며 항상 더 나은 사이버보안 결과를 제공한다고 여기기 쉽지만, 현실은 그렇게 단순하지 않다.
생성형 AI 최대 기대효과, 사이버 위협 방어 강화와 ROI 개선 각 20% 차지
생성형 AI(GenAI)에 대한 메시지가 사이버보안 분야와 개인 생활 전반에 걸쳐 포화 상태에 이르면서, 이 기술이 사이버보안 결과를 향상시킬 방법에 대한 기대가 높아졌다. 설문조사에 따르면 조직들이 사이버보안 도구에 생성형 AI 기능이 제공하길 바라는 주요 이점에는 사이버 위협으로부터의 향상된 보호(20%)와 사이버보안 지출에 대한 개선된 투자 수익률(ROI)(20%)이 공동 1위를 차지했다.
조사 결과는 사이버보안에서 생성형 AI의 가장 큰 이점이 무엇인지에 대한 명확한 컨센서스가 없음을 보여준다. 동시에 가장 일반적으로 원하는 이점들은 향상된 사이버 보호나 비즈니스 성과(재정적, 운영적 측면 모두)와 관련되어 있다. 데이터는 또한 사이버보안 솔루션에 생성형 AI 기능을 포함시키는 것이 조직이 최신 보호 기능을 유지하고 있다는 확신과 안심을 제공한다는 것을 시사한다.
특히 주목할 점은 조직 규모에 따라 생성형 AI에서 기대하는 이점이 달라진다는 것이다. 소규모 기업(50-99명 직원)의 경우 직원 소진 감소가 가장 원하는 이점이었다. 이는 직원 결근이 적은 인력을 보유한 소규모 조직에 불균형적으로 영향을 미치기 때문일 수 있다. 반면, 100-249명 직원을 가진 조직은 엄격한 재정적 제약을 강조하며 사이버보안 지출에 대한 개선된 수익률을 우선시한다. 대규모 조직(1,000-3,000명 직원)은 사이버 위협으로부터의 향상된 보호를 가장 중요하게 여긴다.

사이버보안 전문가 89%, AI 기능의 결함이 조직에 해를 끼칠 수 있다고 우려
AI는 많은 이점을 제공하지만, 모든 기술적 기능과 마찬가지로 여러 위험도 수반한다. 설문조사에서는 이러한 잠재적 함정에 대한 인식 수준이 다양하게 나타났다. 사이버 위협으로부터의 향상된 보호는 AI 도입의 주요 동기지만, 품질이 떨어지는 AI 모델은 오히려 보안 위험을 증가시킬 수 있다. "쓰레기를 넣으면 쓰레기가 나온다"는 격언이 AI에 특히 적용된다. 99%의 조직이 AI 기능 평가 시 개발 프로세스와 통제 수준을 검토하지만, 대부분은 공급업체 투명성 부족과 AI 지식 한계로 인해 실질적인 평가가 어렵다.
조직의 80%는 생성형 AI가 사이버보안 제품 비용을 크게 증가시킬 것으로 예상하지만, 87%는 이 비용이 제공하는 절감액으로 상쇄될 것이라 확신한다. 대규모 조직($500M 이상)이 소규모 조직보다 이러한 ROI에 더 확신을 보이지만, 75%는 AI 비용 정량화가 어렵다고 인정한다. 비용 가시성 부족은 AI 투자의 실질적 가치 평가를 어렵게 만든다.
AI의 보편화로 인해 과도한 의존 위험이 있다. 설문조사에 참여한 전문가들 중 84%는 AI 도입으로 인한 사이버보안 전문가 인원 감축 압력에 대해 우려를 표명했으며, 이 중 42%는 매우 우려된다고 응답하고 41%는 다소 우려된다고 밝혔다. 더불어 87%의 응답자들은 AI에 대한 과도한 의존이 사이버보안 책임성 부족으로 이어질 수 있다고 우려했으며, 37%는 이에 대해 매우 우려하고 있으며 50%는 다소 우려하고 있다고 응답했다.
이러한 우려는 모든 규모 세그먼트와 산업 부문의 응답자들이 일관되게 높은 비율로 보고하고 있다.
87%의 기업이 AI 비용은 절감 효과로 상쇄된다고 확신, 효과적 활용 방안은?
AI는 위험을 수반하지만 신중한 접근으로 사이버 방어와 비즈니스 성과를 향상시킬 수 있다. 공급업체 선택 시 AI 모델의 훈련 데이터 품질, 개발팀의 전문성, 그리고 개발 및 배포 프로세스에 대해 질문해야 한다. 또한 AI 투자에는 명확한 목표 설정, 이점 정량화, 투자 우선순위 지정 및 영향 측정이 필요하다. 무엇보다 AI를 사이버 방어 도구의 하나로 보고, 궁극적인 보안 책임은 인간에게 있음을 인식해야 한다. AI는 반복적인 작업을 처리하고 통찰력을 제공함으로써 직원을 지원하는 가속 도구로 활용해야 한다.
FAQ
Q: 사이버보안에서 생성형 AI와 딥 러닝의 차이점은 무엇인가요?
A: 딥 러닝(Deep Learning) 모델은 학습한 내용을 적용하여 작업을 수행합니다. 예를 들어, 적절히 훈련된 딥 러닝 모델은 이전에 한 번도 본 적 없는 파일이라도 1초 이내에 악성인지 양성인지 식별할 수 있습니다. 반면 생성형 AI(Generative AI) 모델은 입력을 동화하고 이를 활용해 새로운 콘텐츠를 생성합니다. 예를 들어, 보안 운영을 가속화하기 위해 위협 활동 요약을 자연어로 생성하고 분석가가 취해야 할 다음 단계를 추천할 수 있습니다.
Q: 사이버보안 제품에 포함된 AI의 품질을 어떻게 평가할 수 있나요?
A: AI 품질을 평가하기 위해서는 공급업체에게 다음 세 가지 핵심 영역에 대해 질문해야 합니다: 1) 훈련 데이터의 품질, 양, 출처, 2) 개발 팀의 AI 전문 지식 수준과 사이버 위협에 대한 이해도, 3) AI 기능 개발 및 배포 시 사용하는 프로세스와 품질 관리 시스템. 이러한 질문에 명확하고 상세한 답변을 제공하는 공급업체를 선택하는 것이 좋습니다.
Q: 조직이 사이버보안에서 AI에 과도하게 의존하는 것을 어떻게 방지할 수 있나요?
A: AI를 사이버 방어 도구의 하나로 인식하고, 사이버보안 책임은 궁극적으로 인간에게 있다는 것을 분명히 해야 합니다. AI는 저수준의 반복적인 작업을 자동화하고 인간 분석가에게 통찰력을 제공하는 데 가장 효과적입니다. 명확한 AI 활용 지침을 수립하고, 정기적으로 AI 시스템의 결정을 검토하며, 보안 팀에게 AI 도구의 한계와 적절한 사용법에 대한 교육을 제공하는 것이 중요합니다.
해당 기사에서 인용한 설문조사 자료는 링크에서 확인할 수 있다.
기사는 클로드와 챗GPT를 활용해 작성되었습니다.
AI Matters 뉴스레터 구독하기