AI 기술이 고도화되며 자동화된 '에이전틱 AI(Agentic AI)' 시스템이 사이버보안 영역에서도 급속히 활용되고 있다. Agentic AI란 단순한 분석과 대응을 넘어, 스스로 판단하고 행동하는 AI 시스템을 의미한다. 이러한 기술은 침입 탐지, 위협 예측, 취약점 대응 등 보안 업무의 효율성과 정확성을 높이는 데 크게 기여하고 있다.

그러나 자동화된 판단과 실행이 가능하다는 점은 동시에 새로운 보안 리스크를 수반한다. 특히 Agentic AI가 오탐지나 편향된 학습 데이터를 바탕으로 잘못된 의사결정을 내릴 경우, 자동으로 이루어지는 보안 차단이나 접근 제어는 업무 중단, 서비스 오류 등의 심각한 후폭풍을 유발할 수 있다. 실제로 최근 몇몇 글로벌 기업은 AI 보안 시스템이 과도하게 트래픽을 차단해 클라우드 기반 서비스가 일시 마비되는 사례를 경험했다.
더 큰 문제는 이 같은 Agentic AI 시스템이 해커나 공격자에게 역이용될 수 있다는 점이다. AI가 스스로 공격 전략을 세우거나 시스템의 보안 패턴을 학습해 우회하는 방식이 현실화되고 있으며, 이러한 시도는 이미 다크웹에서 포착되고 있다. 이른바 '자율 공격 AI'의 등장은 보안 방어의 기본 틀 자체를 흔들 수 있다는 우려로 이어지고 있다.

전문가들은 Agentic AI가 보안의 미래인 것은 분명하지만, 기술 도입과 함께 '자율성의 범위 설정'과 '윤리적 가이드라인 마련'이 필수적이라고 강조한다. 특히 미국 국토안보부, 유럽사이버보안청(ENISA) 등은 관련 기술의 위험 시나리오에 대한 평가와 시뮬레이션을 진행 중이다. 일부 국가에서는 Agentic AI의 보안 시스템 도입에 앞서 인간 책임자 승인 절차를 의무화하는 법안도 논의되고 있다.
사이버보안이 더 이상 '인간 대 해커'의 구도만으로 설명되지 않는 시대다. Agentic AI는 보안의 핵심 도구이자, 그 자체로 통제 대상이 된 새로운 존재로 부상하고 있다.
글 / 한만수 news@cowave.kr
(c) 비교하고 잘 사는, 다나와 www.danawa.com








