* 출처는 안랩입니다.
우리나라가 오는 1월 22일 AI 기본법을 시행한다. 전 세계에서 AI 규제법을 전면적으로 시행하는 첫 사례다. AI 기술이 산업과 사회 전반에 빠르게 확산되면서, 그 영향력만큼이나 윤리적 문제와 보안 이슈에 대한 우려도 커지고 있다. 특히 개인정보와 사생활 침해 문제는 사회적 신뢰를 훼손하고 갈등을 증폭시킬 수 있는 핵심 쟁점으로 꼽힌다.
AI 기본법은 이런 위험을 최소화하고, AI 기술이 안전하고 책임 있는 방향으로 활용될 수 있도록 법적 기준을 마련하기 위해 제정됐다. 생성형 AI와 고영향 AI를 중심으로 AI 개발과 제공, 이용 전반을 규율하며 AI 서비스 이용자에게도 보안과 책임 있는 활동을 요구한다. 이번 글에서는. AI 기본법의 주요 내용을 살펴보고, AI 서비스 이용자가 반드시 알아야 할 보안 수칙도 함께 짚어본다.

AI 기본법 적용 대상은?
AI 기본법은 모든 AI 기술을 일괄적으로 규제하는 법은 아니다. 단순 분류나 예측 기능을 수행하는 AI 시스템은 원친적으로 규제 대상에 포함되지 않는다. 대신 사람의 생명과 신체 안전, 기본권에 중대한 영향을 미치거나 그런 위험이 발생할 가능성이 있는 AI 시스템을 ‘고영향 AI’로 정의하고, 이를 주요 규제 대상으로 삼고 있다.
또한, 입력된 데이터를 기반으로 새로운 결과물을 만들어내는 ‘생성형 AI’ 역시 AI 기본법의 적용 대상에 포함된다. 이와 함께 AI 시스템을 개발하거나 제공하는 사업자뿐만 아니라 AI를 활용한 제품이나 서비스를 제공하는 사용자도 법 적용 대상에 포함돼 있다. 이를 통해 AI 기본법은 AI 기술 개발부터 서비스 제공과 활용 단계까지 전반을 규율하는 것을 목표로 한다.
AI 기본법은 어떤 내용을 담고 있을까?
1) 산업 기반 조성
AI 기본법의 첫번째 주요 내용은 국가 차원의 AI 산업 기반을 조성하기 위해 과학기술정보통신부 장관이 3년마다 AI 기본 계획을 수립하도록 하고, 국가인공지능위원회의 실효성을 강화하며 AI 안전연구소 설립 등의 제도적 기반을 마련하는 것이다.
* 전체내용은 아래에서 확인하세요.
https://www.ahnlab.com/ko/contents/content-center/36070







