* 출처는 안랩입니다.
국정원, ‘챗GPT 등 생성형 AI 활용 보안 가이드라인’ 배포
국가정보원이 최근 챗GPT 관련 보안 문제를 예방하기 위해 마련한 '챗GPT 등 생성형 AI 활용 보안 가이드라인'을 공개했다.
챗GPT 등 생성형 AI 기술을 활용하는 과정에서 △ 업무상 비밀ㆍ개인정보 유출 △ 가짜뉴스ㆍ비윤리적 자료 생성 등 기술 악용 우려가 제기되자 지난 4월 국정원이 국가보안기술연구소와 학계 전문가들과 함께 이번 보안 가이드라인 제정에 착수한 것이다.
국정원은 국가 사이버안보 정책을 수립ㆍ비시행하는 기관으로서 이번 보안 가이드라인을 마련했으며, 각급기관이 생성형 AI 기술을 적극 활용할 수 있는 기반을 조성했다. 보안 가이드라인 제정을 위해 '국가 사이버안보 민관 협의체 회의'를 열고 관련 분야 산학연 전문가의 의견도 청취했다.
이번 보안 가이드라인은 생성형 AI 기술 서비스 접속부터 질의, 결과물 활용 등의 과정 전반에서 지켜야 할 보안 지침을 단계별로 안내하고, 각급기관 담당자는 물론, 기술을 활용하는 일반 국민들도 이해할 수 있도록 제작됐다.
구체적으로는 생성형 AI 기술과 관련한 △ 개요 및 해외동향(챗GPT 사례 중심) △ 보안위협 사례 △ 기술 사용 가이드라인 △ 국가ㆍ공공기관의 정보화사업 구축 방안 및 보안 대책 등을 소개했다.
국정원은 생성형 AI 기술을 안전하게 이용하기 위한 필수 보안수칙으로 △ 비공개ㆍ개인정보 등 민감 정보 입력 금지 △ 생성물에 대한 정확성ㆍ윤리성ㆍ적합성 등 재검증 △ 생성물 활용 시 지적 재산권ㆍ저작권 등 법률 침해ㆍ위반 여부 확인 △ 연계ㆍ확장 프로그램 사용 시 보안 취약 여부 등 안전성 확인 △ 로그인 계정에 대한 보안 설정 강화 등을 제시했다.
출처: 국정원
* 전체내용은 아래에서 확인하세요