AI 안전성을 선도해온 미국 인공지능 기업 Anthropic이 대규모 AI 모델의 개발과 운영 투명성을 강화하기 위한 정책 프레임워크를 공개했다. 이 프레임워크는 ‘프론티어 AI’로 분류되는 초거대 모델 개발사들이 자율적으로 안전 개발 절차를 문서화·공개하도록 하는 내용을 중심으로 구성됐다.
7일(현지시간) Anthropic은 자사 공식 블로그와 정책 브리핑을 통해 “AI 기술의 위험성과 영향력이 커지는 상황에서, 시민사회와 정부가 최소한의 정보에 접근할 수 있도록 투명성 기반을 제시해야 한다”며 “이는 기술의 속도와 리스크 사이의 균형을 위한 현실적 대안”이라고 밝혔다.
이번 제안은 기업이 스스로 자사 모델의 안전성 검토 절차를 외부에 설명하는 일종의 ‘정보 공개 장치’를 도입함으로써, AI 규제 공백을 완화하자는 취지로 읽힌다.
Anthropic이 제시한 프레임워크에 따르면, 연 매출 1억 달러 이상이거나 R&D·자본지출이 연 10억 달러를 넘는 AI 기업들은 ‘프론티어 AI’로 분류된다. 이들 기업은 자사 모델의 안전성 확보 과정을 ‘Secure Development Framework(SDF)’ 형태로 문서화해야 하며, 이는 일반에 공개돼야 한다.
SDF에는 생물·화학·방사선·핵 등 잠재적 재앙 요소에 대한 대응 절차와 리스크 완화 계획 등이 포함된다. 아울러 각 모델에 대한 테스트 결과, 운영 조건, 위험 시나리오 대응 계획 등을 요약한 ‘시스템 카드(System Card)’를 수시로 업데이트하도록 권고하고 있다.
Anthropic은 특히 “허위 정보 공개 또는 고의적 누락에 대해서는 제재가 가능해야 하며, 내부고발자를 보호하는 법적 장치도 함께 마련돼야 한다”고 강조했다.
이번 제안은 민간 기업이 자발적으로 규제 프레임워크를 형성했다는 점에서 의미가 있다. 전 세계적으로 AI 기술이 빠르게 확산되고 있지만, 각국 정부는 명확한 규제 수단이나 집행력을 확보하지 못한 상태다.
이에 대해 미국 기술전문지 와이어드는 “Anthropic의 제안은 정부가 따라가기 어려운 기술 속도에 대해, 기업 스스로 리스크 관리를 시도한 첫 현실적 모델”이라고 평가했다. 업계 일각에서는 “이러한 투명성 표준이 향후 유럽연합(EU)의 AI법, 미국 연방 규제기관, OECD의 글로벌 AI 거버넌스 논의에 반영될 가능성이 높다”고 분석하고 있다.
다만, 실제 공개 범위의 한계, 기업 비밀과 공익 사이의 균형, 국제기구나 정부 차원의 공식 인증체계 부재 등은 향후 제도화 과정에서 풀어야 할 과제로 지적된다.
한편 Anthropic은 지난해 미국 국방고등연구계획국(DARPA), 백악관 AI안전위원회, G7 AI 거버넌스 논의 등에 연이어 참여하며 AI 안전 정책 분야에서 영향력을 넓혀가고 있다. 이번 투명성 프레임워크 제안은 자율규제 모델을 넘어 국제적 협력 기반 구축의 신호탄이 될 것으로 보인다.
정부 및 산업계의 실질적 이행 의지가 향후 AI 안전성과 책임 거버넌스의 성패를 가를 핵심 변수로 작용할 전망이다.
글 / 한만수 news@cowave.kr
(c) 비교하고 잘 사는, 다나와 www.danawa.com