미국 캘리포니아주가 AI 안전·보안 규제의 분수령으로 평가되는 ‘AI 안전법(SB 53)’에 서명했다. 이 법은 대형 AI 기업을 대상으로 중대한 안전사고 발생 시 15일 이내 공개 보고를 의무화하고, 안전·보안 관련 내부 프로토콜을 외부에 투명하게 공개하도록 규정하고 있다.
SB 53에 따르면 일정 규모 이상의 AI 개발 기업은 사고 발생 즉시 내부 보고 후, 최대 15일 이내 대중에 공개해야 한다. 여기서 ‘중대 사고’는 AI 시스템이 사회적·경제적 피해를 일으키거나, 안보·공공 안전에 직접적 영향을 끼칠 가능성이 있는 사례를 포함한다.
또한 기업들은 자사의 AI 모델에 적용하는 안전·보안 프로토콜, 리스크 관리 방안, 데이터 보호 체계를 의무적으로 공개해야 한다. 이는 “AI의 위험을 비밀리에 감추지 말라”는 주정부의 강력한 메시지로 해석된다.
이번 조치는 연방 차원의 AI 규제가 아직 본격화되지 않은 상황에서, 주 단위 최초의 강력한 공개 규제라는 점에서 의미가 크다. 캘리포니아는 실리콘밸리의 본거지로, OpenAI·구글·메타 등 주요 AI 기업 본사가 위치해 있어 실질적 파급력이 상당할 것으로 전망된다.
전문가들은 SB 53이 “AI의 SEC 공시제도화”와 유사한 역할을 할 것이라 평가하며, 향후 다른 주(州)나 국가로 확산될 가능성을 지적한다.
이번 서명과 동시에 캘리포니아는 고용·채용 과정에서 AI 사용을 규율하는 법(FeHA 개정안)도 발효시켰다. 기업은 AI를 활용한 채용 평가·면접 시스템에 대해 차별 방지, 투명성 보장을 준수해야 하며, 지원자는 본인의 평가 과정에 AI가 사용되는지 확인할 권리를 가진다.
AI 기업들은 규제 준수 비용 증가를 우려하는 한편, “사회적 신뢰 확보를 위한 불가피한 조치”라는 평가도 나온다. 시민단체와 노동 단체들은 이번 법안을 환영하며, “AI 안전성과 공정성을 제도권에 편입시킨 첫 사례”라고 강조했다.
글 / 한만수 news@cowave.kr
(c) 비교하고 잘 사는, 다나와 www.danawa.com