
출처 : 챗GPT 생성 이미지
오픈AI가 인공지능(AI) 기술 확산에 따른 잠재적 위험을 체계적으로 분석하고 대응하기 위한 고위 임원을 새로 채용한다. 회사는 최근 ‘재난대비 책임자(Head of Preparedness)’ 직무 공고를 내고, 사이버 보안부터 정신건강에 이르는 AI 관련 신흥 위험을 연구·관리할 인재를 찾고 있다고 밝혔다.
샘 올트먼 오픈AI 최고경영자(CEO)는 소셜미디어 X를 통해 “AI 모델이 실제적인 도전 과제를 만들어내기 시작했다”며, 정신건강에 대한 잠재적 영향과 함께 “컴퓨터 보안 측면에서 매우 뛰어난 모델이 중대한 취약점을 발견하기 시작하고 있다”고 언급했다. 그는 방어 역량 강화를 통해 사이버 보안을 개선하는 동시에, 공격자에 의한 악용을 막는 균형 잡힌 접근이 필요하다고 강조했다.

출처 : 샘 알트먼 X계정
이번 채용 공고에 따르면 이 재난대비 책임자는 오픈AI의 ‘준비태세 프레임워크’를 실행하는 역할을 맡는다. 해당 프레임워크는 심각한 피해를 초래할 수 있는 최첨단 AI 역량을 추적하고 사전에 대비하기 위한 회사의 전략을 설명하는 체계다. 오픈AI는 2023년 재난대비팀을 처음 출범시키며 피싱과 같은 즉각적인 위협부터 핵 관련 위험처럼 보다 장기적이고 추정적인 위험까지 폭넓게 연구하겠다고 밝힌 바 있다. 연봉은 55.5만불에 오픈AI 지분 보상이 포함된 조건이다.
그러나 이후 재난대비업무를 총괄하던 알렉산더 마드리(Aleksander Madry)는 1년이 채 되지 않아 AI 추론 분야로 보직이 변경됐고, 다른 안전·준비태세 관련 임원들도 회사를 떠나거나 역할을 전환했다. 최근 오픈AI는 경쟁사가 충분한 보호장치 없이 ‘고위험’ 모델을 공개할 경우, 자사 안전 요건을 조정할 수 있다는 내용을 재난대비 프레임워크에 추가하기도 했다.
한편 생성형 AI 챗봇의 정신건강 영향에 대한 우려도 커지고 있다. 최근 제기된 소송에서는 챗GPT가 이용자의 망상을 강화하고 사회적 고립을 심화시켜 극단적 선택으로 이어졌다는 주장도 나왔다. 오픈AI는 이에 대해 감정적 위기 신호를 더 잘 인식하고, 이용자를 현실 세계의 지원으로 연결하는 기능을 지속적으로 개선하고 있다고 밝혔다.
글 / 김지훈 news@cowave.kr
(c) 비교하고 잘 사는, 다나와 www.danawa.com








