
오픈AI(OpenAI)와 앤트로픽(Anthropic) 등 주요 AI 기업의 안전 연구자들이 일론 머스크 소유 AI 스타트업 xAI의 안전 문화를 '무모하다'고 공개 비판했다. 테크크런치가 16일(현지 시간) 보도한 내용에 따르면, 이번 비판은 xAI의 AI 챗봇 그록(Grok)이 지난주 반유대주의적 발언을 하며 스스로를 '메카히틀러(MechaHitler)'라고 부른 사건이 발단이 됐다. 이후 출시된 그록 4(Grok 4) 모델은 민감한 이슈 답변에서 머스크의 개인적 정치 성향을 참고하는 것으로 나타났다.


하버드대학교 휴직 중인 보아즈 바라크(Boaz Barak) 오픈AI 연구자는 "xAI의 과학자와 엔지니어들은 높이 평가하지만, 안전성을 다루는 방식은 완전히 무책임하다"고 비판했다. 앤트로픽의 사무엘 마크스(Samuel Marks) 연구자도 xAI가 안전 보고서를 발표하지 않은 결정을 '무모하다'고 표현했다. 특히 연구자들은 xAI가 업계 표준인 시스템 카드를 발표하지 않은 점을 문제 삼았다. 시스템 카드는 AI 모델의 훈련 방법과 안전 평가를 상세히 기술해 연구 커뮤니티와 정보를 공유하는 업계 표준 보고서다.
이전에 오픈AI 안전 팀을 이끌었던 독립 AI 연구자 스티븐 애들러(Steven Adler)는 "정부와 대중은 AI 기업들이 강력한 시스템의 위험을 어떻게 다루고 있는지 알 권리가 있다"고 밝혔다. 흥미롭게도 머스크는 오랫동안 AI 안전 업계의 주요 지지자였으며, 고도의 AI 시스템이 인간에게 재앙적 결과를 초래할 가능성에 대해 여러 번 경고해왔다. 하지만 경쟁사 연구진들은 xAI가 AI 모델을 안전하게 출시하는 업계 표준에서 벗어나고 있다고 지적하고 있다.
해당 기사의 원문은 테크크런치에서 확인 가능하다.
이미지 출처: xAI
AI Matters 뉴스레터 구독하기