AI News

Anthropic 안전 책임자(Safety Chief) 사퇴: AI 업계를 뒤흔든 "위험에 처한 세상" 경고

Creati.ai 편집팀 작성
2026년 2월 10일

인공지능 커뮤니티에 충격파를 던진 사건으로, Anthropic의 세이프가드 연구팀(safeguards research team) 수장인 므리낭크 샤르마(Mrinank Sharma)가 사임했습니다. 월요일에 X(구 트위터)를 통해 발표된 그의 수수께끼 같고 철학적인 사직 서한은 이 회사의 최신 플래그십 모델인 Claude Opus 4.6이 출시된 지 불과 며칠 만에 나왔습니다. 샤르마의 퇴사는 단순한 인적 교체가 아닙니다. 이는 세계 최고의 AI 연구소 내에서 상업적 확장(Commercial scaling)과 윤리적 정렬(Ethical alignment) 사이의 갈등이 심화되고 있다는 극명한 신호입니다.

기술적 벤치마크 대신 시인 라이너 마리아 릴케와 윌리엄 스태퍼드를 인용한 샤르마의 사직 서한은 "서로 연결된 일련의 위기"에 직면한 "위험에 처한 세상(world in peril)"에 대해 경고했습니다. "헌법적 AI(Constitutional AI)"와 안전 우선 개발을 약속하며 설립된 Anthropic과 같은 기업에게, 3,500억 달러의 기업 가치를 추진하는 와중에 핵심 안전 리더를 잃은 것은 업계의 궤적에 대한 불편한 질문을 던집니다.

"위험에 처한 세상" 서한: 경고의 분석

이 사직 서한에는 실리콘밸리 퇴사 시 흔히 볼 수 있는 표준적인 기업적 인사치레가 눈에 띄게 빠져 있었습니다. 대신 샤르마는 세상의 상태와 그 안에서의 기술의 역할에 대한 침울한 성찰을 내놓았습니다. 그는 인류가 "우리의 지혜가 세상에 영향을 미칠 수 있는 능력에 비례하여 성장해야만 하며, 그렇지 않으면 그 결과를 감당해야 하는 문턱"에 접근하고 있다고 명시적으로 밝혔습니다.

이러한 언어는 샤르마의 우려가 기술적 실패나 "환각(hallucinations)" 그 이상임을 시사합니다. 그는 가속화되는 AI의 능력과 이를 억제하기 위한 사회적 구조 사이의 더 깊고 실존적인 정렬 불일치를 지적합니다.

사직 성명서의 주요 발췌 내용은 다음과 같습니다:

  • 글로벌 위기에 대하여: 세계가 단순히 AI 리스크뿐만 아니라 AI가 기존의 취약성을 악화시키는 "다중 위기(polycrisis)"에 직면해 있다는 경고.
  • 인류에 대하여: "AI 비서가 어떻게 우리를 덜 인간적으로 만들거나 우리의 인성을 왜곡하는지"를 조사하는 그의 마지막 프로젝트에 대한 특별한 언급.
  • 지혜 대 권력에 대하여: 우리의 기술적 영향력이 우리의 도덕적, 지적 성숙도를 앞지르고 있다는 주장.

가치 갈등: 내부의 투쟁

샤르마 성명에서 가장 뼈아픈 부분은 압박 속에서 원칙을 고수하는 것의 어려움에 대한 고백이었습니다. 샤르마는 "우리의 가치가 우리의 행동을 진정으로 지배하게 만드는 것이 얼마나 어려운지 반복해서 보았다"라며 "나 자신 내부에서, 그리고 가장 중요한 것을 뒤로 미루라는 압박에 끊임없이 직면하는 조직 내부에서 이것을 보았다"라고 썼습니다.

이 고백은 Anthropic의 브랜드 정체성의 핵심을 찌릅니다. 안전 문제로 OpenAI를 떠난 전직 직원들이 설립한 Anthropic은 속도를 위해 안전을 타협하지 않는 연구소인 "방 안의 어른(adult in the room)"으로 자처해 왔습니다. 그러나 샤르마의 떠남은 Claude Opus 4.6의 출시와 대규모 자본 유입으로 인해 판돈이 커지면서 내부 문화가 변하고 있을 수 있음을 시사합니다.

업계 분석가들은 샤르마가 언급한 "압박"이 GPT-5.3-Codex 및 기타 신흥 거물들과 경쟁하기 위해 모델을 출시해야 하는 필요성일 가능성이 높다고 추측합니다. 3,500억 달러의 기업 가치를 추구하려면 엄격한 세이프가드 연구에 필요한 느리고 신중한 속도와 충돌할 수 있는 공격적인 제품 로드맵이 필요합니다.

AI 안전 분야의 잇따른 사직 패턴

Mrinank Sharma는 고립된 사례가 아닙니다. 그의 사직은 프로토콜보다 제품 우선순위를 두는 것에 대해 유사한 우려를 표하며 최고 수준의 AI 기업을 떠나는 안전 연구원들의 증가하는 추세를 따르고 있습니다. 바로 지난주에는 Harsh Mehta(R&D)와 수석 과학자 Behnam Neyshabur를 포함한 다른 주목할 만한 Anthropic 인물들이 "새로운 것을 시작하기 위해" 떠난다고 발표했습니다.

이러한 탈출은 다른 연구소의 과거 사례를 거울처럼 보여주며, AI 시스템의 "브레이크"를 만드는 임무를 맡은 개인들이 차량에서 완전히 내려야 한다고 느끼는 우려스러운 패턴을 형성하고 있습니다.

표: 최근 주요 AI 안전(AI Safety) 분야 사직 및 배경

성명 직책 조직 사유 / 배경
Mrinank Sharma 세이프가드 팀장 Anthropic 확장 압박 속 가치 갈등과 "위험에 처한 세상" 언급.
Claude Opus 4.6 출시 며칠 후 발생.
Harsh Mehta R&D 연구원 Anthropic 내부 변화 속에서 "새로운 것을 시작하기 위해" 사임 발표.
기술 인력의 광범위한 이탈의 일부.
Behnam Neyshabur 수석 AI 과학자 Anthropic 다른 연구원들과 동시에 사임.
연구 방향에 대한 잠재적인 전략적 불일치 신호.
과거 사례 시니어 안전 리드 OpenAI / Google DeepMind 제품 출시를 위해 안전 팀이 소외됨을 언급하며 사임(예: Jan Leike, Ilya Sutskever).

상업적 배경: Claude Opus 4.6

이 사임의 타이밍은 매우 중요합니다. Anthropic은 최근 우수한 에이전트 코딩 성능과 사무실 생산성 향상을 내세운 모델인 Claude Opus 4.6을 출시했습니다. 기술적 리뷰는 모델의 능력을 칭찬했지만, 출시 속도는 정밀 조사의 대상이 되었습니다.

샤르마의 사임 이후 온라인 담론은 치열했습니다. X의 기술 전문가들과 논평가들은 그의 게시물을 분석하며 Opus 4.6을 출시하기 위한 추진 과정에 안전 임계값에 대한 타협이 포함되었을 것이라고 추측했습니다. 한 바이럴 댓글은 "안전 장치를 만드는 사람들과 매출 목표를 만드는 사람들이 동일한 조직도에 있지만, 그들은 서로 다른 변수를 최적화한다"라고 지적했습니다.

우려되는 점은 "안전"이 엔지니어링 제약 조건이 아니라 마케팅 용어가 되고 있다는 것입니다. 세이프가드 수장이 조직이 "가장 중요한 것을 뒤로 미루고 있다"라고 느낀다면, Claude의 행동을 지배한다고 알려진 "헌법적 AI" 프레임워크의 신뢰성에 의구심이 생길 수밖에 없습니다.

AI 거버넌스(AI Governance)에 미치는 영향

샤르마의 퇴사는 AI 업계의 자율 규제 상태를 보여주는 지표 역할을 합니다. 주요 연구소 중 가장 안전 의식이 높다고 평가받는 Anthropic조차 가치 갈등(value conflicts)으로 인해 세이프가드 리더십을 유지하는 데 어려움을 겪고 있다면, 이는 시장 인센티브의 무게 아래 자발적인 기업 거버넌스가 실패하고 있음을 시사합니다.

사직을 통해 강조된 핵심 과제:

  1. 비인간화 위험: AI가 어떻게 인성을 왜곡하는지에 대한 샤르마의 초점은 물리적 안전(생물 무기 등)을 넘어 심리적, 사회적 해악으로 확장되는 위험을 시사합니다.
  2. 배포 속도: 모델 개발 주기와 안전 연구 주기 사이의 격차가 벌어지고 있습니다.
  3. 자본 압박: 기업 가치가 수천억 달러에 달하면서 투자자에 대한 수탁 의무가 인류에 대한 도덕적 의무와 충돌하고 있습니다.

결론

므리낭크 샤르마의 사임은 단순한 인사 발표 그 이상입니다. 이는 조용한 방에서 울려 퍼지는 호각 소리입니다. Anthropic이 급격한 확장을 계속하고 세상이 Claude Opus 4.6과 같은 도구를 받아들이는 동안, 지혜, 가치, 그리고 "위험에 처한 세상"에 대해 샤르마가 던진 질문은 여전히 답을 찾지 못한 채 남아 있습니다. Creati.ai는 업계가 이 경고에 귀를 기울일지, 아니면 이를 무시하고 가속화할지 계속해서 지켜볼 것입니다.

추천