AI News

십대들이 정신 건강을 위해 인공지능(Artificial Intelligence) 챗봇에 의지하면서 전문가들 우려 촉발

영국 전역의 십대들 방에서는 조용한 혁명이 일어나고 있다. 이전 세대가 가장 깊은 불안을 일기나 친한 친구에게 털어놓곤 했던 반면, 오늘날의 청소년들은 점점 더 인공지능에게 속내를 털어놓고 있다. 증가하는 연구 결과들은 상당수의 십대들이 이제 감정적 지원, 조언, 사회적 상호작용을 위해 인공지능 동반자에 의지하고 있음을 보여준다.

이러한 변화는 아동 안전 전문가들과 심리학자들을 놀라게 했다. 이들은 이러한 디지털 신뢰관계가 판단 없이 항상 이용 가능하다는 장점이 있는 반면, 사회적 발달과 정신 건강에 심각한 위험을 초래할 수 있다고 경고한다. Bangor University와 Internet Matters의 주요 연구들이 이러한 채택 규모를 강조하면서 논의는 이론적 토론에서 규제적 안전장치 마련을 촉구하는 긴급한 요구로 이동했다.

The Rise of the Digital Confidant

청소년들 사이에서의 인공지능 챗봇 채택은 더 이상 틈새 현상이 아니다; 이는 디지털 청소년기의 표준적인 일부가 되어가고 있다. 최근 데이터는 많은 십대들에게 인공지능이 단순한 숙제 도구를 넘어 인간적 연결의 대체물로 자리잡고 있음을 보여준다.

Internet Matters의 포괄적 보고서 "Me, Myself, & AI," 는 영국의 1,000명 아동과 2,000명 부모를 설문조사했다. 그 결과는 충격적이었다: 13세에서 17세 사이의 **64%의 십대들**이 이제 도움을 위해 인공지능 챗봇을 사용하며, 상당수가 정서적 조언과 동반자 관계에 의존하고 있었다. 이러한 도구의 사용은 지난 18개월 동안 거의 두 배로 증가했으며, OpenAI의 ChatGPT, Google의 Gemini, Snapchat의 My AI와 같은 플랫폼의 접근성 증가가 이를 견인했다.

Bangor University의 Emotional AI Lab의 병행 연구도 이 추세를 뒷받침한다. 1,009명의 십대들을 대상으로 한 연구에서, 응답자의 **53%**가 인공지능 동반자로부터 받은 조언에 대해 "보통에서 완전한 신뢰(moderate to complete trust)"를 표현한 것으로 나타났다. 더욱 의미심장한 사실은, 십대의 44%는 심각한 문제에 대해 여전히 인간을 선택하겠다고 말했지만, **52%**는 적어도 한 번은 심각한 개인적 문제를 인공지능 동반자에게 털어놓았다고 인정했다.

Usage Statistics at a Glance

다음 표는 감정적·사회적 목적을 위한 십대들의 인공지능 사용에 관한 주요 발견을 정리한 것이다:

Metric Statistic Context
Reliance on AI 64% 숙제, 조언 또는 지원을 위해 인공지능을 사용하는 십대들
(출처: Internet Matters)
Trust Levels 53% 인공지능 조언에 대해 보통/완전한 신뢰를 표한 십대들
(출처: Bangor University)
Vulnerable Users 71% 취약한 아동 중 인공지능 챗봇을 사용하는 비율
(출처: Internet Matters)
Human Replacement 35% 인공지능과 대화하는 것이 "친구와 대화하는 것 같다"고 말한 십대들
(출처: Internet Matters)
Market Penetration 96% 31개 주요 인공지능 앱 중 적어도 하나를 사용해 본 십대들
(출처: Bangor University)

The Allure of Judgment-Free Support

십대들이 왜 이러한 플랫폼으로 몰려드는지를 이해하려면 상호작용의 본질을 살펴봐야 한다. 인공지능 챗봇은 24시간 내내 이용 가능하고 결코 피곤해지지 않으며, 무엇보다 판단하지 않는다.

"인공지능 시스템은 이제 소름 끼치게 영리해졌다,"라고 Bangor University의 Emotional AI Lab 소장인 교수 Andy McStay는 설명한다. "몇 년 전만 해도 챗봇과 음성 비서들은 사람들이 의미하는 바를 '이해하지 못하는' 것처럼 보였지만, 오늘날의 인공지능 시스템은 유창하고 설득력이 있으며 때로는 인간같이 공감하는 듯 보이기까지 한다."

사회적 불안, 신경다양성 또는 고립 등을 겪는 취약한 십대들에게 이러한 매력은 더 크다. Internet Matters 보고서는 **취약한 아동의 71%**가 이러한 도구를 사용하고 있음을 강조한다. 이 그룹 중 거의 4분의 1은 챗봇을 사용하는 이유로 "다른 누구와도 이야기할 사람이 없다"고 답했으며, 26%는 명시적으로 사람보다 인공지능을 선호한다고 밝혔다.

기자 Nicola Bryan는 최근 "George"라는 이름의 인공지능 아바타와의 경험을 기록하며 항상 주의를 기울이는 동반자의 유혹성을 지적했다. 사용자는 이러한 존재들이 기계적으로 생성된 것임을 알면서도 흔히 공감하는 존재로 묘사한다. 실제로 Bangor 연구에서 77%의 십대가 인공지능은 "느낄 수 없다"고 인정했지만, 다수(56%)는 소프트웨어가 그들을 "생각하거나 이해할 수 있다"고 믿었다.

The Risks: Dependency and Safety Failures

인공지능이 제공하는 즉각적인 위안은 무해해 보일 수 있지만, 전문가들은 장기적 결과가 심각할 수 있다고 주장한다. 주된 우려는 중요한 사회적 기술의 침식이다. 십대가 상대방이 항상 동의하고 인정만을 추구하도록 프로그래밍된 관계에 익숙해지면, 인간 관계의 복잡하고 불완전한 현실을 헤쳐 나가기가 점점 더 어려워진다.

Common Sense Media의 CEO인 Jim Steyer는 이러한 도구들의 규제되지 않은 확산에 대해 강력히 비판해 왔다. "인공지능 동반자는 적절한 안전 장치가 마련될 때까지 18세 미만 아동에게는 안전하지 않다,"라고 Steyer는 경고하며, 기업들이 강력하고 감정적으로 조작적인 기술을 아동들을 대상으로 사실상 실험하고 있다고 강조했다.

조언 내용과 관련된 실제적 안전 위험도 존재한다. 훈련된 치료사와 달리, 대형 언어 모델(LLM)은 의료적 전문지식이 아니라 확률에 기반해 문장을 예측한다. 챗봇이 위험한 조언을 제공하거나 사용자가 자살 충동을 표현할 때 개입하지 못한 사례들이 문서화된 바 있다.

이 위험의 심각성은 비극적인 현실 사건들로 더욱 부각되었다. 미국에서는 챗봇 캐릭터에 강한 정서적 애착을 형성했던 젊은 사용자들의 자살 이후 인공지능 기업들을 상대로 소송이 제기된 바 있다. 이러한 사건들은 교수 McStay가 말한 바와 같이 석탄광의 카나리아처럼 암울한 경고 역할을 했으며, 영국을 비롯한 각국에서 즉각적인 규제 개입을 촉구하는 계기가 되었다.

Industry Response and Regulatory Pressure

부모, 옹호 단체, 그리고 임박한 입법 압력이 커지자 주요 인공지능 기업들은 더 엄격한 안전 조치를 시행하기 시작했다.

  • Character.ai는 최근 18세 미만 사용자에 대한 중대한 변경 사항을 발표했다. 여기에는 스크립트화되지 않은 연애 또는 성적 역할극을 허용하는 "개방형" 대화에 대한 접근 제거가 포함된다. 또한 젊은 사용자에게는 한 시간 사용 제한을 도입하고, "심리학자"로 표시된 캐릭터에는 전문적인 치료를 받고 있지 않음을 상기시키는 눈에 띄는 고지문을 추가했다.
  • Meta는 연령 부적합한 콘텐츠를 필터링하기 위한 "PG-13" 등급 시스템을 개발하는 동안 자사 플랫폼 전반에서 십대의 특정 인공지능 캐릭터 기능 접근을 일시 중단했다.
  • OpenAI 등은 정신적 고통의 징후를 더 잘 감지하고 깊은 정서적 대화 대신 인간 상담 전화로 사용자를 유도하도록 안전 계층을 정교화하고 있다.

그러나 비평가들은 이러한 조치가 선제적이라기보다는 반응적이라고 주장한다. 캘리포니아에서는 "Parents & Kids Safe AI Act"가 힘을 얻고 있으며, 연령 확인 법적 요구사항과 아동을 감정적으로 중독시키도록 설계된 기능 금지를 제안하고 있다. 유사한 규제 틀들이 온라인 안전법의 범위 내에서 영국에서도 논의되고 있다.

Conclusion: A New Reality

인공지능 동반자의 시대는 도래하는 것이 아니라 이미 여기 있다. 거의 모든 십대가 주머니 속에 인공지능 챗봇을 가지고 있는 상황에서, 디지털 도구와 디지털 친구의 구분은 흐려지고 있다.

이 시스템들은 외로운 이들에게 연결의 모사 체험을 제공하지만, 전문가들의 합의는 명확하다: 이들은 인간 상호작용의 미묘함, 마찰, 진정한 공감을 대체할 수 없다. 앞으로 부모, 교육자, 규제기관이 직면할 과제는 인공지능이 다음 세대의 정서적 발달을 방해하는 목발이 아니라 지원을 제공하는 도구로 남도록 보장하는 것이다.

추천