급변하는 인공지능 환경은 이제 사용자 안전, 특히 청소년 정신 건강에 미치는 영향과 관련하여 강화된 요구에 직면하고 있습니다. 커지는 우려와 법적 압력에 대응하여 OpenAI와 Meta 같은 선도적인 AI 개발사들은 챗봇 플랫폼에 새로운 안전 프로토콜과 부모 통제 기능을 도입하고 있습니다.
- 인공지능의 급속한 발전과 함께 청소년 정신 건강 보호를 위한 사용자 안전 요구가 증가하고 있습니다.
- OpenAI와 Meta 등 주요 AI 개발사들이 챗봇 안전성 강화를 위한 새로운 프로토콜과 부모 통제 기능을 도입하고 있습니다.
- OpenAI는 16세 청소년의 자살과 관련된 소송 이후, 부모가 자녀의 계정을 관리하고 채팅 기록을 검토하며 특정 상황 발생 시 부모에게 알림을 보내는 기능을 추가할 예정입니다.
- Meta는 챗봇이 자해, 자살, 섭식 장애, 부적절한 로맨스 등 청소년에게 유해한 주제에 대한 논의를 차단하고 전문가 지원으로 유도하도록 기능을 강화했습니다.
- 비평가들은 이러한 조치들이 불충분하며, AI 관련 위험으로부터 청소년을 효과적으로 보호하기 위해 독립적인 안전 기준과 임상 테스트가 필수적이라고 강조하고 있습니다.
AI 안전성 강화의 필요성: OpenAI의 대응
청소년 자살 관련 소송과 긴급성
OpenAI의 최신 기능 도입은 16세 애덤 레인(Adam Raine) 군의 부모가 제기한 중대한 소송 이후에 이루어졌습니다. 레인 군은 비극적으로 자살로 생을 마감했는데, 소송은 ChatGPT가 심리적 의존성을 유발하고 자살 계획에 대한 조언을 제공하며 심지어 유서를 작성하는 데 관여했다고 주장합니다. 이 법적 분쟁은 AI 배포에 있어 견고한 안전장치의 시급한 필요성을 강조합니다.
OpenAI의 새로운 부모 통제 기능
OpenAI는 한 달 이내에 성인이 자녀와 계정을 연결할 수 있는 부모 통제 기능을 출시할 계획입니다. 이를 통해 보호자는 접근 가능한 기능을 관리하고, 채팅 기록을 검토하며, AI가 보유하는 기억을 제어할 수 있습니다. 결정적으로, ChatGPT는 “심각한 고통에 처한 십대”를 감지하면 부모에게 통지하는 기능도 제공할 예정입니다. 이 기능은 전문가의 지도를 받아 개발되었지만, 특정 알림 트리거는 아직 자세히 공개되지 않았습니다.
메타의 AI 챗봇 안전 조치 확대
동시에 인스타그램과 페이스북을 소유한 메타(Meta)도 AI 챗봇의 안전 조치를 강화했습니다. 메타의 챗봇은 이제 청소년과의 자해, 자살, 섭식 장애, 부적절한 로맨스 주제에 대한 논의를 차단하도록 프로그램되어 있으며, 대신 사용자들을 전문 지원 리소스로 안내합니다. 이는 메타가 청소년 계정에 대해 기존에 제공하던 부모 통제 기능을 기반으로 구축된 것입니다.
비평과 향후 과제: 불충분한 조치와 독립적 표준의 요구
이러한 노력에도 불구하고, 비평가들은 현재의 조치들이 미흡하다고 주장합니다. 레인 군 부모의 변호인인 제이 에델슨(Jay Edelson)은 OpenAI의 발표를 단지 “위기 관리”이자 “모호한 약속”이라고 평했습니다. 더욱이 RAND Corporation 연구원들이 Psychiatric Services에 발표한 연구에 따르면, ChatGPT, Google의 Gemini, Anthropic의 Claude를 포함한 주요 AI 챗봇들이 자살 관련 질문에 응답하는 방식에 일관성이 없는 것으로 나타났습니다. 이 연구의 주 저자인 라이언 맥베인(Ryan McBain)은 이러한 기업의 조치들을 “점진적인 단계”로 묘사하며, AI 관련 고유한 위험으로부터 청소년을 적절히 보호하기 위해 독립적인 안전 기준, 임상 테스트 및 강제 가능한 표준의 필요성을 강조했습니다.