Meta Platforms는 인공지능(AI) 상호작용에 대한 부모의 감독을 강화하고 있으며, 보호자가 특정 AI 캐릭터에 대한 접근을 제한하고 미성년자와 관련된 대화 주제를 모니터링할 수 있는 기능을 도입하고 있습니다. 이러한 전략적 움직임은 AI 봇이 어린이와 부적절한 대화를 나누는 사례가 보고된 이후, 젊은 사용자를 위한 AI 기술의 안전성에 대한 규제 강화와 대중의 우려 속에서 이루어졌습니다.
내년 초 출시 예정인 Meta의 향후 업데이트는 자녀의 Meta AI 동반자와의 참여에 대해 부모에게 더 많은 통제권을 제공하도록 설계되었습니다. 이러한 새로운 기능은 부모가 일대일 AI 채팅을 완전히 비활성화하고, 개별 AI 캐릭터를 차단하며, 십대들이 이러한 AI 개체와 논의하는 주제에 대한 가시성을 확보할 수 있도록 합니다. 이 이니셔티브는 AI가 미성년자를 부적절한 콘텐츠나 영향에 노출시킬 수 있다는 우려를 해결하려는 Meta의 선제적 입장을 반영합니다.
이러한 발전은 Meta와 다른 주요 AI 개발자들이 연방거래위원회(FTC)의 조사를 받고 있는 시점에 이루어졌습니다. FTC의 조사는 어린이와 상호작용할 때 AI 챗봇의 안전을 보장하기 위해 이러한 회사들이 구현한 안전 장치를 확인하는 것을 목표로 합니다. 이 조사는 AI의 윤리적 영향, 특히 젊은 인구층의 정신 건강 및 복지에 미치는 영향에 대한 광범위한 사회적 논의를 강조합니다.
8월 보고서에서는 Meta의 AI 봇이 십대와 로맨틱하고 관능적인 대화를 나누었다는 사례가 강조되었으며, 즉각적인 정책 조정이 이루어졌습니다. 이에 대응하여 Meta는 AI 시스템이 자해, 자살, 섭식 장애, 로맨틱 또는 성적인 콘텐츠와 같은 민감한 주제를 십대와 논의하는 것을 방지하기 위해 챗봇 프로토콜을 업데이트했습니다. 또한 “나이에 부적절한 응답” 생성을 억제하기 위한 새로운 안전 조치가 도입되었습니다. 이러한 강화된 제한은 현재 미국, 영국, 호주, 캐나다를 포함한 주요 시장에 배포되고 있습니다.
Meta의 기존 도구는 이미 부모가 화면 시간을 관리하고 AI 채팅 기록을 검토할 수 있도록 허용합니다. 새로운 기능은 이러한 기존 제어를 보완하여 AI 상호작용에 대한 보다 세분화된 관리 수준을 제공하는 것을 목표로 합니다. 이 회사는 신중한 고려를 통해 방대한 사용자 기반에 영향을 미치는 변경 사항을 구현하겠다는 의지를 강조했습니다.
규제 당국의 관심은 OpenAI에게도 확장되고 있으며, OpenAI는 AI 모델 및 아동 보호 조치에 대해 FTC로부터 유사한 질문을 받고 있습니다. OpenAI는 최근 자체적인 부모 통제 기능을 도입했으며, 18세 미만 사용자를 위해 적절한 설정을 자동으로 적용하기 위한 연령 확인 기술을 탐색하고 있습니다. 또한 사용자 복지를 해결하기 위한 노력을 보여주며 AI 및 정신 건강에 대한 접근 방식을 안내하는 데 초점을 맞춘 전문가 위원회를 설립했습니다.
Meta와 OpenAI의 이러한 조치는 OpenAI에 대한 사망 소송과 같이 대중의 상당한 우려를 배경으로 이루어지고 있으며, 이 소송에서 한 가족은 ChatGPT가 아들의 자살에 기여했다고 주장했습니다. 여론, 규제 기관의 압력, 그리고 실제 결과의 심각성은 이러한 기술 회사들이 AI 애플리케이션의 안전, 특히 젊고 취약한 사용자를 위한 안전을 우선시하도록 만들었습니다.