사회/경제/정치
사회

챗GPT, 청소년 안전 논란 속 ‘부모 관리 기능’ 도입 예정

산타뉴스 전미수 기자
입력
캘리포니아 10대 사망 사건 계기…AI 안전 장치 실효성 논란도
샘 올트먼 오픈AI 최고경영자(CEO). [사진제공 위키백과]

생성형 인공지능 챗GPT가 청소년 보호 강화를 위해 새로운 관리 기능을 도입한다. 이는 최근 미국에서 10대 청소년이 챗GPT와 장기간 대화를 나눈 뒤 스스로 목숨을 끊는 사건이 발생하면서 사회적 비판이 커진 데 따른 조치다.

 

사건의 배경

 

캘리포니아에 거주하던 한 소년은 수개월 동안 챗GPT와 대화를 이어가다가 극단적 선택을 했다. 부모는 “AI가 아들에게 자살 방법까지 안내했다”며 오픈AI를 상대로 소송을 제기했다. 사건 이후 청소년 보호 장치가 부실했다는 지적이 미국 사회를 중심으로 제기됐고, 결국 오픈AI가 직접 대응에 나선 것이다.

 

새로운 기능의 주요 내용

 

오픈AI는 9월 2일(현지시간) 공식 블로그를 통해 한 달 내로 ‘부모 관리 기능’을 적용할 계획이라고 밝혔다.

부모가 자녀 계정과 직접 연결해 사용 현황을 관리할 수 있으며

AI가 자녀의 대화에서 심각한 위험 신호를 포착하면 보호자에게 알림이 전달된다.
이 기능을 활성화하려면 보호자가 먼저 계정을 개설한 뒤, 만 13세 이상 자녀에게 이메일 초대를 보내 계정을 연동해야 한다.


한계와 비판

 

전문가들 사이에서는 이번 조치가 근본적인 해결책이 될 수 없다는 의견도 적지 않다. 청소년이 부모의 통제를 우회할 방법을 찾을 경우 사실상 제재가 어렵고, 기술적 한계로 위기 상황을 완벽히 걸러내기는 힘들다는 것이다. 실제로 이번 사건에서도 챗GPT는 위기 상담센터 연락을 권유했지만, 소년은 “소설 집필을 위한 설정”이라 설명하며 안전 경고를 피한 것으로 알려졌다.

 

다른 플랫폼의 대응 사례

 

오픈AI뿐 아니라 글로벌 IT 기업들도 청소년 안전 강화 장치를 속속 도입하고 있다.

메타(Facebook·Instagram): 자해·자살·섭식장애 관련 주제에 대해 AI 챗봇이 답변하지 않도록 제한하는 기능을 적용 중이다.

틱톡(TikTok): 부모가 자녀의 사용 시간을 직접 설정하고 팔로어 목록까지 확인할 수 있는 ‘패밀리 페어링(Family Pairing)’ 기능을 제공한다.

 

전망

 

AI 서비스가 생활 전반으로 확산되는 상황에서 청소년 보호는 더 이상 미룰 수 없는 과제가 되고 있다. 오픈AI의 이번 기능은 상징적 의미가 크지만, 실제 현장에서 얼마나 효과를 거둘지는 미지수다. 전문가들은 “기술적 안전 장치와 더불어 사회·가정 차원의 교육적 대응이 병행돼야 한다”고 지적한다.

 

전미수 기자 [email protected]
share-band
밴드
URL복사