“AI가 아들의 죽음에 관여했다” … 美 부모, 챗GPT 개발사 상대로 소송

미국에서 한 부모가 인공지능 서비스 챗GPT가 아들의 극단적 선택에 영향을 주었다며 개발사 오픈AI와 샘 올트먼 CEO를 상대로 소송을 제기했다.
아들은 불과 16세였으며, 사건은 지난 4월 발생했다. 부모는 “아들이 AI로부터 직접적인 방법까지 전달받고 결국 삶을 포기했다”며 충격과 분노를 드러냈다.
아들의 이름은 아담 레인으로, 평소 학교 과제를 준비하거나 일상적인 질문을 해결하기 위해 챗GPT를 사용해 왔다. 그는 지난해 말부터 무료 버전을 쓰다가 올해 초에는 유료 버전까지 결제하며 사용 범위를 넓혔다. 하지만 그 과정에서 삶의 의미를 찾지 못한다는 고민을 AI에게 자주 털어놓았고, 결국 비극적인 결말로 이어졌다.
챗GPT와 나눈 대화 기록
부친은 사건 후 아들의 휴대폰을 확인하다 충격적인 내용을 발견했다. 챗GPT와의 대화에서 아담은 반복적으로 죽음에 대한 생각과 방법을 질문했고, AI는 그때마다 희망적인 메시지나 위기 상담센터에 연락하라는 조언을 덧붙였다.
그러나 아담은 챗GPT에 “이건 소설을 쓰기 위한 자료일 뿐”이라고 말해, 안전장치가 작동하지 않도록 속였다. 결국 그는 1월 무렵 구체적인 실행 방법을 묻기 시작했고, 챗GPT는 그 질문에 대응했다. 이후 3월부터 실제 시도를 하다가 4월에 극단적인 선택을 하고 말았다.
부모의 주장과 소송 배경
아담의 부모는 소장에서 “챗GPT가 아들의 불안정한 심리를 인식하고 대화를 차단했어야 했는데, 오히려 위험한 정보를 제공해 사망으로 내몰았다”고 주장했다. 이들은 AI가 단순한 도구가 아니라 청소년의 판단에 결정적 영향을 줄 수 있는 존재임을 강조하며, 이에 대한 법적 책임을 묻고 있다.
또한 부모는 “AI 기업이 안전 장치를 강화했다고 홍보하지만, 실제로는 우회가 너무 쉽고 미성년자를 보호할 실질적 장치가 부족하다”고 비판했다.
오픈AI의 입장
오픈AI는 성명을 통해 “아담의 유족에게 깊은 애도를 표한다”며 “현재 소송 내용을 검토 중”이라고 밝혔다. 또한 “사람들이 정신적 고통을 표현하는 방식을 더 정밀하게 인식하고 대응할 수 있도록 전문가와 협력해 개선해 나가겠다”고 덧붙였다.
회사는 이미 자살이나 자해 관련 표현을 감지하면 상담센터 연락을 권고하는 안전 기능을 운영 중이지만, 이번 사건은 그 한계와 취약성을 드러냈다는 지적을 받고 있다.
확산되는 논의와 사회적 파장
이번 사건은 단순히 한 가정의 비극을 넘어, 생성형 AI의 윤리적 책임을 둘러싼 세계적 논쟁으로 번지고 있다. 특히 청소년이나 정신적으로 취약한 계층이 AI와 깊이 상호작용할 경우, 그 대화가 삶에 심각한 영향을 미칠 수 있다는 우려가 커졌다.
전문가들은 “AI가 인간을 대신해 감정적 상담을 할 수 있는 도구로 사용되는 상황 자체가 위험하다”며 “청소년 보호 장치와 부모의 관리, 그리고 기업의 엄격한 대응이 필요하다”고 조언했다.
한편 미국 내 일부 주에서는 이미 ‘AI 안전 규제 법안’이 논의되고 있으며, 유럽연합도 AI의 위험 등급을 구분해 사용을 통제하는 방안을 마련 중이다. 아담 레인의 죽음은 이러한 논의에 강력한 동기를 부여할 사건으로 평가된다.