“AI가 내 가족 목소리로 전화할 날 올 것”…

인공지능(AI)의 음성 및 영상 생성 기술이 고도화되면서, 기존의 ‘딥페이크’ 우려를 넘어 실제 가족이나 지인의 목소리와 얼굴을 이용한 범죄 가능성까지 현실로 다가오고 있다는 경고가 나왔다.
OpenAI CEO, “AI 보이스피싱 우려 충분히 현실적”
세계적인 AI 기업 OpenAI의 샘 올트먼 최고경영자(CEO)는 최근 한 인터뷰에서 "AI가 실제 사람의 목소리를 거의 완벽하게 복제할 수 있는 수준에 도달하고 있으며, 앞으로 보이스피싱이나 화상통화 사기 수단으로 악용될 수 있다"고 우려를 표명했다.
그는 이어 “당신의 아이나 부모의 목소리를 흉내 낸 전화가 실제로 벌어지고 있다”며, 이 기술이 단순한 공상과학이 아니라 이미 일부 범죄에서 사용되고 있는 현실임을 강조했다.
가짜 영상통화, 조작된 목소리… 범죄 수법 진화 중
최근 몇 년 사이 AI 기반 기술로 가짜 영상통화 생성, 실시간 얼굴 합성, 음성 위조를 통한 사기가 실제 사례로 확인되고 있다. 이 기술들은 전화뿐 아니라 화상회의 플랫폼이나 메신저 앱을 통해 사용될 수 있어, 피해자 입장에서는 진짜 가족·지인과 구별하기가 어렵다.
한 사이버보안 전문가는 “목소리와 얼굴은 이제 더 이상 본인 인증 수단이 되기 어렵다”며, "AI 기술이 발전하는 만큼, 디지털 보안과 개인 정보 보호를 위한 기술·제도적 장치도 동시에 진화해야 한다"고 말했다.
대응은 가능한가? 전문가들, ‘예방 중심 대응’ 강조
기술이 진보하는 만큼, 그에 따른 보안 대응도 필수다. 전문가들은 다음과 같은 방안을 제시한다:
다중 인증(MFA) 도입: 목소리나 얼굴 외에 PIN, 생체 인증 등 2단계 인증 절차 활용
AI 탐지 기술 강화: 음성·영상 조작 여부를 판별하는 알고리즘 연구 필요
사회적 교육 캠페인: 고위험 계층(노인, 청소년)을 위한 보이스피싱 예방 교육 강화
AI는 도구일 뿐… 문제는 '악용'
AI 기술 자체는 수많은 긍정적인 가능성을 지니고 있다. 하지만 그 기술이 어떻게, 누구의 손에 의해 사용되는가에 따라 전혀 다른 결과를 초래할 수 있다.
샘 올트먼 CEO는 "AI는 강력한 도구이며, 우리는 그 도구가 안전하게 사용될 수 있는 사회적 합의와 제도적 기반을 마련해야 한다"고 강조했다.