logo
인공지능과 인간의 새로운 관계-3
과학/창업
AI

인공지능과 인간의 새로운 관계-3

남철희 발행인
입력
AI의 오남용을 막기 위한 사람들의 이야기

기술은 인간의 선택을 반영한다

기술은 언제나 중립적이다. 하지만 그 중립성은 사람에 의해 방향을 갖는다. 인공지능(AI)은 그 대표적인 예다. AI는 인간을 이롭게 할 수도 있고, 반대로 통제의 수단이 될 수도 있다. 이 결정은 기술 자체가 아닌, 그것을 설계하고 운영하는 사람들의 윤리와 선택에 달려 있다. 

 

세계 곳곳에서는 AI의 오남용을 막기 위해 싸우고, 더 나은 방향을 고민하는 이들이 있다. 그들의 이야기는 기술의 미래가 결국 인간의 손에 달려 있음을 증명한다.

 

1. 얼굴 인식 기술 금지 — 샌프란시스코의 시민 선택

 

2019년, 샌프란시스코 시는 공공기관의 얼굴 인식 기술 사용을 공식적으로 금지했다. 편리함보다 시민 자유를 우선한 이 결정은 세 가지 주요 우려에서 출발했다.

 

  • 인권 침해와 감시 사회 우려
  • 인종적 편향에 따른 오류 가능성
  • 프라이버시 침해에 대한 법적 보호 부족
  •  

시민단체와 기술자들은 “AI가 사람을 분류하지 않고, 이해하는 방식으로 발전해야 한다”고 주장했다. 이는 기술의 방향성을 인간 중심으로 재조정해야 한다는 강력한 메시지였다.

 

2. 챗봇 ‘Tay’ 사건 — 윤리 없는 설계가 남긴 교훈

 

2016년, 한 글로벌 기업이 선보인 AI 챗봇 'Tay'는 출시 몇 시간 만에 혐오·차별적 발언을 쏟아내며 충격을 안겼다. 이 사건은 AI 설계에서 윤리적 필터링의 중요성을 일깨웠다.

원인은 다음과 같았다.

 

  • 무제한적 학습 데이터 입력
  • 사용자 콘텐츠에 무비판적으로 반응한 알고리즘
  • 악의적 이용에 대한 방어 체계 미비
  •  

이후 다수의 개발자는 윤리 기준을 내재화한 알고리즘 설계에 나섰고, AI에게도 ‘윤리적 교육’이 필요하다는 인식을 갖게 되었다.

 

3. 내부자의 양심 선언 — 데이터 수집에 맞선 기술자

 

2021년, 한 유명 AI 기업의 개발자가 회사의 과도한 사용자 데이터 수집을 폭로했다. 그는 동의 없는 수집 방식이 인간의 권리를 침해한다고 지적하며, 윤리적 책임을 촉구했다.

폭로의 배경은 다음과 같다.

 

  • 인간의 사생활을 위협하는 기술 방향
  • 윤리 검토 시스템의 부재
  • 기술자 양심과 사용자 권리 간의 충돌
  •  

비록 그는 해고되었지만, 이후 기술자의 윤리적 책임에 대한 국제적 토론이 활발해졌고, “기술이 인간을 이해하기 전까지, 우리는 먼저 인간을 지켜야 한다”는 목소리가 주목받았다.

 

4. 사람 중심 AI 정책 — 대한민국의 윤리적 접근

 

대한민국은 2024년 ‘인공지능 기본법’을 제정하고, AI 윤리 가이드라인 6종을 발표했다. 다양한 분야의 전문가가 참여한 이 프로젝트는 기술 설계에 인간 존엄성을 반영하는 과정이었다.

기여한 집단은 다음과 같다.

 

  • 기술자 : 알고리즘 책임 확보
  • 철학자 : 인간 중심 윤리 기준 수립
  • 시민단체 : 사용자 권리 보호
  • 공무원 : 제도화 및 정책 추진
  •  

AI 영향평가제를 도입해, 기술이 사람에게 미치는 영향을 사전에 분석하도록 설계했다. 이는 "AI도 사회적 존재"라는 인식 아래, 사람 중심 기술로의 전환을 의미한다.

 

 기술을 지키는 건 사람이다

 

이 네 가지 사례는 한 가지 핵심 메시지를 공유한다. 기술이 어떤 형태로 사회에 작용할지는 사람의 선택에 달려 있다는 것이다. 우리는 AI를 두려워하거나 맹목적으로 따를 필요가 없다. 기술을 설계하고 검증하며 책임지는 사람들의 선택을 지지하고 함께 행동할 때, AI는 우리에게 유익한 친구가 될 수 있다.

인공지능이 인간의 친구가 되기를 바란다면, 우리는 먼저 기술이 인간을 위협하지 못하도록 지켜야 한다. 그것이 기술을 대하는 가장 인간적인 태도일 것이다.

남철희 발행인 [email protected]
share-band
밴드
URL복사