[서울=뉴스핌] 이영기 기자 =애플이 아이폰에서 아동 성학대 이미지를 적발하는 새로운 스캔 소프트웨어를 도입키로 했다. 하지만 이는 아동보호라는 의미를 넘어서 개인 정보에 대한 위협의 의미가 더 크다는 논란을 불러일으키고 있다.
5일(현지시간) 파이낸셜타임스(FT) 등에 따르면 애플은 새로운 소프트웨어를 도입해 아이폰에 아동에 대한 성(性) 학대 관련 사진 유통을 감시할 계획이라고 밝혔다.
'뉴럴매치'라는 소프트웨어를 도입해 다음달 출시되는 아이폰 운영체제(OS) 최신 버전인 iOS15에 새 기능으로 추가한다는 것.
'뉴럴매치' 소프트웨어의 인공지능(AI)은 아이폰에 저장된 이미지 중에서 아동에 대한 성적 학대로 의심되는 이미지를 포착하고, 검토팀에서 위법성을 확인하면 애플은 사용자의 계정을 비활성화하고 필요시 당국에 통보하게 된다.
애플은 이 소프트웨어가 불법 아동학대 이미지를 탐지하는 데만 작동하도록 제작됐다고 강조했다. 이를 인증하기 위해 암호화 관련 전문가들에게 시스템을 선보이고 있다고도 했다.
하지만 이 소프트웨어는 사용자의 개인생활 침해 여지가 있다는 비판도 제기되고 있다.
월스트리트저널(WSJ)은 "애플이 불법 콘텐츠를 감지할 수 있는 SW를 개발함으로써 지난 10년간 거대 기술기업과 사법 당국 사이에서 논란이 되고 있는 암호화를 통한 데이터 보호에 대한 입장을 누그러뜨리는 것 아니냐는 우려가 나오고 있다"고 보도했다.
애플 로고 [사진= 로이터 뉴스핌] |
007@newspim.com