FTC , 약국체인 라이트에이드의 안면인식 기술사용 5년간 금지
흑인, 라틴계, 아시아계 또는 여성 쇼핑객이 표적 잘못 식별
미국 연방거래위원회(FTC)가 대형 약국 체인인 라이트에이드(Rite Aid)의 안면 인식 기술 사용을 5년간 금지시켰다. 라이트에이드가 절도 방지를 위해 도입한 안면 인식 기술이 소비자들을 범죄자로 오인하게 하고 유색 인종을 부당하게 표적 삼았다는 이유에서다. 매장에 사용한 감시 시스템이 특히 흑인, 라틴계, 아시아계 또는 여성 쇼핑객들과 같은 잠재적인 쇼핑객들을 잘못 식별했다는 혐의다.
FTC는 “라이트에이드의 무모한 안면 감시 시스템 사용으로 고객은 굴욕과 피해를 당했으며 소비자의 민감한 정보가 위험에 빠졌다”며 이 같이 결정했다고 CNN·ABC방송 등이 20일(현지시간) 보도했다. 라이트에이드는 식품·잡화·약품 등을 판매하는 대형 체인업체다.
FTC에 따르면 라이트에이드는 2012년부터 2020년까지 수백개의 매장에서 인공지능(AI) 기반 안면인식 기술을 사용해 절도나 기타 문제 행위을 일으킬 가능성이 있는 고객을 식별해왔다. 그러나 불완전한 기술이 기존 문제 고객으로 식별된 사람과 일반 고객을 잘못 매칭해 무고한 고객들이 억울하게 고발당하는 피해가 발생했다.
FTC는 “범죄자로 오인된 고객들은 친구와 가족, 낯선 사람 앞에서 라이트에이드 직원들에 의해 공개적인 비난을 받았고 일부 고객은 부당하게 구금돼 수색을 당했다”며 이러한 소비자 피해가 발생할 수 있는 부분에 대해 라이트에이드가 기본적인 예방조치조차 취하지 않았다고 지적했다.
라이트에이드는 해당 기술을 매장에 시범 적용하는 동안 폐쇄회로(CC)TV와 안면 인식 카메라, 또는 직원의 휴대폰을 통해 수만 장의 개인 이미지를 수집했는데, 이러한 개인 정보는 소비자 동의 없이 이뤄졌으며 그 중 상당수는 명확한 식별이 어려울 만큼 품질이 낮은 것으로 알려졌다.
FTC는 특히 라이트에이드가 안전성이 확보되지 않은 이러한 시스템을 흑인과 라틴계, 아시아계 커뮤니티가 많은 지역에 주로 배포해 유색인종을 표적 삼았다고 지적했다.
디지털 권리 단체인 전자개인정보센터(EPIC)의 존 데이브슨 소송 담당 이사는 “수천 건의 잘못된 식별이 흑인과 아시아인, 라틴계 고객에게 불균형적으로 영향을 미쳤다”며 “그 중 일부는 굴욕적인 수색을 당한 후 매장에서 쫓겨났다”고 전했다.
FTC 소비자 보호국 국장 사무엘 레빈은 “이번 명령은 불공정한 생체 인식 감시와 데이터 보안 관행으로부터 대중을 보호하는 데 경계를 늦추지 않을 것임을 분명히 하기 위한 것”이라고 말했다.
라이트에이드 측은 FTC의 명령을 받아들인다면서도, FTC가 제기한 혐의에 대해서는 “근본적으로 동의하지 않는다”고 밝혔다.
라이트에이드는 “당사는 FTC의 조사가 시작되기 전인 3년 전에 이미 소규모 매장에서는 안면인식 기술 사용을 중단했다”고 덧붙였다. 이어 얼굴 인식 소프트웨어로 수집한 사진들을 삭제하고, 고객의 신체적 특성을 매장 데이터베이스에 입력할 때 고객에게 알리는 등 안전조치를 강화하겠다고 밝혔다.