FSOC, AI에 대해 ‘부상하는 취약점’ 공식 분류
보안, 개인정보 보호, 할루시네이션 문제 등 언급
금융규제 당국이 인공지능(AI) 사용과 관련해 금융 시스템에 위험을 초래할 수 있다고 처음으로 경고했다.
14일 CNN비즈니스에 따르면 미국 금융안정감독위원회(FSOC)는 이날 AI를 ‘부상하는 취약점’으로 공식 분류했다.
FSOC는 “AI는 혁신과 효율성을 촉진할 수 있는 잠재력을 가지고 있지만, 금융 서비스에서 AI를 사용하려면 잠재적 위험 관리를 위한 신중한 구현과 감독이 필요하다”라고 경고했다.
구체적으로 FSOC는 AI가 사이버 보안, 규정 준수, 개인정보 보호 문제 등 특정 위험을 초래할 수 있다고 봤다.
또 챗GPT와 같은 생성형 AI모델과 관련한 우려도 내놨다. 예를 들면 생성형 AI를 사용하는 금융 회사가 데이터 보안, 소비자 보호, 개인 정보 보호 부문에서 위험을 초래할 수 있다는 것이다. 당국은 생성형 AI모델이 할루시네이션(잘못된 답을 내놓는 것)을 내놓는 것에 대해서도 짚었다.
아울러 FSOC는 일부 AI모델이 외부에서 내부 작업에 접근할 수 없도록, 마치 블랙박스처럼 작동된다는 점도 지적했다.
FSOC는 “설명 가능성 부족으로 인해 시스템의 개념적 건전성을 평가하기 어려워지고, 적합성과 신뢰성에 대한 불확실성이 높아질 수 있다”고 언급했다.
또 “AI에 대한 접근 방식이 복잡해짐에 따라 오류와 편견을 식별하고 수정하기가 훨씬 더 어려워질 수 있으며 이는 기술 개발자, 이를 사용하는 금융 부문 기업, 그런 기업을 감독하는 규제 기관의 경계가 필요하다”고도 덧붙였다.
앞서 FSOC는 약 2년 전 기후변화에 대해서도 ‘미국 금융 안정에 대한 새로운 위협’으로 분류한 바 있다.