“AI 개발 기준 마련하라”…금융사 가이드라인 나온다

입력 2021-07-08 15:26

  • 작게보기

  • 기본크기

  • 크게보기

AI 서비스를 제공하는 금융사는 AI 윤리 원칙을 마련해야 한다. 또 AI 조직을 구성하고 위험 관리 정책을 수립해야 한다. 이 가이드라인은 올해 안에 시행될 예정이다.

8일 금융위원회는 ‘제1차 디지털금융협의회 데이터 분과회의’를 개최하고 이같은 내용을 담은 금융 분야 AI 가이드라인을 발표했다.

이날 도규상 금융위 부위원장은 “AI 기술의 안전성 등에 대한 사회적 신뢰가 충분하지 않은 만큼 가이드라인을 통해 AI 금융 서비스에 대한 사회적 신뢰를 공고히 하겠다”고 밝혔다.

AI 가이드라인에 따라 AI를 금융 거래 또는 대고객 서비스에 적용한 금융업권은 AI 서비스 개발 시 준수해야 할 원칙과 기준을 수립해야 한다. 또 AI의 잠재적 위험을 평가할 구성원의 역할을 서비스 전 단계에 걸쳐 구체적으로 정의해야 한다. AI 서비스 자체 평가 정책을 마련하고 개인 권리에 위험을 초래할 수 있는 서비스에는 강화된 위험 관리를 적용해야 한다. AI 의사 결정이 개인이 금융 거래 계약을 체결하는 데 중대한 영향을 미치는 신용 평가, 대출 심사, 보험 심사의 경우 내부 통제 절차와 승인 절차를 마련해야 한다.

AI가 사람의 의사 결정 과정을 대체할 때는 사람이 AI 시스템을 통제할 수 있도록 설계해야 한다. 금융사는 AI 시스템 성능을 주기적으로 모니터링하고 위험 완화 조치를 시행해야 한다. 대상은 AI 서비스를 하는 전 금융업권이지만 신용평가회사의 개인신용평점 개발처럼 비금융업이라도 AI 활용 결과가 큰 경우 거래에 미치는 영향이 큰 경우도 가이드라인이 적용된다.

금융사는 또 AI 학습에 사용되는 데이터의 출처, 품질, 편향성, 최신성 등을 검증하고 개선해야 한다. AI 챗봇 이루다처럼 편향성이 재생산되는 현상을 막기 위해서다. AI 개발 과정에서 개인신용정보 오ㆍ남용도 방지해야 한다. 사생활 정보를 활용할 때는 비식별 조치를 거쳐야 한다.

AI 서비스를 금융사가 외부에 위탁할 때도 이들은 수탁 기관이 준수해야 할 위험 관리 지침을 마련하고 주기적으로 점검해야 한다.

소비자는 AI 평가 결과와 주요 평가 기준, 사용된 기초 정보에 대한 설명을 들을 수 있다. 나아가 AI 평가에 활용된 정보를 정정하거나 삭제를 요구할 수 있다.

금융위 관계자는 “구체적 행위지침을 위해 금융업권협회 등을 중심으로 실무지침 제정반을 구성해 3분기 이내에 실무지침을 마련할 것”이라며 “핀테크 회사도 AI 서비스 개발을 할 수 있도록 AI 테스트베드를 구축할 예정”이라고 말했다.

  • 좋아요0
  • 화나요0
  • 슬퍼요0
  • 추가취재 원해요0
주요뉴스
댓글
0 / 300
e스튜디오
많이 본 뉴스
뉴스발전소