‘이루다’가 쏘아올린 공, 과기정통부ㆍ개인정보위의 대답은

입력 2021-05-13 15:30

  • 작게보기

  • 기본크기

  • 크게보기

“만약 이루다에게 조금 더 좋은 접근이 있었다면, 조금 더 좋은 학습용 데이터가 있었다면 어땠을까요. 이루다도(개발사 스캐터랩도) 과기정통부에서 과제를 받을 만큼 기술력이 있는 회사입니다. 그런 회사도 이런 문제에 봉착한다면 어느 누가 사실 이런 엄격한 기준을 지키면서 편안하게 (개발을) 할 수 있을지 모르겠습니다.” (김경만 과기정통부 인공지능기반정책과장)

이루다 사태가 남긴 숙제가 고스란히 정부에게 넘어왔다. 인공지능(AI) 개발사에 쏟아지는 불신의 눈초리를 해결해야 한다는 것이다. 이에 과학기술정보통신부, 개인정보보호위원회 등 관계부처에서 인공지능에 대한 신뢰 제고 방안을 속속 내놓고 있다.

◇싹부터 관리하겠다는 과기정통부, AI 학습용 데이터 팔 걷어붙여

대통령 직속 4차산업혁명위원회는 4기 첫 번째 전체회의에서 ‘신뢰할 수 있는 인공지능 실현전략’을 13일 의결했다. AI가 전 산업과 사회에 빠르게 도입됨에 따라 발생하는 문제에 대해 선제적으로 대응하겠다는 구상이다. 이에 과기정통부가 관련 업무를 맡아 AI의 신뢰를 높이기 위한 법제도ㆍ윤리ㆍ기술적 요구사항을 망라한 인공지능 개발 가이드북을 제작하고 보급하기로 했다.

▲과기정통부가 구상 중인 AI 개발사 원스톱 지원 플랫폼이다. (사진제공=과기정통부)

이루다 사태를 겪은 과기정통부의 고민이 이번 실현전략에 고르게 담겼다. 고품질 AI를 개발하기 위해서는 양질의 데이터가 필요할 수밖에 없는데, 이 데이터 수집을 위해 개인정보 보호법을 위반하는 사태가 벌어질 수 있다는 것이다. 이에 과기정통부는 AI 고도화 및 학습에 필요한 학습용 데이터를 직접 제작해 배포하는 대안을 내놨다.

더불어 원천 데이터(raw data)에 내재한 편견 및 공정성 위배 사항을 다듬는다. AI 윤리기준에 위배되지 않는 학습용 데이터를 활용해야 안전하고 신뢰받을 수 있는 AI 제품ㆍ서비스를 개발할 수 있다는 판단이다.

과기정통부는 지난해 11월 데이터댐 사업의 일환으로 AI학습에 활용되는 170종의 데이터 3억7500만 건을 개방하겠다 밝힌 바 있다. 이어 올해 안에 190종의 데이터를 추가, 헬스케어ㆍ교통ㆍ물류, 재난ㆍ안전ㆍ환경 등 핵심 분야와 관련한 AI 학습용 데이터를 구축한다는 구상이다.

과기정통부의 이와 같은 대안은 이루다 사태와 현장의 요구를 적극 반영한 결과다. 2020년 약 700개의 기업ㆍ기관에서 과기정통부에 AI 학습용 데이터를 구축해달라고 요청했고, 이중 170종을 선별해 데이터를 개방하겠다는 것이다.

다만 이렇게 구축한 170종의 데이터를 아직 개방하진 못하고 있다.

김경만 과기정통부 인공지능정책과 과장은 이날 4차위 브리핑을 통해 “사실 2월쯤 내부적으로 이미 학습용 데이터 구축을 완료한 상태”라며 “민간 전문가 등을 통해 구축한 데이터에 문제가 없는지 살펴보는 중”이라고 설명했다.

정부에서 안전한 학습용 데이터라 인증한 데이터들이 향후 저작권, 개인정보 이슈 등에 휘말릴 수 있다는 우려가 반영된 것으로 보인다.

이에 과기정통부는 취약점 보상 프로그램의 일환인 ‘버그바운티’ 시범사업을 고려하고 있다. 과기정통부가 공개한 학습용 데이터의 취약점을 발견한 이들에게 보상을 주는 방식이다. 다만 버그바운티를 본격 가동하려면 취약점 발견에 대한 보상 기준 및 내용을 담아야 하는 만큼 여러 가지 대안 중 하나로 꼽는 중이다.

◇개인정보 보호법 숙지부터 돕겠다는 개인정보위

개인정보보호위원회도 AI와 개인정보에 대한 답을 내놨다.

개인정보위는 지난달 4월 28일 AI 챗봇 이루다 개발사 스캐터랩에게 1억330만 원의 과징금을 부과했다. 해당 개인정보 보호법 위반 행위 조사 과정에서 AI 개발사의 맹점을 파악하게 됐고, 이를 적극 반영한 ‘AI 관련 개인정보보호 자율점검표’를 5월 말 발표하겠다고 12일 밝혔다.

개인정보위는 AI 기술이 적용된 서비스 도입ㆍ확산 과정에서 발생할 수 있는 사생활 침해예방을 위해 선행연구를 지난해부터 진행해온 바 있다. 올해 2월부터는 AI 개인정보보호 연구반을 운영, 분야별 이해관계자와 전문가가 참여해 수차례의 논의를 거쳤다.

특히 개인정보 보호법에 대한 숙지가 어려운 중소기업, 스타트업에 대한 지원에 방점을 찍었다. 개인정보위의 자율점검표에는 AI 관련 개인정보보호 6대 원칙과 함께 △자율점검 총괄흐름도 △개인정보 처리 단계별 핵심 점검분야 16개에 대한 세부 체크항목(54개) △참고사항 등을 담았다. AI 개발자ㆍ운영자가 단계별로 체크항목에 따라 자율적으로 점검할 수 있도록 했다.

(사진제공=개인정보위)

개인정보 보호법 2차 개정안에 관련한 고민도 함께 담았다. 제37조의2에 인공지능 등 신기술의 확대 적용에 따라 국민의 생명ㆍ신체ㆍ재산 등 중대한 영향을 미치는 자동화 의사결정 등에 대해 거부ㆍ이의제기ㆍ설명요구권을 도입하겠다는 것이다. 개발자는 AI를 활용해 업무를 처리하고 있는지, AI의 판단 기준은 무엇인지에 대해 정보제공자에게 고지해야 한다.

다만 개인정보위가 개인정보 침해행위 규제기관인 만큼, AI 서비스의 진흥과 규제 사이의 적절한 줄타기가 요구된다. 이번 자율점검표 또한 중소기업, 스타트업의 자율성을 제고하기 위해 벌칙조항 등이 포함되지 않은 권고 수준이다. 신기술이 계속해서 등장하는 상황에서 개인정보 보호법의 과징금ㆍ과태료 조항이 확산되는 피해를 적절히 막을 수 있을지가 과제로 남은 것이다.

이와 관련해 김직동 신기술개인정보보호과 과장은 “기본적인 개인정보보호 원칙상은 다 신기술, AI가 됐든 다른 신기술 서비스에도 원칙은 적용될 것 같다”라며 “구체적인 각론에 들어가서 이런 원칙들이 지켜졌는지, 안 지켜졌는지는 세부적인 사항이라든지 그때의 환경이라든지 이런 다방면적인 것들을 고려해서 결정해야 되는 상황”이라고 설명했다.

우선 개인정보 보호법에 명시된 주요 원칙들을 AI 개발자들에게 쉽고 간결하게 전달하도록 목표를 잡고 있다는 것이다.

◇과기정통부-개인정보위, AI 이슈 역할 배분 줄타기

향후 AI 제품ㆍ서비스 개발을 지원하는 과정에서 과기정통부와 개인정보위의 적절한 역할 분배 또한 요구된다. 과기정통부는 AI와 관련한 데이터 개방, 지원 시스템 마련 등 대부분의 역할을 담당하고 있는 반면 개인정보위는 개인정보에 국한한 역할을 맡고 있기 때문이다.

과기정통부와 개인정보위의 역할이 딱 나뉘어지지 않는 점이 난제다. AI 학습에 필요한 데이터에 필연적으로 개인정보와 관련된 내용들이 포함될 수밖에 없어서다. 우선 양 부처는 개인정보 보호지침에 대한 내용은 개인정보위가, AI 윤리 및 기술에 대한 내용은 과기정통부가 맡는 식으로 교통정리를 한 상태다.

김경만 과기정통부 인공지능기반정책과장은 이날 브리핑에서 “개인정보 영역을 비롯해 국방, 이민 등 다른 부분에 대해서도 AI의 신뢰성을 어떻게 찾아갈지에 대한 고민이 있다”라며 “부처 간 소통이 잘 이뤄지고 있다”라고 답했다.

  • 좋아요0
  • 화나요0
  • 슬퍼요0
  • 추가취재 원해요0
주요뉴스
댓글
0 / 300
e스튜디오
많이 본 뉴스
뉴스발전소