정부, ‘이루다’ 논란 근절 ‘신뢰할 수 있는 AI 실현전략’ 발표

입력 2021-05-13 15:30수정 2021-05-13 18:03

  • 작게보기

  • 기본크기

  • 크게보기

민간 자율 인증ㆍ윤리 정책 등 2025년까지 3대 전략 10대 실천과제 추진

4차 산업혁명 시대를 맞아 인공지능(AI)이 산업과 사회에 빠른 속도로 확산하는 가운데 정부가 ‘이루다’ 논란과 같은 예상치 못한 문제에 대비하는 AI 실현 전략을 내놨다. 모두가 누리고 누구나 ‘신뢰’할 수 있는 AI 구현이 골자로 2025년까지 지속ㆍ단계적으로 추진한다.

과학기술정보통신부는 13일 대통령 직속 4차산업혁명위원회 제22차 전체회의에서 ‘사람이 중심이 되는 인공지능을 위한 신뢰할 수 있는 인공지능 실현전략’을 발표했다고 밝혔다.

해외 주요국은 이미 AI의 사회적ㆍ산업적 수용의 전제요소로 인식하고, AI의 신뢰성을 강조하며 그 실현을 위한 적극적인 정책을 추진하고 있다. 특히, 유럽(EU)은 사람에게 부정적 영향을 미칠 수 있는 고위험 AI를 중심으로 한 제도 정립을 선도 중이며, 미국은 기술개발과 민간 자율규제를 중심으로 AI에 대한 신뢰성 확보를 추진 중이다.

이에 우리 정부도 ‘AI 강국’으로 도약하기 위해 신뢰할 수 있는 AI 실현을 위한 지원 정책이 조속히 필요하다는 판단에 따라 이번 전략을 마련했다. 이번 전략은 지난해 12월 발표한 AI 윤리기준의 실천방안을 구체화하고, 민간 자율적으로 신뢰성을 확보할 수 있도록 지원체계를 구축하며 재정ㆍ기술력이 부족한 스타트업 등에 대한 지원책을 담은 것이 특징이다.

추진 전략은 신뢰 가능한 AI 구현 환경 조성으로 △인공지능 제품ㆍ서비스 신뢰 확보 체계 마련 △민간 신뢰성 확보 지원 △인공지능 신뢰성 원천기술 개발을, 안전한 AI 활용을 위한 기반 마련으로 △학습용 데이터 신뢰성 제고 △고위험 인공지능 신뢰 확보 △인공지능 영향평가 추진 △신뢰 광화 제도 개선을, 사회 전반 건전한 AI 의식 확산으로 △인공지능 윤리 교육 강화 △주제별 체크리스트 마련 △인공지능 윤리 정책 플랫폼 운영 등 3대 전략 10대 실행과제로 이뤄졌다.

우선 민간에서 AI 제품ㆍ서비스를 구현하는 단계(개발→ 검증→ 인증)에 따라, 기업, 개발자, 제3자 등이 신뢰성 구현을 위해 참조할 수 있는 신뢰 확보 기준과 방법론을 제시하고 지원한다. 또 기술ㆍ재정적 상황이 열악한 스타트업 등도 체계적으로 신뢰성을 확보할 수 있도록 AI 구현을 위한 ‘데이터 확보→ 알고리즘 학습→ 검증’을 통합 지원하는 플랫폼을 운영한다. 이미 구현된 시스템에 AI가 판단기준 등을 설명할 수 있는 기능을 추가할 수 있고, AI가 스스로 법ㆍ제도ㆍ윤리적 편향성을 진단하고 효율적으로 제거할 수 있도록 AI의 설명가능성, 공정성, 견고성 제고를 위한 원천기술 개발을 추진한다.

민ㆍ관이 AI 학습용 데이터 제작공정에서 공통적으로 준수해야 할 신뢰 확보 검증지표 등의 표준 기준을 민간과 함께 마련하고, 디지털 뉴딜로 추진되는 ‘데이터 댐’ 사업에서는 구축 전 과정에서 저작권, 개인정보보호와 같은 법ㆍ제도 준수 여부 등의 신뢰성 확보 고려사항을 선제적으로 적용해 품질을 향상할 계획이다. 국민의 안전이나 기본권에 잠재적 위험을 미칠 수 있는 고위험 AI의 범주를 설정하고, 서비스 제공 전에 해당 AI의 활용 여부를 이용자에게 ‘고지’하도록 한다. AI가 국민생활 전반에 미치는 영향을 종합ㆍ체계적으로 분석하고 대응하기 위해 ‘지능정보화기본법’ 제56조에 규정된 사회적 영향평가를 도입하고, △업계 자율적 알고리즘 관리ㆍ감독환경 조성 △플랫폼 알고리즘 공정성ㆍ투명성 확보 △영업비밀 보장을 위한 알고리즘 공개기준 마련 △고위험 기술기준 마련 등 관련 제도를 개선한다.

사회ㆍ인문학적 관점과 윤리 기준의 사회 실천을 인식할 수 있는 내용을 담은 AI 윤리교육 총론을 마련하고, 이를 토대로 연구ㆍ개발자, 일반시민 등 맞춤형 윤리 교육을 개발ㆍ실시한다. AI 윤리기준에 대한 구체적인 행위지침으로, 연구ㆍ개발자, 이용자 등이 업무, 일상생활 등의 속에서 윤리 준수 여부를 자율점검을 할 수 있는 체크리스트 개발해 보급한다. 또 학계ㆍ기업ㆍ시민단체ㆍ공공 등 다양한 사회 구성원이 참여해 AI 윤리에 대해 깊이 있게 토의하고 의견 수렴 및 발전 방향을 논의하는 공론의 장을 마련ㆍ운영한다.

최기영 과기정통부 장관은 “최근 발생했던 챗봇 사건은 우리 사회가 AI의 신뢰성에 대해 어떻게 대처해야 하는지 많은 숙제를 안기는 계기가 됐다고 생각한다”며 “기업ㆍ연구자 등이 AI 제품ㆍ서비스 개발 과정에서 혼란을 겪거나 국민이 피해 보지 않도록 AI 신뢰 확보 기준을 명확화하고, 기술적ㆍ재정적으로 부족한 중소기업 등이 신뢰성 기준을 준수하는 데 어려움이 없도록 지원 방안을 마련하는 등 AI 전략을 차질 없이 추진할 계획”이라고 밝혔다.

(사진제공=과학기술정보통신부)

  • 좋아요0
  • 화나요0
  • 슬퍼요0
  • 추가취재 원해요0
주요뉴스
댓글
0 / 300
e스튜디오
많이 본 뉴스
뉴스발전소