메뉴 건너띄기
본문 바로가기 대메뉴 바로가기

KIST 융합연구정책센터

통합검색

국내

융합소식

국내

[정책] "AI, 인간 자유와 권리, 존엄성 보장해야" 첫 AI 윤리원칙 제정

date2019-11-15

view332

정부가 나날이 중요성이 커지는 인공지능(AI)과 이를 활용하는 사회에 대비해 사람 중심과 투명성, 책임성과 안전성, 차별금지 등 AI 개발기업과 이용자가 지켜야 할 원칙을 담은 AI 윤리 원칙을 발표했다. 기업과 국제사회에서 AI 윤리 원칙을 마련한 적은 있으나 정부 차원에서 AI 윤리 원칙을 제정해 발표한 것은 이번이 처음이다.

 

방송통신위원회와 정보통신정책연구원(KISDI)은 이달 11AI 시대 이용자의 권리와 이익을 보호할 수 있도록 기업과 이용자들이 지켜야 할 원칙인 이용자 중심의 지능정보사회를 위한 원칙을 발표했다.

 

방통위와 KISDIAI 원칙 마련을 위해 지난해 10회에 걸쳐 지능정보화 이용자 포럼을 열고 기초 연구를 수행했다. 이후 원칙의 주요 내용에 대해 삼성전자와 KT, SKT, LG유플러스, 카카오, 구글코리아, 페이스북코리아, 한국 IBM, 한국 마이크로소프트 등 정보통신기술(ICT) 기업과 AI 윤리 전문가들의 의견 수렴과정을 거쳤다.

 

원칙에는 사람의 자유와 권리를 보장하고 인간의 존엄성을 보장해야 한다는 내용이 담겼다. AI가 이용자에게 큰 영향을 끼치는 경우 기업은 이용자가 이를 이해할 수 있도록 정보를 작성해야 하고 기본권에 피해를 유발하는 경우 AI를 설명할 수 있어야 한다. 지능정보사회 구성원은 이에 관한 책임을 인식하고 법과 계약을 준수해야 한다.

 

안전을 위해 모두가 노력하고 피해를 대비한 체계를 서비스 제공자와 이용자가 수립하고 운영할 것도 권고했다. AI가 불공평이나 격차를 초래할 수 있다는 점을 인식하고 AI를 개발할 때 모든 단계에서 차별 요소를 최소화하는 노력도 강조했다. 정책 과정에서 구성원 모두가 참여할 수 있고 의견을 제시할 통로도 마련할 것을 권고했다. 마지막으로 AI는 모든 과정에서 개인정보와 프라이버시를 보호해야 하며 구성원들은 기술과 프라이버시 보호 사이 균형을 위해 지속적으로 의견을 교환하도록 했다.

 

정부가 AI 원칙을 마련한 것은 맞춤형 뉴스 추천, 인공지능(AI) 스피커, AI 면접처럼 사회 속 AI 서비스가 일상화되며 공정하고 책임 있는 AI에 대한 필요성을 제기하는 목소리도 커지고 있기 때문이다. 특히 AI가 정부의 새로운 국가전략산업으로 꼽히면서 AI 윤리 문제도 덩달아 커지고 있다. 문재인 대통령도 지난달 28일 열린 네이버의 소프트웨어 컨퍼런스 데뷰 2019’에 참여해 AI 국가전략을 마련할 것이라 언급하며 “AI 윤리 문제도 각별하게 관심을 기울이겠다고 말했다.

 

국제사회는 AI 윤리 원칙을 만들며 이를 대비하고 있다. 유럽연합(EU)은 올해 4신뢰 가능한 AI 윤리 가이드라인을 내놨고 경제협력개발기구(OECD)도 올해 5‘OECD AI 이사회 권고안을 회원국 만장일치로 채택했다. 민간에서도 구글, 마이크로소프트 등이 자체 AI 윤리 원칙을 마련해 이를 이행하고 있다. 한국이 이번에 발표한 AI 원칙처럼 대부분 사람 중심, 투명성, 책임성, 독립성, 차별 금지 등의 내용이 담긴 것이 특징이다.

 

한국 기업들도 자체 AI 윤리 원칙을 마련하고 있다. 한국 IT 기업으로는 카카오가 20181월 처음 자체적으로 AI 윤리헌장을 마련했다. 알고리즘과 관련한 모든 노력을 윤리 안에서 다하며 인류 편익과 행복을 추구하겠다는 내용이 담겼다. 삼성전자도 올해 공정성, 투명성, 책임성이라는 인간에게 이로운 AI를 위한 AI 윤리 핵심 원칙을 발표했다.

 

방통위는 “AI 원칙을 토대로 지능정보사회 구성원들의 의견을 듣는 민관협의회를 구성하고 ICT 발달과 서비스 보급 속도에 맞춰 원칙을 지속적으로 보완해 나갈 계획이라고 밝혔다. 올해 12월에는 신뢰를 위한 AI’를 주제로 국제컨퍼런스를 열고 해당 원칙을 소개할 방침이다.

 

아래는 AI 원칙 전문이다.

 

<이용자 중심의 지능정보사회를 위한 원칙>

 

사람 중심의 서비스 제공 원칙

지능정보서비스의 제공과 이용은 사람을 중심으로 그 기본적 자유와 권리를 보장하고 인간의 존엄성을 보호할 수 있는 방향으로 이루어져야 한다.

지능정보사회의 구성원들은 각자의 자율성을 최대한 보장받으면서, 안전하고, 투명하며, 모든 사람이 고루 혜택을 누릴 수 있는 서비스가 이루어지는 환경을 조성하도록 노력한다.

 

투명성과 설명가능성 원칙

지능정보서비스에 포함된 서비스 체계와 작동방식이 이용자에게 중대한 영향을 끼칠 경우, 기업의 정당한 이익을 침해하지 않는 범위에서 이용자가 이해할 수 있도록 관련 정보를 작성한다.

지능정보서비스가 인간의 신체, 자유, 재산 및 기타 기본권에 피해를 유발하였을 때, 기술적으로 가능한 범위에서 이용자에게 예측, 추천 및 결정의 기초로 사용한 시스템상의 주요 요인을 설명할 수 있어야 한다.

 

책임성 원칙

지능정보사회의 구성원들은 지능정보서비스의 올바른 기능과 사람 중심 가치의 보장을 위한 공동의 책임을 인식하고, 관련한 법령과 계약을 준수한다.

서비스의 제공과 이용으로 인해 발생한 타인의 권익 침해에 대한 법적?사회적?윤리적 책임을 다할 수 있도록, 지능정보사회 구성원들은 지속적인 의견 교환에 참여한다.

 

안전성 원칙

안전하고 신뢰 가능한 지능정보서비스의 개발과 이용을 위해 지능정보사회 참여자 모두가 노력한다.

지능정보서비스가 초래할 수 있는 피해에 대한 복구 방안을 사전에 확보하기 위한 노력으로서, 제공자와 이용자는 상호 협의 하에 그에 대한 자율적인 대비 체계를 수립하고 운영한다.

 

차별 금지 원칙

지능정보사회의 구성원들은 지능정보서비스가 사회적?경제적 불공평이나 격차를 초래할 수 있다는 점을 인식하고, 기술 사용에 있어 사회적 다양성을 고려한다.

알고리즘 설계, 데이터의 수집과 입력 및 알고리즘 실행 등 개발과 사용의 모든 단계에서 차별적 요소를 최소화할 수 있도록 노력한다.

 

참여 원칙

지능정보사회의 구성원들은 공적인 이용자 정책 과정에 차별 없이 참여할 수 있다.

공적 주체는 지능정보서비스의 이용과 관련하여 제공자와 이용자가 실질적으로 의견을 제시할 수 있는 정기적인 통로를 조성하여야 한다.

 

프라이버시와 데이터 거버넌스

지능정보사회 구성원들은 서비스의 개발, 공급 및 이용의 전 과정에서 개인정보 및 프라이버시를 보호하며, 특히 지능정보서비스의 제공과 이용 과정에서 데이터 사용이 프라이버시에 미치는 부정적인 영향을 최소화하도록 노력한다.

지능정보사회 구성원들은 데이터의 활용을 통한 기술적 이익의 향유와 프라이버시 보호 사이의 균형을 위해, 지속적인 의견 교환에 참여한다