728x90
반응형
김건우. (2019). 차별에서 공정성으로: 인공지능의 차별 완화와 공정성 제고를 위한 제도적 방안. 법학연구, 61(), 109-143.

사회 각 분야에 인공지능이 도입되고 활성화됨에 따라, 이와 관련하여 다양한 사회적 · 윤리적 · 법적쟁점도 대두되고 있다. 그 중 가장 두드러진 것은 인공지능의 판단이나 의사결정의 결과가 사회가 원하지 않는 종류의 편향과 차별을 띨 수 있다는 점이다. 인공지능 알고리즘에 따른 의사결정도 인종 · 젠더 · 연령 · 외모 등 다양한 측면에서 편향을 드러낼 수 있으며, 이러한 편향도 인간의 의사결정에서 드러나는 편향 못지않게 심각할 수 있다는 것이다.

본고는 이러한 문제와 관련하여 다음과 같은 정책적 대응 방안을 제시하고 논의하였다. 일차적으로 인공지능의 설계와 활용 및 평가 등 모든 단계에서 국제인권규범이나 국내 법규상의 차별 금지에 관한 규율을 충실하게 준수해야 한다. 다만 이러한 경성 규범을 활용할 때에는 신중할 필요가 있고, 연성 규범을 적극적으로 활용하는 것이 더욱 권장할 만하다. 주지하듯, 국가와 정부기구에서부터 국제기구나 전문가집단, 그리고 민간 기업에 이르기까지 여러 주체들은 이미 인공지능의 활용에 관한 윤리 가이드라인과 규약, 그리고 헌장 등을 제시한 바 있으며, 우리 정부나 기관들도 이같은 규범을 제정하고 준수할 필요가 있다. 인공지능 개발자 선서나 행동규약을 제정하여 준수하게 하는 것도 유사한 의의와 효용이 있을 수 있다. 보다 근본적이고 직접적인 해결책으로, 애초에 ‘선한’ 인공지능을 설계하고 제조하고자 관련 연구개발에 노력할 필요도 있다. 그리고 인공지능(알고리즘)에 대한 사전영향 평가나 사후 감사도 필요하다. 뿐만 아니라, 인공지능의 입출력물을 공개하는 한편 이용자로부터 설명 요청이 있을 때에 컨트롤러가 이에 응하는 것을 의무화하는 방안도 유력하다. 끝으로, 이른바 인공지능 시민권을 보장하는 차원에서, 인공지능과 관련한 시민의 전반적 이해도와 역량을 강화하는 것이 필요하다.

국문초록
I. 서론
II. 인공지능 도입에 따른 사회적 · 윤리적 · 법적 쟁점
III. 정책적 대응
IV. 결론
참고문헌
Abstract

공정성, 투명성, 책무성

[인공지능 도입에 따른 사회적 · 윤리적 · 법적 쟁점]
(1) 편향으로 인한 차별 강화와 불공정성
(2) 불투명성과 설명불가능성
(3) 프라이버시 침해와 보안 위협
(4) 기타: 통제불가능성, 그리고 민주주의에 대한 위협

[정책적 대응]
(1) 인공지능 윤리 가이드라인, 지침, 헌장 등의 제정 및 시행 : 인공지능 거버넌스
(2) 인공지능 개발자 선서 및 행동 규약의 제정 및 시행 : 아실로마 인공지능 원칙
(3) 선한 인공지능의 설계 및 활용 :  공익성과 공정성을 목표로 한 알고리즘
(4) 인공지능 영향 평가(assessment) 및 감사(監査, auditing)
(5) 인공지능 입출력물 공개 및 설명의 의무화
(6) 인공지능 시민권의 보장 및 시민의 역량 강화





[제1차 인공지능 편향성 최적화 학술대회] 인간의 편향과 인공지능의 편향 (Human Bias and AI Bias)

◼ 주제발표 2. "인공지능의 차별 완화와 공정성 제고"
발 표 : 김건우 | 광주과학기술원 기초교육학부
논 평: 정채연 | 포항공과대 인문사회학부 -


728x90
Posted by Mr. Slumber
,