생성형 AI - 정책

07.AI 2024. 1. 16. 16:04
728x90
반응형

AI 규제 현황

 

 

 OECD는 의사결정자들이 정책 문제를 해결하는 데 있어 참고할 수 있도록 생성형 AI와 관련된 정책적 고려 사항을 정리한 보고서 발간*(’23.9.)

* Initial Policy Considerations For Generative Artificial Intelligence

 

ㅇ (주요 정책 이슈) 생성형 AI는 목적에 따른 다양한 새로운 콘텐츠를 생성하여 교육, 엔터테인먼트, 의료, 과학연구 등 많은 분야에 혁신을 가져올 잠재력이 있는 동시에, 노동시장의 잠재적 변화, 저작권 문제, 사회적 편견 강화의 위험, 허위정보 및 조작된 콘텐츠 유입과 같은 사회적정책적 문제를 야기

(1) 주요 산업 분야에 빠르게 도입활용

- (코드 개발) Copilot*은 개발자의 프롬프트에 따라 코드를 생성 또는 자동 완성할 수 있으며, 코드 리팩토링(Code refactoring)**에도 생성형 AI가 유용하게 활용

* OpenAI GitHub에서 공동 개발하였으며, CodeGen도 이와 유사한 기능을 제공

** 코드의 기능은 유지한 채 기존 코드를 개선하는 것

- (창의 및 예술 산업) AI 멜로디 생성기는 음악 등 분야에, 스테이블 디퓨전(Stable Diffusion)이나 Dall-E 2는 광고, 미디어, 영화 등의 산업에 새로운 기회를 제공

- (교육) 학습이나 시험 준비뿐만 아니라 교육 자료 생성, 추천서 작성, 수업 강의계획서 생성 등 교육자의 편의성을 향상

- (보건) 환자들의 예방적 관리나 의료 상황에 대한 정보 제공*  AI 화학 모델을 통한 신약 개발** 등에 활용

* 유방암 환자의 두려움이나 걱정에 대응하도록 디자인된 챗봇 Vik의 도입은 환자의 복약률을 높이는 효과를 보임

** Insilico Medicine과 같은 기업은 대규모 생물, 화학, 텍스트 생성 및 예측 엔진을 통해 발견한 의약 성분에 대한 임상 시험을 FDA 승인하에 진행

(2) 역정보 및 허위정보의 규모와 범위를 크게 확장

- 역정보 및 허위정보로 인해 개인적 차원의 의사결정 및 정보 생태계에서의 사실 기반* 정보교환 등을 약화시킬 가능성이 존재하며, 오용되는 정치과학적 합성 이미지** 전문가 커뮤니티뿐만 아니라 일반대중의 인식을 저해시킴

* 사회적 신뢰와 과학, 증거 기반 의사결정 및 민주주의를 뒷받침

** 기후 변화 부정론자들의 합성 이미지, 코로나-19 관련 허위정보 유포 등

- 생성형 AI 시스템의 역정보와 허위정보를 구분하기 위한 기존 솔루션의 활용 및 개선이 필요

(3) 편견과 차별

- 생성형 AI는 학습데이터에 내재한 차별을 학습함에 따라 텍스트뿐만 아니라 이미지 모델에서도 특정 인종이 과대 대표되는 경우가 있기 때문에, 기록*, 데이터 큐레이션**, 감시를 통해 이러한 편견을 중재하도록 할 필요

* 과소 대표되는 집단이나 내러티브에 대한 보완 작업 등

** 콘텐츠 사용에 있어 필요한 데이터들을 취사 선택하고 비즈니스와 연결해 주는 작업

(4) 저작권을 포함한 지식재산권 문제

- 생성형 AI의 학습에 활용된 데이터에는 허가되지 않은 데이터가 포함되어 있어 저작권 침해의 문제가 발생 가능

- 저작권이 존재하는 대상을 머신러닝 트레이닝에 활용할 수 있는가에 대한 논쟁이 유럽과 미국에서 진행되고 있으며, 미국에서는 공정 사용 원칙(fair use principle) 해당 여부에 따라 이를 판단

- 생성형 AI가 생성한 결과물에 저작권이나 특허권을 형성할 수 있는지, 그렇다면 그 권리의 소유자는 누가 되어야 하는지에 대한 논의도 진행 중인 상황

 미국이나 유럽에서는 AI 그 자체에는 저작권 설정이 불가능한 것으로 판단

(5) 생성형 AI가 노동시장에 미치는 영향

- 생성형 AI가 고숙련(higher-skilled)* 직업의 자동화와 저숙련(lower-skilled) 노동자의 현장업무 숙지 및 숙련도 향상에 필요한 지원을 제공할 것으로 예측

* 기업 전문가, 관리자, 과학기술 전문가, /사회/문화 전문가 등

 국제표준직업분류(International Standard Classification of Occupations) 상 직업 중  32.8% AI에 큰 영향을 받을 것이며, 36.5%가 부분적으로 영향을 받고, 30.7%만이 AI의 영향을 받지 않을 것이라는 연구 결과 발표(Zarifhonarvar, 2023.)

- AI의 도입으로 인한 새로운 활용 방법 및 장점을 파악하는 동시에 잠재된 불확실성 및 노동자의 위험*을 인지하는 정책적 대안 마련이 시급하며, 노동시장 변화 추이에 대한 지속적인 모니터링도 필요

* 프라이버시, 안전, 공정성 및 노동권 등

 

​ㅇ (위험 완화 조치) 생성형 AI의 미래 위험 요소는 규제, 윤리 프레임워크, AI 기술 표준화, 감사, 모델 공개 및 접근성 전략 등 대규모의 시스템화된 방식으로 대응할 필요

 

  생성형 AI의 규제 원칙

1. 생성형 AI 규제 현황
1) EU 집행위원회 
- 2021년 4월 AI 법안 초안 발표
- 2022년 12월 이사회 수정안 발표
- 2022년 5월 GPT로 대표되는 파운데이션 모델(foundation model) 규제 추가

2) 미국
- 2022년 2월 알고리즘 책임 법안 (Algorithmic Accountability Act of 2022) 발의

3) 한국
- 2022년 2월 14일 국회 과학기술정보방송통신 위원회의 법안소위에서 '인공지능산업 육성 및 신뢰 기반 조성에 관한 법률안'을 통과

2. 원칙 중심 규제
- 보다 상위 수준에서 광범위한 규칙이나 기준을 통해 규제하는 방식
- 최근 미국의 구글, 메타, 오픈AI를 비롯한 7개 생성형 AI 업체들이 백악관 주도 모임에 참여해 인공지능 기술로 작성한 콘텐츠에는 워터마크를 넣고 보안기술 개발에도 투자하는 등 이용자 안전 조치를 취하기로 합의

3. 사전 규제와 사후 규제
- 사전 규제 : 불법 행위가 발생하기 전에 위험방지를 위한 적법 행위의 요건을 세밀하게 정해두는 것
- 사후 규제 : 위험이 발생한 경우 이를 제거하기 위한 조치를 취하는 것

4. 국내적 규제와 국제적 규제

5. 전문적ㆍ참여적 규제

6. 비례적 규제 (위험 기반 접근)

- 생성형 AI 규제 원칙에 관한 단상, 이성엽 교수 (고려대학교 기술경영전문대학원 기술법정책센터장)

 

 

https://now.k2base.re.kr/portal/trend/mainTrend/view.do?poliTrndId=TRND0000000000052096&menuNo=200004&pageUnit=10&pageIndex=1

 

[S&T GPS]OECD, 생성형 AI의 초기 정책 고려사항을 담은 보고서 발간

제목 OECD, 생성형 AI의 초기 정책 고려사항을 담은 보고서 발간 원문제목 Initial policy considerations for generative artificial intelligence 국가 국제기구 주제분류 핵심R&D분야 국가 국제기구 주제분류 핵심R&D

now.k2base.re.kr

 

728x90
Posted by Mr. Slumber
,