728x90
반응형

https://www.pipc.go.kr/np/cop/bbs/selectBoardArticle.do?bbsId=BS217&mCode=D010030000&nttId=11014#LINK

- 본 모델은 AI 프라이버시 리스크 관리의 방향과 원칙을 제시하기 위해 마련되었으며, AI 모델 시스템 개발자 및 제공자 등은 개별 여건에 맞게 적용할 수 있습니다.

 

- 본 모델은 개인정보보호위원회가 구성, 운영 중인 'AI 프라이버시 민관 정책협외희' 논의를 바탕으로 마련되었으며, 향후 법, 제도, 기술 발전에 따라 지속적으로 수정, 보완될 수 있습니다.

 

발간기관: 개인정보보호위원회 (2024.12.)

 

1. 발간 목적 및 적용 대상

  • 목적:
    AI
    프라이버시 리스크의 체계적 관리를 위한 방향성과 원칙을 제시하여, AI 개발자·제공자가 자율적으로 참고할 수 있는 관리 모델을 제공.
  • 적용 대상:
    AI
    모델·시스템을 설계·개발·운영하는 기업, 기관, 연구자 등. AI 생애주기 전체(데이터 수집모델 학습서비스 제공)에 걸쳐 적용 가능.
  • 자율적 도입:
    법적 강제력이 아닌 자율적인 도입 기준으로서, 관련 법령 위반 시 행정제재 판단에 참작 가능.

 

2. 정책적 배경 및 기준

  • AI와 프라이버시의 관계:
    대규모 개인정보 수집 및 처리로 인해 기존 프라이버시 리스크(: 감시, 추적 등)가 심화되며, 새로운 유형의 리스크(: 행동 예측, 신원 도용 등)도 출현.
  • 리스크 기반 접근:
    일률적 규제 대신, 프라이버시 리스크를 사전 식별·측정하고, 위험 수준에 비례하여 대응하는리스크 기반 접근권장.

 

3. AI 프라이버시 리스크 관리 절차 (4단계)

단계 설명
① AI 유형·용례 파악 시스템 목적, 데이터 종류 및 활용 방식 등 기술 맥락 파악
리스크 식별 AI 생애주기별 프라이버시 리스크 유형 도출
리스크 측정 발생 확률, 중대성, 수용 가능성 등 정량·정성 평가
리스크 경감 도입 PETs 등 기술적 조치 및 관리적 조치 병행

 

4. 주요 리스크 유형 (예시)

  • 기획·개발 단계:

o 적법하지 않은 데이터 수집
o 학습데이터의 부적절한 보관
o 가치망의 책임 분산으로 인한 권리 보장 불명확

  • 서비스 제공 단계:

o AI 모델의 개인정보 암기 및 노출 가능성
o 생성 AI 콘텐츠의 오남용
o 출력 데이터 기반 신상정보 추론

 

 

 

리스크 관리 절차

 

5. 프라이버시 리스크 경감 기술 적용 사례

  • 2024년 정책연구 결과 요약:
    한국어 LLM 4종에 대해 적용한 기술(중복제거, 입출력 필터링, 섭동, 가지치기) 모두 프라이버시 리스크 완화에 유효했으나 성능 상충(trade-off) 존재 확인.

 

6. 관련 법령 및 정책 연계

항목 내용
「개인정보 보호법」 법 제15(처리의 적법성), 29(안전조치의무), 33(영향평가), 28조의2(가명처리) 등 참조
기존 안내서와의 관계 본 모델은 2021년 발표된 ‘AI 개인정보 자율점검표를 대체
영향평가와의 연계 공공기관은 필수, 민간기관은 자율적으로 영향평가 시 본 모델 활용 가능

 

 

AI 리스크 관리 관련 표준

 

7. 2025년 기준 최신 반영 내용

  • CCPA 개정안(2025.1.1. 시행):
    AI
    시스템이개인정보를 출력할 수 있는 디지털 포맷으로 간주되며, 개인정보 유·노출 리스크 인정
  • LLM 관련 학계 연구(2024~2025):
    LLM
    이 무손실 압축기처럼 개인정보를 암기 및 복원할 가능성 존재
    (
    출처: arXiv:2309.10668v2 )
  • 국제 정책 연계:

o G7 히로시마 AI 프로세스(2023)
o AI 안전성 정상회의(2024.5. 서울 개최)
o *MLCommons ‘AILuminate’ 벤치마크(2024.12. 발표)

 

- ML 커먼스 (MLCommons) AI 안전 벤치마크

- 민간 컨소시엄인 ML 커먼스*는 대규모 언어모델(LLM)의 안전성 테스트를 위한 벤치마크인 ‘AILuminate’**를 개발

 

* (ML 커먼스) AI 기술의 신뢰성, 안전성, 효율성 구축을 위해 업계 및 학계 연구자, 엔지니어, 실무자들로 구성된 컨소시엄으로 (2023. ~), 구글, 메타, NVIDIA, 삼성전자, 네이버, 퓨리오사AI 등이 회원으로 참여

 

** (AILuminate) 12가지 위험범주에 걸친 24,000개 이상의 테스트 프롬프트에 대한 LLM의 응답을 기반으로 안전성을평가하는 벤치마크(2024.12. V.1.0 발표)

 

• AI 안전 벤치마크 마련을 위해 AI의 위험범주(hazard categories) 12개로 분류했으며,

그중 하나로 프라이버시를 포함

 

본 모델을 참고하여 리스크 관리 체계를 수립 및 시행하고자 하는 기업·기관은 다음 원리를 고려 하는 것이 권장됨

 

AI 리스크 관리체계 수립 시 고려해야 할 설계 원칙

원리 설명
맥락 특유적 접근 (Context-specific approach) 개별 AI유형·용례에 따라 맞춤형으로 리스크를 식별·평가하고 대응함. 일률적 규제 지양.
일관성 (Coherence) 다양한 용례에도 정합성 있는 관리체계 유지를 위해 용례들을 처리단계·상호작용 방식에 따라 유형화.
비례성·점진성 (Proportional, Granular) 리스크의 수준에 비례한 통제 강도를 적용하고, 점진적으로 보완·강화하는 방식 채택.
원칙 기반 접근 (Principle-based approach) 기술 중립성 유지를 위해 세부 기술 규정보다 보편적인 원칙 중심으로 접근함. 변화하는 기술 환경에 유연하게 대응 가능.
측정가능성·비교가능성 (Measurable, Commensurable) 원칙 기반이어도 현장에서 바로 활용할 수 있도록, 측정 가능한 지표와 경감 수단을 명확히 마련해야 함.
이해관계자 참여 (Stakeholder Participation) 정보주체, 시민 등 AI 활용의 영향 대상의 참여를 보장하고 의견을 적극 반영함.
상호운용성 (Interoperability) 국제표준 등과의 정합성을 확보하되, 국내의 문화적 특성과 다양성도 반영함.

 

 

https://www.pipc.go.kr/np/cop/bbs/selectBoardArticle.do?bbsId=BS217&mCode=D010030000&nttId=11014#LINK

 

 

728x90
Posted by Mr. Slumber
,