728x90
반응형

(개념) 데이터베이스의 질의 결과를 통해 간 접적으로 노출된 데이터로부터 기밀 데이터가 노출되는 것을 방지하기 위한 개인정보보호 모델

 

- 기존 비식별화 모델(익명화 모델 등)은 연결 공격, 추론 공격 등에 취약했으나, 차등 프라이버시는 임의의 데이터가 데이터베이스 내에 존재 여부를 은폐함으로써 해당 한계점을 극복

 

기본 개념:

  • 데이터셋에서 한 개인의 정보를 추가하거나 제거해도 전체 분석 결과가 크게 달라지지 않도록 보장합니다.
  • 개인의 프라이버시를 보호하면서도 전체 데이터셋의 통계적 특성은 유지합니다.

작동 원리:

  1. 노이즈 추가: 원본 데이터에 적절한 수준의 무작위 노이즈를 추가합니다.
  2. 프라이버시 예산(ε): 허용 가능한 프라이버시 손실의 정도를 수치화한 것입니다.
  3. 민감도 분석: 쿼리 결과가 개인 데이터 변화에 얼마나 민감한지 측정합니다.

 

(유형) 중앙집중형 모델(central model), 지역적 모델(local model)

 

중앙 모델: 데이터 제공자가 신뢰할 수 있는 큐레이터에 원시 데이터를 제공하고 큐레이터에서 노이즈를 추가하는 방식

  • 신뢰받는 큐레이터가 전체 데이터에 차등 프라이버시를 적용
  • 데이터 유용성과 프라이버시 보호의 효율적 균형 가능
  • 큐레이터에 대한 신뢰가 필수
     

지역 모델: 데이터 제공자가 큐레이 터를 신뢰하지 않으므로 데이터에 노이즈를 추가하여 제공하는 방식

  • 데이터 소유자가 직접 노이즈를 추가하여 데이터 제공
  • 큐레이터 신뢰가 불필요
  • 데이터 유용성이 상대적으로 저하될 수 있음

 

 

주간기술동향 제2161호, 개인정보보호 강화기술(PET) 개발 동향, 2025.1월

 

실제 적용 사례

주요 기술 기업들의 활용 사례:

  • Google: TensorFlow Privacy 모듈을 통한 구현
  • Microsoft: Azure Machine Learning의 WhiteNoise 기능
     
  • Apple: 사용자 데이터에 통계적 노이즈 적용
  • Facebook: PyTorch용 Opacus 라이브러리 공개

 

주간기술동향 제2161호, 개인정보보호 강화기술(PET) 개발 동향, 2025.1월

 

한계와 과제

  • 데이터 유용성과 프라이버시 보호 사이의 trade-off 존재
  • 소규모 데이터 적용 사례 부족
  • 실제 적용을 위한 비용과 경험 부족
  • 노이즈 수준 결정의 어려움

 

https://www.aitimes.com/news/articleView.html?idxno=142211

 

혁신과 데이터 보호간의 균형을 위한 차등 프라이버시 - AI타임스

빅데이터와 인공지능 학습 과정에서 개인정보보호의 중요성이 부각되면서 안전한 데이터 활용을 지원하는 차세대 개인정보보호 강화 기술 중 하나로 ‘차등 프라이버시(Differential Privacy)’에

www.aitimes.com

 

728x90
Posted by Mr. Slumber
,