school 전문가회원accessibility 회원가입perm_identity 로그인
인공지능 개인의 건강 프라이버시 위협하다

이 기사는 고동탄 기자가2019년02월27일 18시27분에 최종 입력하였습니다. 총 408명이 방문하여 읽었습니다.

인공지능 발전으로 개인의 사사로운 건강 데이터 침해받다
캘리포니아 대학교 버클리가 실시한 연구에 의하면 인공지능의 발전이 사람들의 건강 자료의 프라이버시가 위협을 받는 새로운 문제를 야기하고 있다고 한다. 캘리포니아 대학교 버클리의 공학자인 아닐 아스와니가 주도한 이번 연구는 현행 법률과 법규는 인공지능 발전에 직면해서 개인의 건강상태를 사사로운 비밀로 지킬 수 있도록 해주기에는 아주 부족한 것을 시사하고 있다.

연구결과에 의하면 인공지능을 사용하면 활동 추적기나 스마트 시계나 스마트폰이 수집하는 보행 자료의 일상적인 패턴을 학습하고 인구학 자료와 연관시켜 개개인을 식별해내는 것이 가능한 것으로 드러났다.

연구진은 15,000명이 넘는 미국인의 2년 치 자료를 연구해서 1996년에 제정된 HIPAA(건강보험 이전과 책임에 관한 법)와 관련이 있는 프라이버시 기준을 재고해서 개정할 필요가 있다는 결론을 내렸다. 우리는 국민 건강 영양 조사(NHANES)의 데이터가 미국의 다양한 인구를 대변하고 있기 때문에 이 데이터를 이용해서 프라이버시 문제를 살펴보려고 했다고 아스와니는 말했다.

그는 계속해서 다음과 같이 말했다.
“연구결과는 주요한 문제를 지적했다. 만약 신원을 확인하는 모든 정보를 제거한다고 해도 우리가 생각하는 것만큼 우리를 보호해주지 않는다는 것이다. 누군가가 만약 올바른 정보만 갖고 있으면 삭제한 정보를 되돌려 복원할 수가 있는 것이다. 원론적이지만 페이스북이 당신의 스마트폰에 깔린 앱을 통해 보행 정보를 수집하고, 또 다른 회사로부터 건강 관련 데이터를 구입해서 그 2가지를 맞춰본다고 가정해보라. 그러면 그들은 이제 이름과 들어맞는 건강 치료 정보를 확보하게 되고 그걸 바탕으로 상품 광고를 하거나 다른 회사에 그런 정보를 팔아넘길 수가 있게 될 것이다.”

아스와니에 의하면 이 문제는 기기와 관계가 있는 것은 아니고 기기가 정보를 획득하는 방법을 오용해서 아무에게나 팔 가능성이 있는 것과 관계가 있다고 한다. 그는 이렇게 말했다.
“나는 우리가 그런 기기들을 폐기해야만 한다고 말하는 것은 아니다. 그러나 우리가 그런 데이터를 사용하는 방법에 대해 아주 조심할 필요가 있다. 우리는 정보를 보호할 필요가 있다. 만약 그렇게 할 수가 있다면 정말로 긍정적이다.”

건강 정보 보호 규정 오히려 완화하려는 조짐 보여
이번 연구가 구체적으로 보행 자료만 살펴보았지만 연구결과는 건강 데이터의 프라이버시에 대한 광범위한 위협이 있는 것을 시사하고 있다. 아스와니는 계속해서 다음과 같이 설명했다.
“HIPAA 규정은 건강 관련 정보를 사사로운 비밀로 규정하고 있지만 우리가 생각하는 만큼 보호하지 않는다. 기술 기업 같은 많은 집단이 HIPAA의 사각지대에 있고 현행 HIPAA 규정은 아주 구체적인 정보만 공유하지 못하도록 제한하고 있다. 건강 데이터를 구입하는 회사들이 있다. 그런 데이터는 익명적인 데이터로 상정되지만 그들의 전반적인 비즈니스 모델은 익명의 데이터에 이름을 찾아 붙이는 방법을 찾아 결국 그것을 팔아먹는 것이다.”

아스와니는 인공지능의 발전이 회사들이 건강 데이터에 접근하는 것을 더 쉽게 만들었고 그런 회사들이 개인의 건강 데이터를 불법적으로나 비윤리적인 방법으로 사용할 유혹에 빠질 가능성이 높아질 것이라고 말했다. 고용주들이나 융자업체들이나 신용카드 회사 등이 인공지능을 이용해서 예를 들면 임신이나 신체장애에 대해 차별 대우를 할 가능성이 있다.

아스와니는 계속해서 다음과 같이 설명했다.
“이상적으로는 건강 데이터를 보호하는 새로운 규정이나 규칙을 만드는 것이다. 그러나 실제로는 기존의 규정들을 오히려 완화하려는 강력한 조짐들이 나타나고 있다. 예를 들면 HIPAA의 규정을 만드는 위원회는 데이터 공유를 늘려야 한다는 의견을 제시했다. 사람들이 어떤 일이 일어나고 있는지를 알지 못한다면 우리가 갖고 있는 현재의 규정이 완화될 위험이 있다. 건강 데이터에 관한한 우리의 프라이버시를 상실할 위험은 실제로는 낮아지지 않고 높아지고 있는 것이 실상이다.”

참조: L. Na et al., "Feasibility of Reidentifying Individuals in Large National Physical Activity Data Sets From Which Protected Health Information Has Been Removed With Use of Machine Learning" JAMA Network Open, 2018; 1 (8): e186040 DOI: 10.1001/jamanetworkopen.2018.6040