• 매일경제
  • mbn
  • 매경TV
  • 매경이코노미
  • luxmen
  • citylife
  • M-print
  • rayM
뉴스  ·  증권  ·  부동산  ·  비즈&  ·  교육  ·  스타투데이  · 
9월 18일 (수) MK thebiztimes
전체기사주별보기
경제용어 웹검색
Cover Story 바로가기 View&Outlook Case Study 바로가기 Trend 바로가기 Insight 바로가기 Human in Biz 미니칼럼 바로가기 Edu Club 바로가기

allview HOME > SK
프린트 이메일 전송 리스트
[Insight] 개인정보활용…한계는 개인이 정하고 책임은 기업이 져야
개인정보 시장가치 65억弗
향후 5년간 5배 성장 전망

기업, 개인정보·알고리즘 활용
선호물품·TV프로그램 등 추측

개인 데이터 사용 확산될수록
AI에 대한 고민도 같이 커져

투명성 확보 위한 시스템과
개인정보 사용 표준 정립 등
기업의 사회적책임 더 생겨나
기사입력 2019.08.22 04:03:01
  • 페이스북
  • 트위터
  • 카카오스토리

[사진 제공 = 게티이미지뱅크]
시장가치가 65억달러 이상으로 추정되며 앞으로 5년 동안 400% 이상 성장할 것으로 예상되는 시장이 있다. 바로 개인정보(personal information) 시장이다. 과거 개인정보가 보호되지 않았던 시절로 돌아가지 않기 위해서는 (강력한) 규제의 역할이 중요하다고 목소리를 높이는 규제당국(authorized voices)의 주장도 들린다.

사람들이 스스로에게 묻고, 중요하게 여기며, 철저하게 검토해야 할 사항이 있다. 바로 `스스로의 정보를 정확히 어디에 사용하고 있는가`다. 개인정보를 사용하는 것에 따르는 결과에 대해 사람들은 늘 주시하고 있어야 한다.

데이터는 통화가 아니다. 데이터 포인트(데이터 요소)는 동시에 두 개의 다른 저장소에 있으며 똑같은 가치를 지닐 수 있다. 데이터와 관련해 우리는 양자 얽힘(quantum entanglement) 도전에 직면해 있다. 지금 이 글을 읽는 동안에도 당신의 데이터는 수집되고 있다. 데이터가 어디에나 있으며 각기 다른 목적 달성을 위해 인공지능(AI)이 개인의 데이터를 사용해 해당 목적에 맞는 결론에 도달한다는 사실을 감안한다면 사람들은 스스로의 데이터가 어떻게 사용되는지 관심을 가져야 한다. 대부분의 SaaS회사(서비스형 소프트웨어 회사)의 프리미엄 모델은 긴급히 재검토돼야 한다. "무료 솔루션을 위해 개인의 데이터를 제공한다"는 SaaS회사들의 방침은 더 이상 허용되지 않아야 하는 시점에 이르렀기 때문이다.

기업들은 디지털 쌍둥이(현실 세계의 사람을 컴퓨터 속 가상세계에 구현한 존재)를 사용해 개인이 크리스마스에 받을 수 있는 최고의 선물을 추측하는 방법과 디지털 손목시계를 사용해 측정된 일상 운동량을 기반으로 생명보험료를 높이거나 낮추는 방법, 알고리즘을 기반으로 다음 주말에 개인이 즐길 수 있는 TV 시리즈를 제안하는 방법 등을 배우고 있다. 이 모든 것은 매우 가치 있는 정보며 대단한 현상이다. 그러나 (디지털 정보 사용)에 대한 한계는 어디까지일까. 개인의 디지털 정보 사용에 대한 한계는 개인 스스로가 정하고 책임은 기업이 져야 한다.

새로운 종류의 기업의 사회적 책임이 떠오르고 있다. 대용량 데이터를 처리하는 기업용 블랙박스의 사용을 제어하고 모니터링하며 검증하는 것이 해당 기업의 사회적 책임 콘셉트의 전부였지만 이제 기업의 개인 데이터 사용에 대한 새로운 표준은 다음과 같이 돼야 할 것이다.

투명하고 책임 있는 개인 데이터 보호를 위해 외부 조직의 검증이 대기업이 활용하는 모든 예측 모델링(통계를 사용하여 이뤄지는 결과 예측)과 알고리즘 모델에 포함돼야 한다. 우리 모두는 제4차 산업혁명 시대에 살고 있는 걸 알고 있다. 이에 맞춰 최종 사용자는 예측 모델의 결과에 따라 행동할 수 있는 권리가 있어야 한다. 이는 (개인정보 사용에 따른 결과를) 바로잡을 수 있는 권리뿐만 아니라 투명성과도 관련이 있다. 올바르게 데이터가 활용될 수 있는 사회를 만들기 위해, 기업이나 정부가 사용한 개인 데이터에 대한 책임성을 검증하기 위해 투명성이 필요하다.

지난 4월 EU의 AI 전문가들은 `신뢰할 수 있는 AI를 위한 윤리 지침(Ethics guidelines for trustworthy AI)`이라는 제목으로 기업과 정부가 AI의 윤리성을 어떻게 개발해야 하는지에 대한 지침을 내놓았다. 해당 지침서에는 `(데이터 사용에 대한) 인간의 권리를 키우고 기본 권리를 신장시켜라` `강력하고 안전한 시스템으로 정보를 보호하라` `개인 프라이버시를 완벽하게 존중하라` `AI 모델에 대한 투명성을 갖춰라` `(기업들은) 책임감을 가져라` 등의 내용이 담겼다.

지난달 미 연방거래위원회(FTC)는 개인정보 유출 문제로 페이스북에 50억달러의 벌금을 부과했다. 그런데 페이스북은 FTC와 합의하기 전 1분기 실적 발표에 이미 FTC에 부과할 과징금을 30억달러로 책정해뒀다고 밝혔다. 이는 투명하지 않은 데이터 사용과 개인정보 보호 부족이 얼마나 큰 손실을 초래하는지 여실히 보여준다.

데이터 알고리즘의 편향에 대해서도 우려의 목소리가 있다. 미국의 푸드스탬프(미국의 대표적인 저소득층 식비 지원 제도, 수혜자들은 식품 구입용 쿠폰으로 정부가 지정한 매장에서 식품을 구매할 수 있다)는 데이터 알고리즘 편향의 대표적 사례다. 지난해 `뉴 푸드 이코노미`는 2017년 미국 농무부(USDA)가 "미국 전역 1600개 이상의 소매업체들이 푸드스탬프 결제를 받는 것에 대한 자격을 박탈했다"고 보도했다. 알고리즘을 기반으로 소매업체들의 결제 내역을 확인한 결과 푸드스탬프 결제 활동이 사기라고 판단됐기 때문이다. 구체적으로 말하자면 개인 차량이 없는 저소득층 사람들이 차량을 공유해 단기간 연속적으로 푸드스탬프를 사용해 식품을 구매한 것이 농무부 결제 알고리즘에 의해 사기라고 판명 난 것이다. 그 결과 일부 소매업체들은 푸드스탬프 프로그램에서 영구적으로 제외되기도 했다. 농무부의 누군가가 푸드스탬프 프로그램 모니터링을 중단하면서 (해당 프로그램 알고리즘이) 편향된 `생각`을 갖게 된 것이다.

기업 내 데이터 사용자가 수집된 데이터 결과가 (편향되지 않게) `재작업`할 수 있도록 특정한 규정을 수립해 투명한 데이터 사용 시스템을 설계하는 것은 기업 전체가 개인 데이터 사용에 더 책임을 질 수 있는 방안이 될 것이다. 한번 생각해보자. 우리는 데이터 사용에 대한 기업의 사회적 책임을 이야기하고 있는가?

사람들이 제4차 산업혁명에서의 지속가능성에 대해 이야기를 더 나눠야 한다고 생각한다. 특히 데이터 사용과 관련된 지속가능성에 대해 심도 있는 논의가 필요하다. 개인정보가 어떻게 사용되는지 매우 염려하고 있는 상황이다. 데이터 저장소(data box)는 `책임 있는 데이터 저장소`가 돼야 한다. 기업이 설립하는 개인 데이터 은행(personal data banks)의 탄생이 데이터 책임성 부여에 대한 한 가지 해답일 수 있다.

한 번 더 강조한다.
집계된 데이터의 사용에 대해 깊은 우려가 있다. 데이터를 사용하는 학습 능력 자동화 방법을 실제로 알고 있다면 우리는 이러한 자동화된 시스템이 보다 나은 세상을 만들기 위해 어떻게 설계됐는지에 관심을 둬야 한다. 딥러닝도 필요하지만 더 나은 세상을 만들기 위해 사용하는 AI에 대한 깊은 우려도 필요하다.

[베르나도 크레스포 IE비즈니스스쿨 교수]
[ⓒ 매일경제 & mk.co.kr, 무단전재 및 재배포 금지]

경제용어사전 프린트 이메일 전송 리스트
최신기사

빈칸
PDF 보기