통일연구원 전자도서관

로그인

통일연구원 전자도서관

소장자료검색

  1. 메인
  2. 소장자료검색
  3. 단행본

단행본

단행본

대량살상 수학무기: 어떻게 빅데이터는 불평등을 확산하고 민주주의를 위협하는가

대등서명
weapons of math destruction
발행사항
서울 : 흐름출판, 2017
형태사항
390 p. ; 23 cm
ISBN
9788965962359
청구기호
331.5412 오219ㄷ
소장정보
위치등록번호청구기호 / 출력상태반납예정일
이용 가능 (1)
1자료실00019958대출가능-
이용 가능 (1)
  • 등록번호
    00019958
    상태/반납예정일
    대출가능
    -
    위치/청구기호(출력)
    1자료실
책 소개
“실리콘밸리에서는 절대 들려주지 않는 빅데이터 이야기”
‘보이지 않는 손’ 알고리즘의 역습이 시작됐다


《사피엔스》의 저자 유발 하라리는 “21세기 인본주의 시대에는 인간의 감정이 최고의 권위를 누렸지만, 미래에는 알고리즘이 우리 삶을 지배할 것”이라고 예측했다. 유발 하라리의 분석처럼 우리는 힘을 가지기 위해 우리 존재를 숫자와 점으로 바꾸고 평가를 알고리즘에 맡기고 있다. 우리는 이런 흐름을 ‘빅데이터’라고 부른다. 빅데이터는 방대한 양의 데이터를 논리적이고 합리적인 알고리즘으로 계산해 인간이 인지하지 못하는 질서와 규칙을 찾아낸다. 따라서 빅데이터 모형은 편견에 사로잡힌 인간보다 공정하며, 개인의 권리와 이익을 보호한다고 알려져 있다.
그런데 2016년 미국에서 출간돼 지금까지 뜨거운 논란을 일으키고 있는《대량살상수학무기》는 누가 어떤 목적으로 사용하는가에 따라 알고리즘은 전혀 다른 얼굴을 가질 수 있다고 말한다.
미국의 상하원 선거가 치러지던 2010년, 페이스북의 연구진들은 한 가지 질문을 던진다.(본문 300쪽 참조)
“페이스북 알고리즘을 조정해 정치 시스템에 영향을 줄 수 있을까?”
페이스북은 이 질문에 답을 찾기 위해 ‘투표 메가폰’이라는 캠페인을 시작했다. 연구진들은 상하원 선거 당일 투표에 참여한 페이스북 이용자가 ‘나는 투표했다’는 게시물을 올리면, 친구들의 뉴스피드에 해당 게시물이 우선적으로 노출되도록 알고리즘을 조정했다. 투표일에만 6100만 명의 페이스북 사용자가 ‘나는 투표했다’는 게시물을 올렸고 이에 자극을 받은 다른 이용자들도 경쟁적으로 페이스북에 투표 인증을 했다. 페이스북은 ‘투표 메가폰’이 약 34만 명의 유권자를 투표소로 더 불러낸 것으로 추정했다. 이는 미국 한 주의 전체 선거 결과뿐 아니라 전국적인 선거 결과에도 영향을 미칠 수 있는 숫자로, 투표 당일 페이스북의 알고리즘을 어떻게 조정하느냐에 따라 선거결과를 바꿀 수도 있음을 뜻한다.
《대량살상수학무기》는 알고리즘의 힘을 ‘신’ 같은 존재로 비유한다. 알고리즘의 의사결정 과정은 수학과 IT기술로 숨겨져 있어서 일반인들이 이해하기 힘들다. 각 영역의 최고 사제들, 즉 수학자와 컴퓨터 과학자 들을 제외하고는 그 누구에게도 내부의 작동 방식을 알 수 없다. 페이스북의 사례에서 보듯이 오히려 인간은 알고리즘의 결정을 자발적인 선택이라고 믿는다.

“굉장히 흥미롭고 대단히 심란케 하는 책” - 유발 하라리
수학자, 퀀트, 그리고 데이터과학자가 고발하는 대량살상수학무기의 진실


《대량살상수학무기》는 수학 이론, 빅데이터, IT기술이 결합해 만들어낸 빅데이터 모형이 정치는 물론 교육, 노동, 서비스, 행정, 보험 등 우리가 상상할 수 있는 모든 분야에서 막대한 영향력을 행사하고 있다고 말한다. 이 책의 저자 캐시 오닐은 빅데이터 모형 중에서도 인종차별, 빈부격차, 지역감정 등 인간이 가진 편견과 차별 의식을 그대로 코드화한 알고리즘을 사용하는 모형은 ‘대량살상무기(Weapons of Mass Destruction)’만큼 위험하다고 보고 이것들에 ‘대량살상수학무기(Weapons of Math Destruction)’, 줄여서 WMD란 이름을 붙인다.
캐시 오닐의 독특한 경력 때문에 책이 출간될 당시 미국에서는 “빅데이터 업계의 내부고발자의 책(<타임> 서평)”이란 평가를 받았다. 저자는 하버드대학과 매사추세츠공대(MIT)에서 수학박사와 박사후과정을 이수한 후 젊은 나이에 수학 연구로 유명한 버나드 칼리지 종신교수가 된다. 그러나 2007년 수학을 현실 세계에 활용한다는 매력에 이끌려 교수직을 버리고 세계적인 헤지펀드 업체 디이 쇼(D.E Shaw)에서 선물거래팀을 이끈다. 저자는 그곳에서 2000년대 후반 글로벌 금융시장의 호황과 추락을 온몸으로 겪게 되는데, 특히 부동산거품을 불러온 서브프라임모기지, 신용부도스와프(CDS), 합성부채담보부증권(CDO) 등 수학과 금융 기술, 인간의 욕망이 결탁해 탄생한 금융 상품들이 어떻게 대다수 선량한 시민들의 삶을 파괴하는지 뼈저리게 깨닫게 된다.
이후 그녀는 IT업계로 자리를 옮겨 데이터과학자가 되는데 WMD가 ‘빅데이터’와 ‘인공지능’이란 이름으로 금융업계를 넘어 사회의 곳곳으로 도입되는 것을 목격하게 된다. 예를 들어, 상점이나 카페의 종업원이 밤늦게까지 일하다가 매장문을 닫고 퇴근한 다음, 불과 몇 시간 후 새벽 동도 트기 전에 다시 출근해서 매장 문을 여는 노동방식을 뜻하는 클로프닝(clopening)은 대표적인 WMD다. 기업들은 고객들의 이동정보, 날씨, 주요사건, 구매정보 등 다양한 데이터를 분석해 유연하게 노동자의 근무시간을 짜고 있다. 이는 기업 입장에서는 물류(logistics)적으로 올바른 선택이지만, 불규칙한 근무 일정에 내몰린 노동자들은 일하는 것 외에는 어떤 것도 계획을 세울 수 없게 되었다. 클로프닝은 주로 저임금 단순업무에 이용되는데 이 때문에 저소득층일수록 불규칙한 생활환경에 내몰리고 더 나은 일자리를 위한 교육과 훈련을 받을 수 없어 빈곤의 악순환을 가져오고 있다.

“알고리즘은 미래를 예언하지 못한다. 대신 미래를 만들어 낸다”
대량살상수학무기는 어떻게 불평등을 확산하고 민주주의를 위협하는가


《대량살상수학무기》는 불평등을 확산하고, 민주주의를 위협하는 WMD의 특징을 상세한 사례와 분석을 통해 파헤친다. WMD의 특징은 3가지로 요약된다.
첫째 불투명성이다. 2007년 워싱턴 DC 시장으로 취임한 에이드리언 펜티는 관내 학생들의 낮은 학업 성취도가 무능한 교사들 때문이라고 결론 내리고 새로운 교사 평가 시스템을 도입한다. ‘임팩트’라는 이 교사 평가 시스템은 ‘매스매티카’란 업체가 계발한 알고리즘 기반 모형이다.
임팩트는 전학, 가정불화, 왕따 등 학업 성취도에 영향을 주는 여러 변수는 모두 제외하고 순전히 학생들의 시험 점수만을 가지고 교사들을 평가했다. 하지만 정책 당국은 상세한 평가 기준 등은 공개하지 않았다. 누군가 알고리즘을 들여다본다 하더라도 코드화된 알고리즘에 숨겨진 평가기준은 개발자를 제외하고는 그 누구도 이해하기 힘들었다.

워싱턴 교육청의 임팩트를 포함해 이 책에서 소개할 WMD 중 상당수가 적절한 피드백을 받지 못하고 있다. 오히려 이들 모형은 스스로 현실을 정의하고, 그 결과를 정당화하기 위해 왜곡된 현실을 이용한다. (중략) 매스매티카의 평가 시스템이 와이사키와 205명의 교사들에게 실패자라는 꼬리표를 붙이자 워싱턴 교육 당국은 그들을 모두 해고했다. 그런데 이 평가 시스템에는 이 같은 결정이 옳은지에 대해 사후에 학습하는 과정이 있을까? 없다. 시스템이 교사들을 실패자라고 확신하면, 평가는 그것으로 끝이다.
(서론 중에서)

임팩트가 도입된 2년 동안 206명의 교사가 어떤 설명도 없이 평가 점수가 낮다는 이유로 교단에서 퇴출당했다. 그중에는 사라 와이사키처럼 동료 교사와 학부모들에게 절대적인 지지를 받는 헌신적인 교사도 포함되었다. 어떻게 이런 일이 벌어진 것일까? 교사 평가 점수가 낮은 교사는 퇴출당한다는 조건 때문에 교사들은 학생들에게 교육자적인 관심을 쏟기보다는 시험 준비에 열을 올렸다. 심지어 41개 학교에서는 불이익을 우려해 시험 후에 시험답안을 수정하기도 했다. 일부 학교에선 전체 학급의 무려 70%가 이런 부정행위에 가담했다. WMD의 불투명성은 우리에게 공정한 경쟁, 다양성보다는 획일성과 침묵을 강요한다.

둘째, 확장성. 빅데이터 모형은 수천 장에 이르는 각기 다른 사연이 담긴 이력서나 대출 신청서 중에서 가장 유망한 후보자의 이름이 맨 위에 올라가도록 1~2초 안에 깔끔한 목록으로 정리할 수 있다. 이런 프로그램은 기업에는 수익을, 사회에는 효율을, 개인에게는 공정성을 약속했다. 그러나 WMD가 기업에게는 효율과 수익을 약속하지만 개개인에게는 공정성보다는 확장된 사회통제를 가하고 있다.
우리나라와 마찬가지로 미국에서도 신용평가점수는 대출이나 신용카드 발급 등에서 중요한 평가 기준이 됐다. 신용평가점수는 주로 재무 정보를 취합해 만들어진다. 최근에는 재무정보 외에 인종, 학력, 출신지는 물론 범죄기록, 언어 사용 능력 등 온갖 데이터를 마구잡이로 수집해 신용도를 예측하는 e점수가 널리 쓰이고 있다. 미국의 경우 e점수는 금융 업계를 넘어 취업, 보험, 결혼 업체에까지 고객을 평가하는 잣대로 확장되면서 심각한 부작용을 겪고 있다.
제스트 파이낸스(Zest Finance)는 e점수를 활용해 단기소액대출을 제공하는 스타트업이다. 이 회사는 “모든 데이터가 신용 데이터다”라고 선언했는데 대출 신청자 1인당 최대 1만 개의 데이터를 수집, 분석해 위험도를 측정한다. 그 데이터 중에는 온라인으로 대출신청서를 작성할 때 맞춤법을 맞게 쓰는지, 구두점은 제대로 찍는지, 신청서 작성에 얼마나 시간이 걸리는지 등도 포함된다. 이는 ‘규칙을 준수하는 사람’이 신용도가 높다고 본 것인데 이 때문에 교육 수준이 낮은 저소득층이나 이민자들이 높은 이율의 대출을 받게 됐다. 저자는 이런 행태가 가난, 인종에 대한 차별임에도 불구하고 알고리즘에 교묘하게 숨겨져 있어서 드러나지 않는다고 말한다. e점수는 대출뿐만 아니라 일자리를 구하고, 아파트를 빌리거나 심지어 데이터 상대를 소개해주는 업체에도 널리 쓰이고 있다. 이는 곧 사회 곳곳에서 빅데이터의 차별적 판단이 확산된다는 뜻이다.

마지막으로, 피해의 악순환이 있다. WMD가 모든 사람에게 파괴적인 영향을 미치는 것은 아니다. WMD 모형 덕분에, 어떤 학생은 잠재력을 인정받아 하버드대학교에 진학하고, 누군가는 저금리 대출을 받거나 좋은 직장을 구한다, 일부 운이 좋은 범죄자는 가벼운 양형을 받기도 한다. 하지만 일부 예외를 제외하면 고통받는 사람이 너무 많다. 알고리즘에 의해 작동되는 시스템들은 자신들이 정한 기준에 맞춰 사람들을 수치화하고, 분류한다. 예외는 허용하지 않는다. 그래서 수백만 명의 면전에서 기회의 문을 닫아버리고 이의를 제기할 가능성조차 허용하지 않는다.
저자는 이를 ‘해로운 피드백 루프’라고 부르는데 대표적인 것이 범죄 예측 프로그램이다. 지진 감지프로그램으로 개발된 프레드폴(PredPol)은 과거의 범죄 데이터를 분석해 범죄 발생이 예상되는 지역을 알려주는 역할을 한다. 프레드폴은 범죄가 자주 발생한 지역에 경찰력을 집중적으로 투입하도록 설계되어 있는데, 이런 지역은 주로 저소득층이 거주하는 지역이었다. 경찰이 강도, 살인, 강간 같은 중범죄를 예방하기 위해 순찰을 하는 것일지라도, 우범 지대로 분류된 동네에서 순찰 시간이 길어지다 보니 결국 어느 지역이든 흔한 미성년자 음주, 노상 방뇨, 단순 절도 등 경범죄 단속 건수가 높아졌다. 이 데이터는 다시 범죄 예측 시스템에 취합되게 되고, 더 많은 경찰 인력이 그 지역을 순찰하게 만든다.
현재 미국에서는 프레드폴 외에도 컴스텟(ComStat), 헌치랩(HunchLab) 등 유사한 예측 프로그램이 경찰을 돕고 있는데 이 프로그램의 등장 이후 전체 범죄율은 줄어들었지만 유색인종, 저소득층의 범죄율은 증가했다고 한다.
《대량살상수학무기》에서는 노동, 취업, 교육, 범죄 양형, 치안, 보험 등 우리가 상상할 수 있는 모든 영역에 영향력을 행사하는 WMD를 상세히 소개하고 이것들이 불러올 파괴력을 전문가의 시각에서 분석한다.

“오직 인간만이 시스템에 공정성을 주입할 수 있다.”


‘대량살상수학무기’는 폭탄을 장착한 진짜 무기는 아닙니다. 그러나 오히려 물질적인 실체가 보이지 않기에 그 위험을 체감하기 어렵습니다. 확장성과 효율성이란 특성 때문에 WMD의 영향력은 날이 갈수록 확대되고 있으며 그만큼 피해는 확산될 것입니다. 만약 WMD가 관료주의 메커니즘과 결합한다면 이의를 제기하거나 이를 무력화시키기란 사실상 불가능합니다. (한국 독자들에게)

우리는 알고리즘 덕분에 과거에 누리지 못한 힘을 가지게 됐지만, 그 과정에서 저소득층과 소수계층은 물론이고 상당수의 사람들이 시스템에 의해 차별당하고 있다. 캐시 오닐은 빅데이터의 어두운 면을 직시해야 한다고 말한다. 그러나 빅데이터가 없던 시절로 돌아갈 수는 없다고 한다. 알고리즘은 누가 어떤 목적으로 만드느냐에 따라 악마도 천사도 될 수 있다. 공정성, 도덕성, 포용성 등 인간만이 가지는 가치와 의미를 알고리즘에 투입할 수 있다면 그 힘을 얼마든지 이로운 방향으로 돌릴 수 있다. 아직 우리에게는 기술을 어떻게 활용할 것인지 선택권이 있다. 이 책은 “시민들은 역사상 처음으로 마주하는 수학적 알고리즘의 위험한 힘을 이해하고 그 힘을 제어하기 위해” 행동에 나서야 한다고 강조한다.
《대량살상수학무기》는 출간된 후 지금까지 아마존닷컴 52주 연속 분야 1위를 자리를 지키고 있으며, 2016 ‘내셔널 북어워드’ 선정작에 올랐다. 또한 <뉴욕타임스>를 비롯한 수많은 매체에서 ‘올해의 책(2016)’으로 선정했다.
목차

한국 독자들에게

서론 데이터과학자, 퀀트, 그리고 내부고발자

1장 대량살상수학무기의 탄생 : 빅데이터 시대, 알고리즘이 신을 대체하다
모형이란 무엇인가? | 과연, 알고리즘은 공정한가? | 재범위험성모형과 편견의 덫
대량살상무기의 3가지 조건

2장 셸 쇼크 : 금융과 수학의 결탁이 불러온 파국
어떻게 수학은 금융위기의 공범이 되었나 | 수학은 미래를 예언하지 못한다 | 수학 모형의 미몽에서 깨어나다
그러나 변한 것은 없었다

3장 군비 경쟁 : 데이터의 포로가 된 학교와 학생들
2류 시사 주간지의 대학 줄 세우기 | 대리 데이터가 현실을 대체하다
텍사스 크리스천 대학교의 명문대 프로젝트 | 미국 대학 등록금이 비싼 이유
“부정행위를 허용해야 공정하다” | 결국, 모두가 피해자

4장 선동 도구 : 알고리즘은 당신이 한 일을 알고 있다
약자들을 노리는 약탈적 광고 | “그들의 아픔을 공략하라” | 온라인 광고는 어떻게 우리를 스토킹하는가
탐욕스러운 기업이 빅데이터를 만나면…

5장 무고한 희생자들 : 가난이 범죄가 되는 미래
귀게 걸면 귀걸이, 코에 걸면 코걸이 | 불심검문이 오히려 범죄자를 양산한다? | 공정성 대 효과성
가난이 범죄가 되는 세상

6장 디지털 골상학 : 당신은 우리가 원하는 직원이 아닙니다
인성적성검사의 비밀 | 알고리즘은 개성을 싫어한다 | 세인트 조지 의과대학의 착각
효율성이라는 이름으로 자행되는 차별들

7장 일정의 노예 : 알고리즘의 노예가 된 노동자들
인간, 진정한 부속품이 되다 | 사다리 걷어차기 | 생산성을 점수화하기 위한 시도들 | 심슨의 역설
우리가 저항해야 하는 이유

8장 부수적 피해 : 모든 길은 신용점수로 이어진다
당신은 몇 점인가요? | ‘당신은’ 대 ‘당신과 같은 사람은’ | 취업도 대출도 사랑도 결정하는 신용평가점수
쓰레기를 넣으면 쓰레기가 나온다 | 오직 인간만이 공정성을 주입할 수 있다 | 빅데이터 시대의 아이러니

9장 안전지대는 없다 : 선의에 감춰진 보험의 민낯
자동차 보험료는 어떻게 결정되는가 | 더 이상 숨을 곳은 없다 | 행동적 부족의 탄생
당신의 건강을 관리합니다. 사생활을 침해해서라도… | 엉터리 수학의 임금 절도

10장 표적이 된 시민들 : 민주주의를 위협하는 빅데이터
세상에서 가장 거대한 실험실 | 마이크로 타기팅, 유권자 갈라치기 | 미국 정치권의 빅데이터 활용법
천사도 악마도 될 수 있다

결론 수학 모형의 여행을 마치며
후주