出版社による書籍紹介
出版社による書籍紹介
“실리콘밸리에서는 절대 들려주지 않는 빅데이터 이야기” ‘보이지 않는 손’ 알고리즘의 역습이 시작됐다 《사피엔스》의 저자 유발 하라리는 “21세기 인본주의 시대에는 인간의 감정이 최고의 권위를 누렸지만, 미래에는 알고리즘이 우리 삶을 지배할 것”이라고 예측했다. 유발 하라리의 분석처럼 우리는 힘을 가지기 위해 우리 존재를 숫자와 점으로 바꾸고 평가를 알고리즘에 맡기고 있다. 우리는 이런 흐름을 ‘빅데이터’라고 부른다. 빅데이터는 방대한 양의 데이터를 논리적이고 합리적인 알고리즘으로 계산해 인간이 인지하지 못하는 질서와 규칙을 찾아낸다. 따라서 빅데이터 모형은 편견에 사로잡힌 인간보다 공정하며, 개인의 권리와 이익을 보호한다고 알려져 있다. 그런데 2016년 미국에서 출간돼 지금까지 뜨거운 논란을 일으키고 있는《대량살상수학무기》는 누가 어떤 목적으로 사용하는가에 따라 알고리즘은 전혀 다른 얼굴을 가질 수 있다고 말한다. 미국의 상하원 선거가 치러지던 2010년, 페이스북의 연구진들은 한 가지 질문을 던진다.(본문 300쪽 참조) “페이스북 알고리즘을 조정해 정치 시스템에 영향을 줄 수 있을까?” 페이스북은 이 질문에 답을 찾기 위해 ‘투표 메가폰’이라는 캠페인을 시작했다. 연구진들은 상하원 선거 당일 투표에 참여한 페이스북 이용자가 ‘나는 투표했다’는 게시물을 올리면, 친구들의 뉴스피드에 해당 게시물이 우선적으로 노출되도록 알고리즘을 조정했다. 투표일에만 6100만 명의 페이스북 사용자가 ‘나는 투표했다’는 게시물을 올렸고 이에 자극을 받은 다른 이용자들도 경쟁적으로 페이스북에 투표 인증을 했다. 페이스북은 ‘투표 메가폰’이 약 34만 명의 유권자를 투표소로 더 불러낸 것으로 추정했다. 이는 미국 한 주의 전체 선거 결과뿐 아니라 전국적인 선거 결과에도 영향을 미칠 수 있는 숫자로, 투표 당일 페이스북의 알고리즘을 어떻게 조정하느냐에 따라 선거결과를 바꿀 수도 있음을 뜻한다. 《대량살상수학무기》는 알고리즘의 힘을 ‘신’ 같은 존재로 비유한다. 알고리즘의 의사결정 과정은 수학과 IT기술로 숨겨져 있어서 일반인들이 이해하기 힘들다. 각 영역의 최고 사제들, 즉 수학자와 컴퓨터 과학자 들을 제외하고는 그 누구에게도 내부의 작동 방식을 알 수 없다. 페이스북의 사례에서 보듯이 오히려 인간은 알고리즘의 결정을 자발적인 선택이라고 믿는다. “굉장히 흥미롭고 대단히 심란케 하는 책” - 유발 하라리 수학자, 퀀트, 그리고 데이터과학자가 고발하는 대량살상수학무기의 진실 《대량살상수학무기》는 수학 이론, 빅데이터, IT기술이 결합해 만들어낸 빅데이터 모형이 정치는 물론 교육, 노동, 서비스, 행정, 보험 등 우리가 상상할 수 있는 모든 분야에서 막대한 영향력을 행사하고 있다고 말한다. 이 책의 저자 캐시 오닐은 빅데이터 모형 중에서도 인종차별, 빈부격차, 지역감정 등 인간이 가진 편견과 차별 의식을 그대로 코드화한 알고리즘을 사용하는 모형은 ‘대량살상무기(Weapons of Mass Destruction)’만큼 위험하다고 보고 이것들에 ‘대량살상수학무기(Weapons of Math Destruction)’, 줄여서 WMD란 이름을 붙인다. 캐시 오닐의 독특한 경력 때문에 책이 출간될 당시 미국에서는 “빅데이터 업계의 내부고발자의 책(<타임> 서평)”이란 평가를 받았다. 저자는 하버드대학과 매사추세츠공대(MIT)에서 수학박사와 박사후과정을 이수한 후 젊은 나이에 수학 연구로 유명한 버나드 칼리지 종신교수가 된다. 그러나 2007년 수학을 현실 세계에 활용한다는 매력에 이끌려 교수직을 버리고 세계적인 헤지펀드 업체 디이 쇼(D.E Shaw)에서 선물거래팀을 이끈다. 저자는 그곳에서 2000년대 후반 글로벌 금융시장의 호황과 추락을 온몸으로 겪게 되는데, 특히 부동산거품을 불러온 서브프라임모기지, 신용부도스와프(CDS), 합성부채담보부증권(CDO) 등 수학과 금융 기술, 인간의 욕망이 결탁해 탄생한 금융 상품들이 어떻게 대다수 선량한 시민들의 삶을 파괴하는지 뼈저리게 깨닫게 된다. 이후 그녀는 IT업계로 자리를 옮겨 데이터과학자가 되는데 WMD가 ‘빅데이터’와 ‘인공지능’이란 이름으로 금융업계를 넘어 사회의 곳곳으로 도입되는 것을 목격하게 된다. 예를 들어, 상점이나 카페의 종업원이 밤늦게까지 일하다가 매장문을 닫고 퇴근한 다음, 불과 몇 시간 후 새벽 동도 트기 전에 다시 출근해서 매장 문을 여는 노동방식을 뜻하는 클로프닝(clopening)은 대표적인 WMD다. 기업들은 고객들의 이동정보, 날씨, 주요사건, 구매정보 등 다양한 데이터를 분석해 유연하게 노동자의 근무시간을 짜고 있다. 이는 기업 입장에서는 물류(logistics)적으로 올바른 선택이지만, 불규칙한 근무 일정에 내몰린 노동자들은 일하는 것 외에는 어떤 것도 계획을 세울 수 없게 되었다. 클로프닝은 주로 저임금 단순업무에 이용되는데 이 때문에 저소득층일수록 불규칙한 생활환경에 내몰리고 더 나은 일자리를 위한 교육과 훈련을 받을 수 없어 빈곤의 악순환을 가져오고 있다. “알고리즘은 미래를 예언하지 못한다. 대신 미래를 만들어 낸다” 대량살상수학무기는 어떻게 불평등을 확산하고 민주주의를 위협하는가 《대량살상수학무기》는 불평등을 확산하고, 민주주의를 위협하는 WMD의 특징을 상세한 사례와 분석을 통해 파헤친다. WMD의 특징은 3가지로 요약된다. 첫째 불투명성이다. 2007년 워싱턴 DC 시장으로 취임한 에이드리언 펜티는 관내 학생들의 낮은 학업 성취도가 무능한 교사들 때문이라고 결론 내리고 새로운 교사 평가 시스템을 도입한다. ‘임팩트’라는 이 교사 평가 시스템은 ‘매스매티카’란 업체가 계발한 알고리즘 기반 모형이다. 임팩트는 전학, 가정불화, 왕따 등 학업 성취도에 영향을 주는 여러 변수는 모두 제외하고 순전히 학생들의 시험 점수만을 가지고 교사들을 평가했다. 하지만 정책 당국은 상세한 평가 기준 등은 공개하지 않았다. 누군가 알고리즘을 들여다본다 하더라도 코드화된 알고리즘에 숨겨진 평가기준은 개발자를 제외하고는 그 누구도 이해하기 힘들었다. 워싱턴 교육청의 임팩트를 포함해 이 책에서 소개할 WMD 중 상당수가 적절한 피드백을 받지 못하고 있다. 오히려 이들 모형은 스스로 현실을 정의하고, 그 결과를 정당화하기 위해 왜곡된 현실을 이용한다. (중략) 매스매티카의 평가 시스템이 와이사키와 205명의 교사들에게 실패자라는 꼬리표를 붙이자 워싱턴 교육 당국은 그들을 모두 해고했다. 그런데 이 평가 시스템에는 이 같은 결정이 옳은지에 대해 사후에 학습하는 과정이 있을까? 없다. 시스템이 교사들을 실패자라고 확신하면, 평가는 그것으로 끝이다. (서론 중에서) 임팩트가 도입된 2년 동안 206명의 교사가 어떤 설명도 없이 평가 점수가 낮다는 이유로 교단에서 퇴출당했다. 그중에는 사라 와이사키처럼 동료 교사와 학부모들에게 절대적인 지지를 받는 헌신적인 교사도 포함되었다. 어떻게 이런 일이 벌어진 것일까? 교사 평가 점수가 낮은 교사는 퇴출당한다는 조건 때문에 교사들은 학생들에게 교육자적인 관심을 쏟기보다는 시험 준비에 열을 올렸다. 심지어 41개 학교에서는 불이익을 우려해 시험 후에 시험답안을 수정하기도 했다. 일부 학교에선 전체 학급의 무려 70%가 이런 부정행위에 가담했다. WMD의 불투명성은 우리에게 공정한 경쟁, 다양성보다는 획일성과 침묵을 강요한다. 둘째, 확장성. 빅데이터 모형은 수천 장에 이르는 각기 다른 사연이 담긴 이력서나 대출 신청서 중에서 가장 유망한 후보자의 이름이 맨 위에 올라가도록 1~2초 안에 깔끔한 목록으로 정리할 수 있다. 이런 프로그램은 기업에는 수익을, 사회에는 효율을, 개인에게는 공정성을 약속했다. 그러나 WMD가 기업에게는 효율과 수익을 약속하지만 개개인에게는 공정성보다는