구글은 어떻게 여성을 차별하는가

사피야 우모자 노블 · Social Science
344p
Where to buy
Rating Graph
Avg3.3(24)
Rate
3.3
Average Rating
(24)
저자 사피야 노블 교수는 구글의 검색 결과에서 여성, 소녀에 대한 성차별적이고 포르노그래피화된 정보가 가장 ‘인기 있는’ 자료로 표출되는 것을 지켜보며 구글이 사용하는 검색 알고리즘에 심각한 문제가 있음을 인지한다. 객관적이고 중립적인 도구라고 일컬어지는 디지털 알고리즘이 오히려 차별과 혐오를 조장하고 확대하는 현장을 포착한 것이다. 저자는 여성 차별뿐 아니라 유색인, 유대인 등을 대상으로 한 적나라한 인종차별적 가치관이 알고리즘에 삽입되어 인터넷 플랫폼을 통해 유통되고 있음을 고발한다.

<울트라 코리아> 10주년 기념 이벤트

파라다이스시티 인천에서 만나보는 전세계 최정상 라인업

울트라 뮤직 페스티벌 · AD

Rating Graph
Avg3.3(24)

<울트라 코리아> 10주년 기념 이벤트

파라다이스시티 인천에서 만나보는 전세계 최정상 라인업

울트라 뮤직 페스티벌 · AD

Author/Translator

Comment

3

Table of Contents

[한국어판 서문] 디지털 기술로 기록된 정보의 미래가 궁금한 독자들에게 [서문] 알고리즘의 권력 CHAPTER 1 검색의 시대 구글에 검색해보라: 인종차별과 성차별은 첫 페이지부터 나타난다 | 검색의 이론화: 흑인 페미니스트 프로젝트 | 이론적·방법론적 접근법으로서의 흑인 페미니즘 | 구글이 중요한 이유 | 권력으로서의 검색 기능 | 특정 검색어와 페이지랭크 최상단 자리를 돈 주고 사는 사람들 | 검색 엔진이 공공재를 점유하다 | 알고리즘의 문화 권력 | 검색 결과가 우리의 이미지와 정체성을 잃게 한다 | 구글의 정보 검열과 편향성 | 컴퓨터 정보 기술만 발전시킨 실리콘밸리의 현실 | 사이버토피아를 꿈꾸다 CHAPTER 2 흑인 소녀를 검색하다 누구의 잘못인가? | 검색 엔진에서 ‘흑인 소녀’에 대한 포르노그래피화는 어떻게 이뤄지는가 | 신자유주의 시장에서의 흑인 정체성 | 상품 오브제가 된 흑인 소녀 | 인종 정체성의 역사적 분류: 오래된 전통은 결코 사라지지 않는다 | 포르노그래피의 표현 방식 읽기 | 흑인 여성과 소녀의 정보를 합법적으로 제공하다 | 우리는 의미를 추구한다 CHAPTER 3 특정인과 단체를 바라보는 검색 엔진의 시선 CHAPTER 4 검색 엔진으로부터 피난처를 찾다 잊힐 권리와 삭제될 권리 CHAPTER 5 공적 지식의 미래 불법 체류자는 어떻게 기록되는가 | 사람을 분류하는 문제 | 왜곡된 인간 분류의 간략한 역사 | 인터넷에 그대로 옮겨간 현실 | 인간 지식이 모이는 우주 | 웹에서 문화적으로 적절한 정보 찾기 | 우리에게 필요한 검색 엔진의 모습 CHAPTER 6 정보 문화의 미래 정보의 독점 | 공공 정책이 중요한 이유 | 기회의 원천으로서의 웹 | 사회불평등은 어플리케이션으로 해결될 수 없다 CHAPTER 7 우리의 미래 억압의 알고리즘 | 윤리적인 알고리즘의 미래를 향해 | 알고리즘과 비가시성: 캔디스와의 인터뷰 | 대안을 생각하다: 공공 비영리 검색 시스템을 향해 | 흑인 소녀들은 지금 어디에 있는가? [후기] 모두를 위한 정보 민주주의 감사의 말 미주 참고문헌

Description

“당신의 검색 결과는 안녕하십니까?” 보이지 않게 차별.혐오.불평등을 생성하고 유통하는 알고리즘의 숨은 속성을 들여다보다 이 책의 저자 사피야 노블 교수는 구글의 검색 결과에서 여성, 소녀에 대한 성차별적이고 포르노그래피화된 정보가 가장 ‘인기 있는’ 자료로 표출되는 것을 지켜보며 구글이 사용하는 검색 알고리즘에 심각한 문제가 있음을 인지한다. 객관적이고 중립적인 도구라고 일컬어지는 디지털 알고리즘이 오히려 차별과 혐오를 조장하고 확대하는 현장을 포착한 것이다. 저자는 여성 차별뿐 아니라 유색인, 유대인 등을 대상으로 한 적나라한 인종차별적 가치관이 알고리즘에 삽입되어 인터넷 플랫폼을 통해 유통되고 있음을 고발한다. 또한 최근 인터넷과 SNS상에서 무분별하게 번지는 가짜 뉴스와 왜곡된 정보가 정치권은 물론 우리 삶에 직간접적인 영향력을 끼치는 위험 요소가 되었음을 지적한다. 정제되지 않은 정보들이 대형 정보 플랫폼들을 거치면서 마치 ‘믿을 만한’ ‘다른 사람들을 대표하는’ 정보로 탈바꿈되고 사람들의 인식을 뒤바꾸는 기준이 된다. 이렇게 특정 인종과 특정 성별, 특정 단체에 대한 혐오와 차별은 인터넷상에서 매우 손쉽게 이뤄진다. 저자는 별다른 규제 없이 무소부재의 권력을 누리며 사회의 중요한 의사 결정 시스템을 담당하는 거대 정보 기업들의 역할과 책임을 강도 높게 비판하고 있다. 또한 저자는 검색 순위 자체가 사회의 정치적, 사회적, 문화적 가치를 반영하는 중요한 정보라고 강조하며, 우리 시대의 지식이 어떻게 구조화되고 체계화되는지 지켜봐야 한다고 주장한다. 더불어 구글과 같은 독점적 정보기업들이 어떻게 개인과 단체의 정보를 보관 및 기록하고 있는지 비판적인 자세로 감시해야 하며, 윤리적이지 않은 인공지능이 초래할 문제로부터 우리를 보호할 공공 정책을 마련해야 한다고 주장한다. “여성 혐오, 인종차별적 정보는 어째서 늘 상위권일까?” 구글 검색 결과에 나타나는 왜곡된 여성상 편향된 정보를 확산시키는 검색 알고리즘을 추적하다 ‘구글의 검색 결과는 어떠한 과정을 거쳐 나오는가? 그 결과는 최선인가?’ 사피야 노블 교수가 이와 같은 질문을 품게 된 것은, 어느 날 ‘흑인 소녀(black girls)’를 검색하다 매우 당황스러운 일을 겪은 후부터다. 딸과 사촌 여자아이들이 좋아할 만한 놀잇감을 찾기 위해 컴퓨터 앞에 앉은 노블 교수는 자신의 예상과 다르게 외설적인 포르노그라피로 가득 찬 검색 결과 화면을 마주하였다. ‘흑인 소녀’에 대한 구글의 첫 번째 검색 결과는 ‘달콤한 흑인 여성 성기닷컴(sugaryblackpussy.com)’이라는 성인 사이트였고, 흑인 여성들을 왜곡된 성적 대상으로 표현한 낯부끄러운 게시물들이 줄이어 노출됐다. 어떻게 ‘죽이는(hot)’이나 ‘달콤한(sugary)’, ‘흑인 소녀의 성기(black pussy)’ 같은 단어들이 흑인 소녀나 흑인 여성에 대한 첫 번째 검색 결과로 나타날 수 있을까? 어떻게 ‘포르노’라는 단어를 함께 검색하지 않았는데 이러한 정보들이 이를 원하지 않은 이용자들에게도 일방적으로 제공될 수 있을까? 그날의 충격적이고 모욕적인 경험은 노블 교수의 디지털 미디어 연구에 큰 지향점을 던져준다. 《구글은 어떻게 여성을 차별하는가》는 구글로 대표되는 검색 엔진과 인터넷 정보 플랫폼들의 검색 엔진 운영 시스템과 사회적 영향력에 대해 비판적으로 분석한 노블 교수의 연구 결과물이다. 일상에서 벌어지는 구글의 사생활 감시와 정보 검열 검색 알고리즘의 막강한 권력에 주목하라 오늘날 현대인들에게 검색 엔진은 필수불가별한 존재다. 우리는 정보와 지식을 얻기 위해 도서관이나 학교, 지식인을 찾는 대신 습관적으로 인터넷을 이용한다. 그중 구글은 검색 엔진 시장 가운데 66.2%의 점유율을 보이고 있다. 리서치 결과에 따르면 검색 엔진을 사용하는 미국인 가운데 83%가 구글을 이용한다. 노블 교수는 특히 구글이 기존의 정보통신 회사들과 달리 개인 이메일 계정을 제공해주는 것은 물론, 미국 전역의 지방자치단체의 와이파이 네트워크와 광대역 통신망 프로젝트를 추진하고 있음을 지적한다. 관련 시장의 정책에 대한 규제가 미비한 상황에서도 구글은 독보적 지위를 점유하며 데이터를 수집하고 유포하는 전대미문의 역할을 하고 있다. 개인의 사생활과 관련된 민감한 정보들을 대단위로 수집하는 구글과 페이스북의 운영 형태는 이전에도 수차례 문제점으로 지적된 바 있다. 그중 노블 교수가 주목한 것은 그러한 정보 독점 기업들의 검색 알고리즘이다. 수학 기호들로 이뤄진 컴퓨터 알고리즘과 딥러닝, 인공지능은 언뜻 인간의 사적 감정이 개입되지 않아 객관적이고 중립적인 결과를 도출하는 것처럼 보이지만 이는 사실이 아니라고 노블 교수는 지적한다. 정보 기업들이 보이지 않은 밀실 안에서 수집한 정보들을 분류하고 순위 매기며, 필터 버블(인터넷 이용자가 특정 정보를 편식하게 되는 현상)을 강화한다는 것이다. 우리는 검색 알고리즘이 대중의 선호도를 파악하여 가장 인기 있는 게시물부터 상위에 노출한다고 생각한다. 그것이 ‘대중적’이며 ‘객관적’이라고 여기며 말이다. 하지만 알다시피 구글은 개인이 운영하는 영리 기업으로, 구글이 노출하는 모든 정보에는 사적 이해관계가 얽혀 있다. 웹 페이지에서 가장 높은 자리를 차지할 수 있는 이해관계자는 역시나 가장 많은 광고비를 지불한 광고주다. 인터넷상에서 ‘광고’와 ‘정보’는 혼재된 채로 이용자들에게 제공되며, 이용자들은 이 둘을 엄밀히 구분하기가 어렵다. 정보 독점 기업들의 이러한 행태가 지속될 경우 우려되는 것은 정보의 심각한 왜곡이다. 차별, 혐오, 불평등을 더욱 구조화하는 디지털 정보 기술 여성, 유색인종, 이주민 등 사회적 약자가 타깃이다 노블 교수는 흑인 여성뿐 아니라, 아시아 여성을 비롯한 유색 인종, 유대인 등에 대한 검색 결과가 이해할 수 없을 정도로 편향적인 것을 여러 사례로 보여주며 인터넷 정보 플랫폼들이 왜곡되고 그릇된 정보를 확산시키고 있음을 강하게 비판한다. 특히 구글과 같은 정보 독점 기업들의 영향력이 커져갈수록 차별과 편견은 더욱 구조화되며 내면화된다. 특정 엘리트 그룹의 가치관이 디지털 테크놀로지 기술에 녹아들어 보이지 않게 여론을 장악하는 것이다. 노블 교수는 “30년간 신자유주의적인 기술지상주의에 힘입어 성차별과 인종차별은 더욱 확산됐으며, 인식하기 어려울 정도로 차별과 차별이 일상 속에 파고들었다”고 주장한다. 실제로 디지털 기술 발전의 편리성과 혁신은 모든 계층에게 고루 돌아가지 않았다. 오히려 불평등을 심화시키는 도구가 되었을 뿐이다. 노블 교수는 2016년 경찰에게 살해당한 흑인 남성인 키이스 레몬트 스코트 사건을 <LA 타임스>의 뉴스 자동생성기가 다분히 인종차별적인 내용으로 편집하여 트위터에 배포한 것을 한 예로 든다. 또한 누군가가 저소득층 밀집 지역에 거주하는 흑인이거나 라틴계라면 높은 수준의 대출 금리와 할증료를 요구받을 가능성이 높다고 지적한다. 신자유주의가 도래한 이후 우리는 디지털 정보마저 사회적인 억압과 인종 프로파일링을 조장하는 시대를 살고 있는 것이다. 노블 교수는 “알고리즘 기반의 의사 결정 시스템은 장차 사회적 불평등을 더욱 확산시키고 그것을 은폐하려 할 것”이라며, “여성, 유색인종, 이주민 등 사회적 약자들을 더욱 조직적으로 소외시키는 디지털 레드라이닝이 강화되어갈 것”이라고 강조한다. 즉, 정보 영역의 독점은 민주주의의 심각한 위협 요인이 될 수 있다. 노블 교수는 알고리즘과 인공지능이 발전해갈수록 ‘인권’이 더욱 심도 깊게 논의되어야 함을 강조한다. 정보 독점 기업들의 검색 순위와 뉴스는 과연 객관적인가? 디지털 언어로 기록될 공공 정보의 미래 노블 교수는 구글뿐 아니라 트위터의 인종차별, 애플스토어의 인종 프로파일링, 스냅챗의 인종

Collections

7