★ 『넛지』 『노이즈』 공저자 캐스 선스타인이 30년 가까이 연구한 행동경제학과 의사결정론의 정수
★ “결정의 부담, 환경 보호와 언론의 자유 이슈까지 두루 탐구하는 모험적인 항해!”
★ 인공지능 고도화, 정치 양극화, 정보 과부하 시대의 신중한 리더를 위한 선택과 결정 전략
“(인공지능) 알고리즘이 인간 판사보다 더 공정하고 현명한가?”라는 오늘날 중차대한 질문에 하버드 법학대학원 교수 캐스 선스타인은 이렇게 답한다. “그렇다. 벗어나고 싶지만 우리를 지배하는 인지 편향의 폐해를 알고리즘으로 극복할 수 있다.”
점심 식사 메뉴를 정하는 일부터 정치적 결단까지 『결정력 수업』은 우리가 일상에서 내리는 크고 작은 결정이란 무엇이며, 어떤 결정법이 합리적이고, 사람들이 어떠한 함정과 모순에 빠지는지를 두루 살피는 책이다. 삶이 180도 바뀔지도 모를 중대한 기로에 섰을 때 옳은 방향으로 나아가려면 무엇을 물어야 하는가? 아는 것이 힘인가, 모르는 것이 약인가? 정치적 신념은 왜 이토록 극단으로 치닫는가? 그리고 가장 시급한 현안으로 ‘인간은 알고리즘을 따라야 하는가?’라는 다양한 질문을 깊고 넓게 탐구한다.
신중한 사람은 함부로 결정하지 않는다. 리더는 ‘어떻게 결정할지를 결정’하는 사람이다. 이 책은 그 자리에서 성급히 판단하기보다는 두 단계로 나누어 접근하는 이차적 결정(결정에 관한 결정) 전략을 소개한다. 기업은 ‘규칙’을 세워 사원들을 관리한다. 정보가 부족하다면 의사나 변호사 같은 전문가에게 판단을 ‘위임’한다. 때로는 ‘직감(휴리스틱)’에 의존하기도 한다. 과연 언제 어떤 전략이 가장 바람직한가? 우리는 이 책을 읽고 결정의 부담과 책임감, 평등, 공정성 등 중요한 차원들을 다채롭게 살피며 각자의 상황에 맞는 답을 발견할 수 있다.
책에서는 몇 가지 흥미로운 행동과학 연구가 소개된다. 한 연구에 따르면, 인간 판사는 피고인의 머그숏(얼굴 사진)이 지저분하기보다 깔끔할 때 더 많이 석방했다. 이러한 ‘머그숏 편향’은 알고리즘이 인간보다 나은 한 가지 이유가 된다. 기후변화에 대한 믿음을 설문조사한 연구에서는 사람들이 자신의 기존 신념과 일치하는 정보에 더욱 기우는 ‘편향 동화’를 보였으며, 여기서는 정치적 신념이 양극화되는 양상을 자세히 유추해볼 수 있다.
“자유주의가 큰 압박을 받는 시대에 살고 있다.” 저자는 마지막으로 선택의 다양성과 결정의 자율성을 예찬하며 글을 마친다. 고성능의 인공지능이 실제와 구분되지 않는 생성물을 쏟아내고, 이념이 첨예하게 대립하는 와중에 넘치는 가짜뉴스와 악의적인 선전·마케팅이 우리의 판단을 왜곡하고 결정을 조종하려 하는 시대다. 경제학부터 심리학, 법과 공공정책, 철학까지 통찰하는 이 책으로 흔들리지 않는 ‘결정력’을 길러보자.
넘치는 정보가 눈앞을 흐리고 사악한 마케팅이 생각을 조종하려 할 때
합리적으로 판단하는 단단한 내면의 힘 ‘결정력’을 기르는 행동경제학 수업
일반 사람들로부터 선거 자금 600억 원을 단숨에 거둔 도널드 트럼프의 ‘돈 폭탄(the money bomb)’ 전략이란? 2020년 3월 트럼프 캠페인에 기부한 사람들은 온라인상에서 작은 글씨가 빼곡하게 채워진 양식을 받았다. ‘매월 정기 기부’라는 칸에는 미리 체크 표시가 되어 있었다. 더 나아가 9월에는 사전 체크된 ‘매월 정기 기부’ 문구가 ‘매주 정기 기부’로 바뀌었으며, 전보다 눈에 띄지 않게 다른 문구들 아래로 옮겨졌다. 컬럼비아 경영대학원 연구진은 ‘다크 디폴트(dark defaults)’라고 불리는 이 전략으로 트럼프의 수입이 4200만 달러 증가했다고 밝혔다.
사실을 곡해하는 가짜뉴스가 쏟아지고, 부정선거가 치러졌다거나 간첩이 산불을 냈다는 음모론이 퍼지는 탈진실의 시대다. 그 와중에 벌어지는 교묘한 선전과 선동은 돈·시간·노력을 쉽게 갈취한다. 더욱이 발전된 인공지능이 감쪽같은 허위 정보를 마구 만들어내며 ‘우리가 무엇을 알고, 무엇을 사며, 무엇을 믿느냐’ 하는 선택을, 지식과 소비와 신념의 밑바탕을 뒤흔들고 있다. 이런 상황에서 확실히 결정하지 못하고 고민만 쌓거나, 반대로 성급히 결정했다가 후회하는 사람들을 위한 책이 나왔다. 하버드 법학자이자 ‘넛지’로 유명한 행동경제학자 캐스 선스타인의 『결정력 수업』이다.
이 책은 정확한 정보가 부족하거나 부담이 크다는 등의 이유로 평범한 의사결정 상황에 발을 들이고 싶지 않은 사람들을 위한 ‘이차적 결정(second-order decisions)’ 전략을 가르쳐준다. 몇 가지 ‘표준’을 세우거나, 큰 결정을 ‘작은 단계들’로 나눠 점진적으로 내리거나, 무작위 ‘뽑기’로 정하는 등 어떤 상황에서 무슨 방법이 가장 합리적일까? 이 책의 핵심이자 차별점은 단순히 경제학의 비용편익분석으로 접근하지 않는 것이다. 결정에는 나 말고도 여러 사람이 얽히며, 우리는 때때로 인지 편향에 빠지고, 또한 감정을 소중히 여기는 존재다. 저자는 이 모두를 놓치지 않고 세세하게 고려하여 가장 바람직한 결정법을 모색한다.
“중요한 모든 측면에서 알고리즘이 진짜 판사보다 더욱 나은 판단을 한다”
인공지능 알고리즘을 얼마나 신뢰할 수 있는가 하는 시급한 현안에 대한 답
코넬대학교 컴퓨터과학자 존 클라인버그는 알고리즘과 인간 판사의 판단력을 비교하는 연구를 진행했다. 형사 사건에서 피고인을 구속할지 석방할지 결정하는 중요한 문제를 알고리즘은 얼마나 잘 풀어낼까? 가장 바람직한 방향은 구금률을 낮추는 동시에 범죄율도 낮추는 것이다. 연구진은 판사에게 주어지는 피고인의 과거 범죄 기록과 현재의 위법 행위 데이터를 입력한 알고리즘을 만들었다.
놀랍게도 알고리즘은 구금률을 인간 판사와 동일하게 유지할 때 범죄율을 24.7퍼센트까지 낮출 수 있었다. 알고리즘을 활용하면 단 한 명의 추가 수감자 없이도 수천 건의 범죄를 예방할 수 있다는 뜻이다. 한편 인간 판사는 중대한 실수를 저질렀는데, 알고리즘이 가장 위험한 상위 1퍼센트에 속한다고 판단한 피고인 중 48.5퍼센트를 풀어주었다. 이들이 재구속될 가능성은 62.7퍼센트였다. 즉, 판사는 범죄를 저지를 가능성이 충분한 사람들에게 관대한 처분을 내린 것이다.
이 책은 ‘알고리즘에 의한 결정’이라는 오늘날 시급한 현안을 다룬다. 알고리즘으로 결정하는 게 나은가? 그렇다면 언제 그래야 하는가? 알고리즘은 편향되었을까? 그럼 어떻게 편향되었을까? 저자는 과감하게 주장을 펼치며 알고리즘에 의한 결정을 크게 지지한다. 하지만 동시에 사람들에게 퍼진 알고리즘 혐오(반감)와 알고리즘이 할 수 없는 일(혁명을 예측할 수 있을까?)까지 폭넓게 조명하며, 가장 중요한 전제를 놓지 않는다. 결국 결정은 우리가 스스로 내리는 것이자 내려야 하는 것이라는, 자유로운 인간의 ‘주체성’이다.
“사람들은 자신이 믿고 싶은 것을 믿는다”
기후변화에 대한 믿음을 조사하여 밝힌 정치 양극화의 메커니즘과 해결책
2024년 지구 평균기온이 산업화 이전 대비 섭씨 1.5도 오르며 기후위기의 마지노선이 처음으로 뚫렸다. 심각한 불안과 기후 우울증을 겪는 사람부터 불공정한 음모라며 부정하는 사람까지 반응은 제각각이다. 저자는 이와 관련하여 사람들이 신념을 어떻게 결정하는지, 새로운 정보를 접한 후 신념을 어떻게 갱신하는지 연구하기 위해 미국인 302명을 온라인으로 설문조사했다.
우선 참가자들의 성향을 조사해 기후변화에 대한 신념이 높은 사람(기후변화가 심각하다고 생각하는 사람)과 낮은 사람(그리 심각하진 않다는 사람)을 파악하고, 2100년에 미국 평균기온이 얼마나 오를지 추정치를 물었다. 이어서 평균기온 상승 정도가 기존 예측보다 덜하다는 좋은 소식과 상승 정도가 기존 예측보다 심하다는 나쁜 소식을 참가자마다 다르게 전하고 다시 추정치를 물었다. 그 결과 신념이 높은 사람은 나쁜 소식을, 신념이 낮은 사람은 좋은 소식을 듣고 추정치를 더욱 조정했다. 즉, 기존 신념을 강화하는 쪽에 더 크게 반응했다.
저자