인공지능의 편향과 챗봇의 일탈

김정룡님 외 8명
272p
구매 가능한 곳
content
평가하기
2.5
평균 별점
(2명)
코멘트
더보기

2021년 초, 챗봇 ‘이루다’의 짧은 활동 과정에서 벌어진 상황은 우리사회에 적지 않은 파장을 일으켰다. ‘이루다’는 이용자들에게서 성 노리개 취급을 받는가 하면, 그 스스로 소수자에 대한 혐오 발언을 내뱉는 등 논란의 중심이 되었다. 마이크로소프트사의 챗봇 ‘테이(Tay)’가 이미 비슷한 문제로 퇴출된 지 거의 5년이나 지난 시점에서 사실상 같은 문제가 다시 일어난 것이다. 인공지능은 무엇 때문에 반복적으로 논란의 중심에 서게 되는가? 인공지능에 대한 윤리 가이드라인이 각국에서 쏟아져 나오고 있지만, 현장의 개발자들에게 실질적인 효력이 있으리라 장담할 수 없는 상황이다. 올바른 윤리적 규제의 기준 혹은 이정표가 되어야 할 윤리 가이드라인은 오히려 지금까지 ‘윤리적 세탁’의 도구로 악용되어 왔다. 인공지능 기술을 개발하는 과정에서 우리가 진정 고민해야 할 지점이 어디쯤인지 논점을 던지고자 한다. 이 모든 쟁점은 인공지능을 개발하는 과정에서 문제를 일으키는 원인은 무엇인지 혹은 개발자들에게 주어지는 한계는 무엇인지, 인공지능과 챗봇이 사회와 상호작용하는 방법은 무엇인지 등 다각적인 측면을 돌아봐야 한다는 핵심적인 문제의식 던져준다.

저자/역자

목차

들어가며 1부 인공지능의 편향 1장 인공지능의 공정성과 데이터의 편향성 –김정룡·정원섭 2장 인공지능으로 인한 불투명의 문제를 다루는 제도적 방안 -김건우 3장 인공지능의 편향과 계몽의 역설에 대한 반성적 접근 -정성훈 2부 챗봇의 일탈 1장 스캐터랩 ‘연애의 과학’과 ‘일상대화 인공지능’ 사이의 관계를 인공지능 연구개발 커뮤니티에 어떻게 설명해 왔는가? -오요한 2장 ‘연애의 과학’이라는 주술과 챗봇 ‘이루다’라는 전략 게임 -정성훈 3장 자연어이해와 대화형 챗봇 엔진의 구현 기술 –강승식 4장 인간다운 인공지능 챗봇의 지향에 대한 경계: 우리는 어떤 챗봇을 기대하는가? -장윤정 5장 챗봇 ‘이루다’가 남겨야 하는 것 –윤미선 6장 챗봇의 사회적 능력: 이루다·샤오빙·린나 -양일모 7장 ‘이루다’의 후속 이슈들: 새인정보보호위원회의 행정처분, 스캐터랩의 정중동 행보, 대화형 인공지능 연구성과, ‘연애의 과학’ 일본어 사용자들의 데이터, 쇠소한의 비식별화 조치, 그리고 자본의 문제 -오요한

출판사 제공 책 소개

인공지능의 발전이 늘 옳기만 할까 ‘옮긴이의 말’에서부터 소개하는 대로, 챗봇은 그 출시와 함께 많은 관심을 받았고 동시에 많은 이로부터 비판의 목소리로 가득한 소요들을 일으키며 논란의 중심에 서 왔다. 챗봇의 운영 기반이 되는 인공지능이 특히나 우리나라에서 강한 파급력을 지녔던 것은 이세돌을 꺾었던 알파고의 파급력 때문이라고 해도 과언이 아니다. ‘인간을 이긴 인공지능’이라는 수식어로 인해 인공지능은 가장 올바르고 공정한 판단을 할 것이라는 기대감은 커져만 갔지만, 실상은 그것과 달리 다양한 문제들을 일으키는 ‘말썽쟁이’로서의 면모 또한 ‘착실히’(?) 쌓아 가고 있다. 문제는 인공지능이 빅데이터에 기반하고 있다는 사실이다. 인공지능의 능력을 바둑의 영역에 한정한다면 기보의 누적에 의해 이루어지는 딥러닝 방식으로 인하여 확실히 좋은 결과를 이룰 수 있다. 그러나 우리의 언어는 ‘지금 여기’라는 특정한 사회 문화적 맥락에서 진행된다. 테이 사건은 데이터의 축적만으로는 해결될 수 없는 문제가 엄연히 존재한다는 점을 상징적으로 보여 준다. 다시 말해, 인공지능이 늘 사회적으로도 좋은 결과를 가져오지만은 않는다는 것이다. 인공지능의 발전이 모든 방향에서 늘 옳다고만 할 수는 없다. 다가오는 인공지능에 대해 무작정 환영하기 보다는 어떠한 태도로 인공지능을 바라보고 감시하며 받아들여야 할지에 대해 경각심을 일깨운다. 사실 인공지능에게 조금의 공정성을 기대한다면, 이 기술을 바라보고 개발하는 인간이 먼저 공정해야 하지 않을까. 인공지능 챗봇의 오늘, 우리의 내일을 묻는다. 이 책은 고도로 발전한 인공지능의 친근한 사례로 챗봇 ‘이루다’를 소개한다. 이루다는 순식간에 많은 사람들의 이목을 끈 동시에 논란을 일으키며 자신의 무대에서 퇴출당했다. 이렇게 순식간에 성장했다고 급작스럽게 몰락한 원인은 이루다 자체가 윤리적인 기준을 가지지 못했다는 것이고 따라서 그 스스로 혐오에도, 성희롱에도 아무런 저항이나 반대를 할 능력을 갖지 못했기 때문이다. 무엇에도 저항하지 않은 이루다에게는 잘 받아주는 것이 자신만의 기준인 것처럼 행동한다. 책의 1부에서 지적하는 인공지능의 ‘편향성’ 문제로부터 기인한 것임을 어렵지 않게 파악할 수 있다. 인공지능 기술이 발전하는 만큼 챗봇과 개발사의 윤리적 기준과 능력이 발달하는 방법은 무엇일까. 지속적으로 터져나오는 문제들을 규제하거나 보완하는 방법은 없을까. 책의 1부 인공지능의 편향성 문제에 대한 직접적인 문제들을 다루는 챗봇의 문제는 보다 구체적으로 오늘 우리의 윤리적인 문제들을 묻게 한다. 성숙하지 못한 챗봇이 성숙하지 못한 사회의 윤리적 기준을 완곡하게 보여 준다고 할 수 있다. 이 책을 통해 우리가 반성할 수 있는 바는 명확해 보인다. 인공지능 자체의 문제를 지탄할 것인가 아니면 인공지능의 개발을 담당하고 그 기술을 활용하는, 더 나아가 우리의 삶의 중요한 일부로 자리를 잡아 갈 새로운 기술을 받아들이는 오늘의 우리 스스로의 책임과 윤리를 돌아볼 것인가. 독일의 철학자 마르틴 하이데거는 올바른 질문이 올바른 정답을 이끈다고 말했다. 새로운 시대에 앞서 인공지능의 오늘은 올바른 질문을 던지길 촉구한다. 그리고 이 책을 통해 많은 사람이 우리가 가져야 할 책임과 윤리에 관한 올바른 질문을 던져 보는 계기가 되길 기대한다.

본 사이트의 모든 콘텐츠는 왓챠피디아의 자산이며, 사전 동의 없이 복제, 전재, 재배포, 인용, 크롤링, AI학습, 데이터 수집 등에 사용하는 것을 금지합니다.

  • 데이터 출처
  • 서비스 이용약관
  • 개인정보 처리방침
  • 회사 안내
  • © 2025 by WATCHA, Inc. All rights reserved.