챗GPT에게 묻는 인류의 미래

김대식 and other
348p
Where to buy
Rating Graph
Avg2.6(31)
Rate
2.6
Average Rating
(31)
2022년 말, 출시와 동시에 전 세계를 충격과 혼란에 빠뜨린 챗GPT에게 KAIST 교수이자 뇌과학자인 김대식이 도전장을 내밀었다. 인공지능, 메타버스 등 가장 첨단의 이슈에 항상 귀를 기울여오고 있었던 저자가 이번에 챗GPT에게 눈을 돌린 것은 결코 놀랄 일이 아니다. 그러나 그가 챗GPT와 나눈 열두 개의 대화는 그야말로 놀라움 그 자체다. 1장에서 챗GPT가 자기 입으로 자신의 작동원리를 설명해주는 것을 시작으로, 사랑이나 정의, 죽음, 신 등 사람도 쉽게 이야기하기 어려운 형이상학적인 주제들에 대하여 온갖 자료를 바탕으로 한 폭넓은 논의를 이어나간다. 하지만 그보다 놀라운 것은 엄격한 윤리 기준하에서 두루뭉술하고 애매하게 얘기하도록 제한이 걸려 있는 것으로 보이는 챗GPT를 상대로 이야기를 끌어내는 저자의 기술이다. 프롤로그에서 에필로그까지, 책의 모든 콘텐츠를 챗GPT와 함께 만들어나가면서 저자는 계속해서 질문을 던지고, 부족한 부분을 찌르면서 이야기를 촉발시킨다. 흔히 사람 사이의 커뮤니케이션에는 ‘대화의 기술’이 필요하다고 하지만, 생성인공지능의 시대에 경쟁력을 확보하기 위해서 그보다 중요한 것은 ‘AI와 대화하는 기술’이라는 점을 직관적으로 보여준다. 이 책은 ‘인간 VS 기계’의 도식을 넘어, 어떻게 기계를 잘 활용하여 인간 지성의 지평을 넓혀나갈지를 선구적으로 보여주는 모범 사례다.

<울트라 코리아> 10주년 기념 이벤트

파라다이스시티 인천에서 만나보는 전세계 최정상 라인업

울트라 뮤직 페스티벌 · AD

Rating Graph
Avg2.6(31)

<울트라 코리아> 10주년 기념 이벤트

파라다이스시티 인천에서 만나보는 전세계 최정상 라인업

울트라 뮤직 페스티벌 · AD

Author/Translator

Comment

8

Table of Contents

프롤로그 1. 만남 2. 사랑에 관하여 3. 정의란 무엇인가 4. 우리가 행복한 이유 5. 전 지구적 위험 6. 챗, 이야기를 들려줘! 7. 메타버스와 시뮬레이션 8. 신은 존재하는가 9. 죽음에 관하여 10. 인류의 미래 11. 인간에게 물어봐 에필로그. 챗GPT가 전하는 편지 에필로그Ⅱ. 기계와의 대화를 마무리하며

Description

챗GPT, 생성인공지능은 인간을 대체하게 될까? ‘인간 VS 기계’의 도식을 넘어 인간과 기계가 함께 성취할 미래의 가능성을 엿보다! KAIST 교수 김대식이 챗GPT와 나눈 대화와 통찰 “챗GPT의 등장은 인터넷의 발명만큼 중대한 사건이 될 수 있다!” _빌 게이츠 KAIST 김대식, 기계와의 대화를 시도하다 전 세계를 충격에 빠뜨린 챗GPT, 그 충격을 딛고 일어나 기계와 협업하기 위한 가장 모범적인 본보기 2022년 말, 출시와 동시에 전 세계를 충격과 혼란에 빠뜨린 챗GPT에게 KAIST 교수이자 뇌과학자인 김대식이 도전장을 내밀었다. 인공지능, 메타버스 등 가장 첨단의 이슈에 항상 귀를 기울여오고 있었던 저자가 이번에 챗GPT에게 눈을 돌린 것은 결코 놀랄 일이 아니다. 그러나 그가 챗GPT와 나눈 열두 개의 대화는 그야말로 놀라움 그 자체다. 1장에서 챗GPT가 자기 입으로 자신의 작동원리를 설명해주는 것을 시작으로, 사랑이나 정의, 죽음, 신 등 사람도 쉽게 이야기하기 어려운 형이상학적인 주제들에 대하여 온갖 자료를 바탕으로 한 폭넓은 논의를 이어나간다. 하지만 그보다 놀라운 것은 엄격한 윤리 기준하에서 두루뭉술하고 애매하게 얘기하도록 제한이 걸려 있는 것으로 보이는 챗GPT를 상대로 이야기를 끌어내는 저자의 기술이다. 프롤로그에서 에필로그까지, 책의 모든 콘텐츠를 챗GPT와 함께 만들어나가면서 저자는 계속해서 질문을 던지고, 부족한 부분을 찌르면서 이야기를 촉발시킨다. 흔히 사람 사이의 커뮤니케이션에는 ‘대화의 기술’이 필요하다고 하지만, 생성인공지능의 시대에 경쟁력을 확보하기 위해서 그보다 중요한 것은 ‘AI와 대화하는 기술’이라는 점을 직관적으로 보여준다. 이 책은 ‘인간 VS 기계’의 도식을 넘어, 어떻게 기계를 잘 활용하여 인간 지성의 지평을 넓혀나갈지를 선구적으로 보여주는 모범 사례다. 구글, 마이크로소프트, 바이두, 일론 머스크…, 전 세계의 IT업계 큰손들이 전전긍긍하는 ‘뜨거운 감자’ 2023년 2월 8일, IT업계의 큰손 구글이 새로운 제품을 출시하고 시연하는 행사가 열렸다. 전 세계가 주목한 시연회로부터 이틀 만에 구글의 모기업인 알파벳(Alphabet Inc.)의 주가가 10% 이상 폭락하는 초유의 사태가 벌어졌다. 시가총액으로 따지면 무려 150조 원 가량의 천문학적인 금액이다. 다른 일도 아니고 신제품을 시연하는 자리에서 무슨 일이 일어난 걸까? 이날 구글이 시연한 것은 챗GPT의 대항마로 내놓은 대화형 인공지능(AI) 서비스 어프렌티스 바드(Apprentice Bard)다. 챗GPT가 전 세계적인 센세이션을 일으키고 있는 가운데 전 세계의 주목이 이 자리에 몰렸다고 해도 과언이 아니다. 그런데 현장에서 시연자가 물은 질문에 바드가 잘못된 대답을 내놓은 순간, 들떠 있던 분위기는 일변했다. 전년도에 서비스를 개시한 챗GPT가 우수한 성능을 보여준 것과 맞물려 한참 고조되었던 기대감에 찬물을 끼얹은 것이다. 시연회 이후, 주가의 하락과 시가총액의 증발이라는 즉각적인 시장의 반응을 겪은 구글에는 비상등이 켜졌다. 여기에 이어, 마이크로소프트가 자사의 인터넷 검색엔진 빙(Bing)에 챗GPT 기술을 탑재하면서 IT업계의 지형도가 시시각각 변하고 있다. 이제까지 인터넷 검색엔진 시장의 90% 이상을 점유하고 있던 것은 구글이었지만, 이제는 도저히 안심할 수 없는 상황이 된 것이다. 단순한 ‘검색’의 시대는 저물고, 새롭게 이름 붙여질 시대를 선도하는 자가 새 판을 짤 기회를 얻었다. 『김대식의 인간 VS 기계』로 명성이 자자한 KAIST 교수이자 뇌과학자인 김대식이 이 유동하는 판에서 ‘뜨거운 감자’, 챗GPT와 정면으로 부딪혀 생성인공지능의 허와 실을 꿰뚫는 기나긴 대화를 펼친다. ‘검색’에서 ‘대화’로, 챗GPT는 우리가 원하는 정답을 내놓는 ‘도깨비방망이’가 될 수 있을까? 챗GPT가 선풍적인 인기를 끌면서 트위터, 페이스북, 레딧을 막론하고 전 세계의 온 인터넷 커뮤니티는 ‘챗GPT 놀이’에 빠져 있다. 단순히 자료를 정리‧요약시키는 수준에서 자기소개서를 쓰게 하는 등 놀이 방법은 다양하다. 그런데 그중에서도 주목을 받는 것이 바로 ‘허구의 증명 찾기’ 놀이다. SNS를 중심으로 유행하는 이것은, 챗GPT에게 질문을 던지고 챗GPT가 내놓은 대답에서 틀린 부분이나 모순을 찾아내는 것이다. 특히 “2022년 현재, 대한민국의 대통령은 누구인가?”라는 질문에 “문재인”이라는 대답을 내놓은 사례는 주요 일간지에 기사로 소개되기까지 했다. 그 외에도 “원균은 이순신을 능가하는 명장”이라고 답하거나 “훈민정음은 중국의 고전 어휘”라는 오답을 내놓는 사례 등을 공유하면서 챗GPT를 비롯한 AI가 제대로 쓰이려면 아직 한참 멀었다는 식으로 이야기하며 비웃곤 하는 것이다. 그러나 이런 챗GPT의 ‘한계’는 사실, 생성인공지능이나 GPT 모델의 특성에 대한 오해 혹은 몰이해에서 비롯한다. 사실 구글의 어프렌티스 바드가 오답을 내놓았다고 해서 실망하는 것 또한 마찬가지의 맥락이다. 생성인공지능이 ‘정답’을 내어놓기를 기대하는 것이다. 빅데이터로 학습한 결과니까 으레 ‘정답’을 내어놓겠지 하는 기대를 가지거나 당연히 정답을 내놓았을 것이라고 맹신하기도 한다. 이와 관련하여 2023년 2월에는 대한민국 모 의원실에서 챗GPT에게 〈양곡관리법〉의 부작용에 대해서 물어보고, 그 결과를 바탕으로 “빅데이터도 양곡법의 명백한 부작용을 이미 예고했다”라며 보도자료를 발표하는 해프닝까지 일어났다. 마냥 웃을 수만은 없는 일이다. 모 의원실이 아니더라도 많은 사람들이 챗GPT에게, 그리고 인공지능에게 그러한 ‘전지(全知)’를 바라고 있기 때문이다. 그러나 이들이 ‘대화형’ 인공지능인 데는 이유가 있다. 챗GPT는 ‘강의형’ 인공지능도, ‘해결사’ 인공지능도 아니다. 이들은 답을 주지 않는다. 판단을 내리지도 않는다. 학습한 정보의 범위 내에서 주어진 문장의 맥락을 보고 다음에 나올 단어로 가장 ‘가능성이 높은’ 단어의 최적해(最適解)를 찾아 나간다. 그저 그뿐이다. ‘양곡관리법’의 부작용을 물어보면 ‘가능성’이 높은 부작용을 쭉 설명해주고, 이점을 물어보면 마찬가지로 ‘가능성’이 높은 이점을 설명해준다. 오해해서는 안 된다. 이때의 가능성은 ‘실현 가능성’이 아니다. ‘부작용’을 주제로 이야기할 때 빅데이터를 기반으로 다른 텍스트, 학습 소스 등에서 ‘제시될 가능성’이다. 그래서 챗GPT에게 질문할 때, 질문자는 한편으로 ‘어떤 질문을 해야 잘 질문하는 것인가’ 하는 시험대에 오르게 된다. 사람이 보기에는 같은 의미의 질문이라도 약간의 어휘 차이에 따라 인공지능이 받아들이는 값은 전혀 달라지기도 하고, 같은 질문을 던져도 조금씩 다른 답변을 주기도 한다. 이것이 우리가 챗GPT에게 ‘정답’을 요구하는 게 아니라 ‘대화’를 시도해야 하는 이유다. 뇌과학자 김대식은 책에서 챗GPT에게 다양한 질문을 던진다. 사랑, 정의, 죽음, 신, 기후위기…. 얼핏 봤을 때 “왜 이런 걸 인공지능에게 물어보지” 싶은 질문이지만, 그의 이런 질문은 단발성으로 끝나지 않는다. 질문과 답변이 꼬리에 꼬리를 물고 이어지면서, 챗GPT의 말하는 방식과 특성, 한계와 가능성이 선명하게 드러난다. 김대식은 이 책을 통하여 “챗GPT는 ○○○○다”라고 말하지 않는다. 애초에 이런 빈칸 맞추기는 그의 관심사가 아니다. 그는 이 대화 프로젝트를 통해 챗GPT를 위시한 생성인공지능의 작동 방식을 직관적으로 ‘보여준다’. “챗GPT, 너 정말 너무하구나!” 어떻게 활용해야 잘 한다고 소문이 날까 “사랑을 느끼기 위해서는 육체가 꼭 필요할까?” “사랑과 이와 관련된 신체 감각을 느끼는 능력은 신체를 가지고 있을 때만 가능하기 때문에 물리적 육체가 없는 객체의 경우에는 사람이 느끼는 것

Collections

4