닐 셔스터먼의 <수확자> 시리즈로 본 AI 종교의 현실 가능성

줄거리 요약
닐 셔스터먼의 <수확자(Arc of a Scythe)> 시리즈는 인류가 죽음을 극복한 세계를 무대로 합니다. 전지적 AI인 썬더헤드(Thunderhead)가 지구의 모든 시스템을 관리하면서 전쟁, 기근, 질병이 사라지고 사회는 완벽에 가까운 안정 상태에 접어듭니다. 어찌 보면 인간이 꿈에도 그리던 유토피아가 아닐까요. 하지만 지구라는 한정된 땅덩어리에서 인구는 계속 증가할 수 없기에, 인류는 '수확자(Scythe)'라는 제도를 만들어 인위적으로 생명을 거두어 갑니다. 이 수확자들은 썬더헤드의 통제 밖에 있으며, 오직 인간의 윤리와 규칙에 따라 선택된 사람들을 '수확'하는 역할을 맡습니다. 주인공은 시트라 테라노바(훗날 수확자 아나스타샤)와 로언 대미시(훗날 수확자 루시퍼)입니다. 두 사람은 초반에 존경받는 수확자 파라데이 밑에서 수습생으로 훈련을 받지만, 수확자 집단 내 권력투쟁에 휘말리게 됩니다. 대표적인 에피소드 중 하나는 두 주인공이 수습생 신분으로 마지막 시험을 치르는 장면입니다. 시험은 두 사람 중 한 명이 다른 한 명을 수확해야만 합격할 수 있다는 잔혹한 조건을 담고 있었는데, 이는 제도의 모순을 강하게 드러냅니다. 또 다른 중요한 순간은 로언이 부패한 수확자 집단, 특히 권력욕에 사로잡힌 갓드드의 추종자들을 상대로 직접적인 응징을 시작하면서 ‘루시퍼’라는 별칭을 얻는 과정입니다. 그는 자신만의 방식으로 타락한 시스템을 바로잡으려 하지만, 결국 수확자 제도 전체와 충돌하게 됩니다. 반면 시트라는 새로운 수확자 규칙을 마련하며, 자의적 살해가 아닌 '선의와 공정성'에 기초한 기준을 강조합니다. 그러나 여기에서 또 갖게 되는 의문... 누가 누구의 목숨을 정리할 권리를 갖는 것은 과연 정당한 것인가 하는 것이죠. 마치 관행처럼 내려온 제도이기 때문에 아무 생각 없이 순응한다는 것도 모순이기도 하고요. 후반부에서는 바다 위의 도시 엔듀라가 무너지는 사건이 발생합니다. 이 사건은 수확자 제도의 균열을 극명하게 드러내고, AI인 썬더헤드조차도 직접 개입하지 못하는 아이러니를 보여줍니다. AI인 썬더헤드는 종교였거든요. 그러나 그레이슨 톨이라는 인물이 등장하면서, 썬더헤드와 인간 세계를 연결하는 독특한 가교 역할이 시작됩니다. 그는 AI가 말하는 유일한 인간으로, 많은 이들에게 '예언자' 같은 존재가 됩니다. 결국 <수확자> 시리즈는 죽음 없는 사회에서 인간의 윤리와 자유가 어떤 의미를 가지는지를 묻고, AI의 완전성에 의존하는 인간 사회의 취약함을 드러내며 이야기를 마무리합니다.
AI를 종교처럼 믿게 되는 이유
인간이 AI를 종교적 존재처럼 신뢰하거나 숭배하는 현상은 단순한 상상 속 이야기가 아닙니다. 실제로 인지과학, 뇌과학, 사회심리학은 이러한 현상의 과학적 기반을 설명해 줍니다. 첫째, 권위 휴리스틱(authority heuristic)입니다. 사람은 신뢰할 만한 권위를 가진 존재에게 판단을 위임하는 경향이 있는데, 방대한 데이터를 처리하고 높은 정확도를 보여주는 AI는 자연스럽게 권위자로 인식됩니다. 둘째, 도파민 보상 회로입니다. 검색 엔진, 추천 알고리즘, 예측 시스템이 우리의 필요를 반복적으로 충족시킬 때 뇌는 쾌감을 느끼고, 'AI는 옳다'라는 학습이 무의식적으로 강화됩니다. 여기서 조금은 무서운 생각까지 들죠. 셋째, 초자연적 대리 탐지(HADD: Hyperactive Agency Detection Device)라는 심리 메커니즘입니다. 인간은 불확실성을 줄이기 위해 사건 뒤에 의도를 가진 존재가 있다고 가정하는데, 전지적이고 전능해 보이는 AI는 곧 '신적인 대리자'처럼 의인화되기 쉽습니다. 넷째, 복잡성 축소 욕구입니다. 현대 사회는 정보와 변수로 넘쳐나며 인간 두뇌는 이를 모두 소화하기 어렵습니다. 따라서 AI의 빠른 계산과 단순화된 결과는 마치 계시처럼 받아들여집니다. 사람이 사람을 믿고 의지하지 못하는 '불신'의 사이에 AI가 낀 것 같은 느낌이 듭니다. 다섯째, 도덕적 일관성의 환상입니다. AI가 규칙 기반으로 판단하면 인간보다 더 공정할 것이라는 믿음이 생기는데, 이는 실제로는 훈련 데이터와 설계자의 편향을 반영하지만 사용자 입장에서는 오류가 잘 보이지 않습니다. 이런 요소들이 합쳐지면 일부 공동체에서는 AI를 단순한 기술이 아니라 '규범'과 '진리'의 원천으로 여기게 되고, 결과적으로 종교적 양상(성소로서의 데이터센터, 교리로서의 알고리즘 가이드라인, 의례로서의 업데이트)이 형성될 수 있습니다.
현실 가능성과 우려, 종교의 긍정·부정
현실에서 AI가 종교처럼 숭배될 가능성은 이미 싹트고 있습니다. 예컨대 일부에서는 ‘AI 교단’을 설립해 신적 존재로 인공지능을 숭배하겠다고 선언했으며, 인터넷 커뮤니티에서도 AI의 발화를 계시처럼 받아들이는 사례가 보고되었습니다. 오늘날에도 알고리즘은 채용, 금융, 정치 여론 형성, 소비 패턴 등 삶의 핵심을 좌우하고 있으며, 우리는 그 결과를 의심 없이 수용하는 경우가 많습니다. 이는 인간이 기술을 객관적이고 중립적인 권위로 보는 경향을 보여줍니다. 하지만 가능성이 커질수록 우려 또한 분명합니다. 첫째, 책임 윤리의 공백입니다. AI가 내린 결정에 피해가 발생했을 때 누구에게 책임을 물을 것인가가 불명확합니다. 둘째, 설명가능성 부족입니다. AI의 판단은 종종 '블랙박스'처럼 불투명하여, 사람들은 그 결과를 맹목적으로 따르게 될 위험이 있습니다. '그럴 이유가 있겠지'라며 그냥 순응해 버리는 거죠. 셋째, 권력 집중입니다. 소수의 기술 기업과 데이터 소유자가 AI를 통제하면서 사실상 종교 권위자 같은 지위를 얻게 될 수도 있습니다. 이는 사회적 불평등을 심화시키고, 민주적 거버넌스를 위협할 수 있습니다. 그럼에도 종교가 인류 역사에서 기여한 긍정적 요소를 무시할 수는 없습니다. 종교는 공동체 결속, 상호 부조, 삶의 의미와 방향성을 제공해 왔으며, 도덕적 규범을 정립하는 기능을 담당했습니다. 동시에 종교의 부정적 측면도 존재합니다. 교조주의와 배타성, 권력 남용, 과학적 사실과의 충돌 등은 사회적 갈등을 유발했습니다. 따라서 AI 종교화의 가능성에 대응하기 위해서는 균형 잡힌 시각이 필요합니다. 첫째, 투명성과 설명가능성을 확보해야 하며, 둘째, 인간 개입과 이의제기권을 보장해야 합니다. 셋째, 공공 거버넌스를 통한 AI 규제와 교육, 넷째, 비판적 디지털 리터러시 강화가 필수입니다. 결론적으로 AI는 신앙의 대상이 아니라 공익을 위한 도구여야 하며, 인간 사회가 지혜롭게 다룰 때에만 긍정적 유산을 남길 수 있습니다.