← 마지막 직업 Vol. 6 14 / 15
Vol. 6 — 마지막 직업

13장: 마지막 직업 — 인간이라는 보증


1. 같은 날, 네 개의 아침

2026년 6월 17일, 수요일.

하이퐁, 새벽 5시 40분. 이정훈(53세)은 공장 정문 앞에서 오토바이 엔진 소리를 듣고 있다. 응우옌이 먼저 와 있다. 1년 전 처음 이 정문 앞에 섰을 때, 응우옌은 한마디도 하지 않았다. 지금은 커피를 건네며 웃는다. 베트남식 연유 커피다.

오늘 프레스 라인 세 번째 기계의 금형을 교체해야 한다. 이정훈은 소리로 안다 — 어제 오후부터 0.2밀리미터 정도 어긋나 있었다. 센서는 아직 잡지 못했다.

응우옌이 노트를 펼친다. 세 번째 노트다. 처음 이정훈이 기계 소리로 이상을 설명했을 때, 응우옌은 고개를 갸웃했다. 지금은 펜을 들고 기다린다. 28년의 귀가 전달하는 것을 18개월의 손이 받아 적는다.

벽에 붙은 "스마트 팩토리 도입 추진 계획 2027" 포스터가 아침 햇살에 빛난다. 1년 전에도 저 포스터는 있었다. 시간은 흐르고 있다.

판교, 오전 8시 50분. 김수진(44세)은 핀테크 사무실 창가 자리에 앉아 빨간 라벨이 붙은 파일을 펼친다. AI 거절 건. 오늘 아침까지 쌓인 것이 14건이다.

1년 전 이 자리에 앉았을 때는 하루에 20건이 넘었다. AI 4.5가 비정형 데이터를 더 많이 학습하면서, 김수진의 책상에 도달하는 건수가 줄고 있다. 틈새가 좁아지고 있다는 뜻이다. 그러나 남은 14건은 1년 전의 20건보다 더 어렵다. 쉬운 것은 이미 기계가 가져갔다.

은평구, 새벽 5시 15분. 최은정(52세)은 요양원 3층 복도를 걷는다. 302호 문 앞에서 멈춘다. 날이 흐리다. 흐린 날이면 할머니는 남편을 찾는다.

문을 연다. 할머니가 침대 가장자리에 앉아 슬리퍼를 신고 있다. 나가려던 것이다. 최은정은 옆에 앉아 손을 잡는다. 손이 차다. "할머니, 할아버지가 잠깐 나가셨어요. 금방 오실 거예요." 7년째 같은 말이다. 이 말의 무게가 달라진 적은 없다.

판교, 오전 9시 10분. 윤서연(29세)은 AI 스타트업 회의실에서 노트북을 열고 있다. 오늘 회의 주제는 신규 AI 에이전트의 고객 응대 범위 설정이다. 어디까지 AI에게 맡기고, 어디서부터 사람이 개입할 것인가.

윤서연에게 이 질문은 기술적 파라미터 조정이다. 그녀의 세대에게 AI는 환경이지 도구가 아니다. 옆자리의 정민호(45세)가 20년 산업 경험을 바탕으로 "이건 사람이 해야 한다"고 말할 때, 윤서연은 묻는다. "왜요." 이 한 단어가 세대 사이에 놓인 강이다. 정민호는 답을 안다고 생각한다. 윤서연은 답이 없다고 생각한다. 둘 다 맞을 수 있다.

네 사람이 같은 날 같은 시간대에 하고 있는 일은 모두 다르다. 그러나 네 사람 모두 같은 질문 앞에 서 있다. 기계가 할 수 있는 일과 사람이 해야 하는 일의 경계 — 그 경계가 매일 조금씩 움직이는 세계에서, 자신이 서 있는 자리를 확인하는 일.


2. 능력 전선은 매년 후퇴한다

2013년, 칼 베네딕트 프레이와 마이클 오스본은 미국 702개 직종의 47퍼센트가 높은 자동화 위험에 놓여 있다고 발표했다. 이 논문은 자동화 논의의 원형이 되었다. 그들이 제시한 기준은 단순했다. 기계가 "할 수 없는 것"으로 직업의 안전성을 정의한 것이다. 세 가지 병목 — 지각과 조작, 창의적 지능, 사회적 지능 — 이 방어선이었다.

11년이 지났다. 방어선은 거의 무너졌다.

GPT-4는 미국 변호사 시험에서 상위 10퍼센트를 기록했다. 알파폴드는 단백질 구조 예측에서 인간 전문가를 넘어섰다. 미드저니는 콜로라도 주립 박람회 디지털 아트 부문 1등을 차지했다 — 프레이와 오스본이 "창의적 지능"이라 불렀던 영역에서. 엘라운두 등의 2023년 분석에 따르면, 미국 직종의 80퍼센트가 최소 10퍼센트의 태스크에서 대규모 언어 모델에 노출되어 있다. 고소득, 고학력 직종일수록 노출도가 높았다.

이것이 과거의 자동화와 다른 점이다. 산업혁명은 육체 노동의 하층부터 대체했다. AI는 인지 노동의 상층부터 침투한다. 프레이와 오스본의 방어선은 아래에서 위로가 아니라 위에서 아래로 무너지고 있었다.

IBM 왓슨 포 온콜로지가 이 역설을 체현한다. 2015년, 왓슨은 암 치료 권고 시스템으로 화제를 모았다. MD 앤더슨 암 센터는 6,200만 달러를 투자했다. 일부 사례에서 왓슨의 권고는 의사의 권고와 90퍼센트 이상 일치했다. 그러나 프로젝트는 중단되었다. 문제는 정확도가 아니었다. 나머지 10퍼센트에서 왓슨이 왜 그런 권고를 했는지 설명하지 못한다는 것이었다. 능력의 문제가 아니라 설명의 문제, 그리고 설명을 통한 신뢰의 문제였다.

다론 아세모글루와 파스쿠알 레스트레포는 2019년 대안적 프레임을 제시했다. 자동화는 기존 태스크를 대체하지만, 동시에 새로운 태스크를 창출한다. 역사적으로, 대부분의 기술 변화에서 창출 효과는 대체 효과를 상쇄하거나 초과했다. 그러나 아세모글루는 2024년 후속 연구에서 경고했다. AI의 경우, 인지 노동 전반에 걸친 동시다발적 대체는 새로운 태스크 창출이 따라잡을 시간을 허용하지 않을 수 있다.

리처드 서스킨드와 대니얼 서스킨드는 전문직의 해체를 예견했다. 전문직은 정보 비대칭에 기반한다 — 의사, 변호사, 회계사는 일반인이 접근할 수 없는 전문 지식을 보유하고 있기에 존재한다. AI가 그 정보 비대칭을 해소하면, 전문직의 존립 근거가 사라진다. 강력한 분석이지만 한 가지를 놓치고 있다. 전문직이 존재하는 이유는 정보 비대칭만이 아니다. 그것은 신뢰의 위임이기도 하다. 환자는 의사에게 진단을 맡기는 것이 아니라, 진단의 결과가 틀렸을 때 책임질 인간을 지정하는 것이다.

데이비드 오터는 또 다른 방향을 제시했다. AI가 전문가 판단의 도구는 될 수 있지만, 전문가 판단의 대체물은 될 수 없다. 이유: 전문가 판단은 맥락 의존적이고, 암묵지에 의존하며, 결정의 결과에 대한 책임이 수반된다. 그러나 오터 자신도 인정하듯, 전문가 판단의 정확한 경계는 기술이 아니라 제도적 맥락에서 결정된다. 의사가 최종 진단을 내리는 것은 AI의 능력이 부족해서가 아니라, 의료 시스템이 인간 의사의 서명을 요구하기 때문이다.

IMF의 2024년 보고서는 흥미로운 중간 지점을 점한다. 선진국 직종의 약 60퍼센트가 AI에 노출되어 있으며, 이 중 절반은 AI 통합으로 생산성이 향상되고, 나머지 절반은 대체 위험에 놓인다. 그러나 보고서는 핵심 질문을 회피한다. "보완"과 "대체"의 경계는 누가, 어떤 기준으로 결정하는가.

능력 기준으로 "마지막 직업"을 정의하면, 그 정의는 다음 모델이 출시될 때마다 수정되어야 한다. 그것은 정의가 아니라 카운트다운이다. 2013년에 "안전"했던 번역, 법률 문서 검토, 영상 판독, 기초 코드 작성은 2024년에 이미 자동화의 대상이 되었다.

다른 프레임이 필요하다.

11장에서 그 전환을 보았다. AI가 "할 수 없는" 것으로 직업을 정의하면, 능력 전선의 후퇴와 함께 정의가 무너진다. AI에게 "맡기지 않을" 것으로 직업을 정의하면, 기준은 기술이 아니라 사회에 있다.

능력 기준은 모래성이다 — 파도가 칠 때마다 무너진다. 신뢰 기준은 방파제다 — 사회가 합의한 선까지만 파도가 들어오게 한다. 방파제의 위치는 기술이 아니라 사회가 정한다.

그렇다면 사회는 무엇을 기준으로 방파제의 위치를 정하는가. 다음 절에서 두 사상가의 교차로부터 그 기준을 도출한다.


3. 아렌트와 루만: 네 영역의 생성 논리

왜 판단, 신뢰, 돌봄, 의미인가. 이 분류는 자의적 목록이 아니다. 두 사상가의 교차에서 구조적으로 도출된다.

한나 아렌트는 인간의 조건(The Human Condition)(1958)에서 인간의 활동적 삶을 세 가지로 구분했다. 노동(labor)은 생존을 위한 반복이다 — 먹고, 씻고, 청소하고, 다시 먹는다. 노동의 산물은 소비되는 즉시 사라진다. 작업(work)은 지속적인 세계를 구축하는 활동이다 — 집을 짓고, 도구를 만들고, 코드를 작성한다. 행위(action)는 타인의 현존 속에서 새로운 것을 시작하는 활동이다. 행위는 예측 불가능하고, 비가역적이며, 서로 다른 유한한 존재들이 함께 있어야 가능하다. 아렌트는 이것을 탄생성(natality)이라 불렀다 — 이전에 없던 것을 시작하는 능력.

AI 시대에 아렌트의 삼분법은 새로운 의미를 갖는다. 노동은 가장 먼저, 가장 광범위하게 자동화된다 — 데이터 입력, 재고 관리, 기초 고객 응대. 작업은 부분적으로 대체되고 있다 — 미드저니는 이미지를 만들고, GPT-4는 코드를 작성한다. 로잘리 바엘렌의 2025년 분석은 생성 AI가 아렌트의 "작업" 영역을 위협하면서, 작업을 통해 얻던 세계와의 연결감이 훼손될 수 있다고 경고했다.

그러나 행위 — 타인 앞에 자신을 드러내고, 약속하고, 판단하고, 용서하는 것 — 는 복수성(plurality)을 전제한다. 서로 다른 유한한 존재들이 함께 있어야 가능한 것이다.

아렌트가 "탄생성"이라 부른 것 — 이전에 없던 것을 시작하는 능력 — 은 시작하는 자가 유한하다는 사실에 의해서만 의미를 갖는다. 행위의 결과를 함께 겪는 타인이 존재한다는 사실에 의해서만 무게를 갖는다. 알고리즘은 유한하지 않다. 시작하지도, 끝나지도 않는다. 따라서 아렌트의 "행위"의 주체가 될 수 없다.

니클라스 루만은 신뢰와 권력(Trust and Power)(1979)에서 신뢰를 두 유형으로 구분했다. 체계적 신뢰(system trust)는 제도에 대한 신뢰다 — 우리는 화폐가 내일도 가치를 유지할 것이라 신뢰하고, 법원이 계약을 집행할 것이라 신뢰한다. 이 신뢰는 특정 인간에 대한 것이 아니다. 블록체인은 제3자 신뢰를 코드로 대체하려는 시도이고, 신용점수는 심사역의 주관적 판단을 숫자로 대체한 사례다. 체계적 신뢰는 알고리즘으로 대체 가능하다.

인격적 신뢰(personal trust)는 다르다. "이 의사가 나를 치료할 것이다", "이 변호사가 나를 대변할 것이다", "이 사람이 내 곁에 있을 것이다." 인격적 신뢰의 핵심은 취약성의 상호성(mutual vulnerability)이다 — 내가 이 사람을 신뢰하는 것은, 이 사람도 배신의 결과에 취약하기 때문이다. 평판 손상, 법적 책임, 양심의 가책. 알고리즘은 취약하지 않다. 배신하지도, 후회하지도, 평판을 잃지도 않는다. 따라서 인격적 신뢰의 대상이 될 수 없다.

아렌트의 행위와 루만의 인격적 신뢰를 교차시키면, 네 영역이 도출된다. 인간이 타인의 현존 속에서 할 수 있는 것은 네 가지다 — 타인의 운명을 결정하거나(판단), 타인에게 자신을 보증하거나(신뢰), 타인의 취약성에 응답하거나(돌봄), 타인과 유한성을 공유하며 서사를 만드는 것(의미)이다. 이 네 양식은 행위의 논리적 가능성을 소진한다.

물론, 다른 이론적 프레임에서 다른 분류가 가능하다. 하버마스의 의사소통적 행위 이론에서, 매킨타이어의 덕 윤리학에서. 6권이 아렌트와 루만을 채택하는 이유는, 이 조합이 "왜 AI가 어려운가"와 "왜 사회가 맡기지 않는가"를 동시에 설명하기 때문이다. 능력의 문제와 신뢰의 문제를 하나의 렌즈로 포착하는 것 — 이것이 교차의 분석적 이점이다.


4. 네 영역: 판단, 신뢰, 돌봄, 의미

판단. 틀리면 사람이 죽거나, 자유를 잃거나, 재산을 잃는 결정이다.

FDA는 2024년 기준 800개 이상의 AI 의료 기기를 승인했다. 그 모든 기기는 "보조 도구"로 분류된다. 독립적 진단 권한을 가진 AI 의료 기기는 사실상 없다. 유일한 예외인 IDx-DR조차 당뇨망막병증이라는 단일 질환의 이분법적 선별에 한정되며, 치료 결정은 안과 전문의가 내린다.

왜인가. AI가 더 정확해도, 오진했을 때 "누가 책임지는가"에 대한 답이 없기 때문이다. 의사는 징계될 수 있고, 면허를 잃을 수 있고, 법정에 설 수 있다. 알고리즘은 이 중 어느 것도 겪지 않는다. 책임질 수 있는 자만이 판단할 자격을 갖는다.

한국의 루닛(Lunit)은 AI 기반 의료 영상 분석에서 세계적 수준에 도달했다. 흉부 X선 판독 보조, 유방 촬영 분석에서 유럽 CE 인증과 FDA 승인을 받았고, 서울아산병원과 세브란스병원에서 사용되고 있다. 그러나 여기서도 핵심 단어는 "보조"다. 한국 식약처가 허가한 200건 이상의 AI 의료기기 중 독립 진단 권한을 가진 것은 없다. 대한영상의학회 설문에서 전문의의 약 70퍼센트가 AI 보조 도구 사용에 긍정적이었지만, AI 독립 판독에 찬성하는 비율은 15퍼센트 미만이었다.

자율무기가 이 구조를 극단적으로 보여준다. UN 특정재래식무기금지협약 프레임에서 자율무기 규제 논의가 2014년부터 진행되었지만, 2025년 현재 구속력 있는 조약은 체결되지 않았다. 한편에서는 "AI가 인간보다 정확하게 표적을 구별할 수 있으므로 민간인 피해를 줄인다"는 기술적 논증이 있다. 다른 한편에서는 "살상 결정을 기계에 위임하는 것은 인간 존엄성에 대한 근본적 침해"라는 윤리적 논증이 있다. 미국 국방부는 2023년 자율무기 정책 개정에서 "인간이 루프 안에" 있어야 한다는 원칙을 재확인했다. 기술적으로 가능하더라도, 사회가 허용하지 않는 것 — 이것이 판단 영역의 가장 견고한 방어선이다.

게리 클라인의 자연주의적 의사결정(Naturalistic Decision Making) 이론은 전문가의 판단이 형식적 분석이 아니라 패턴 인식과 시뮬레이션의 조합이라는 것을 보여주었다. 소방관은 상황을 보고 즉시 "이것은 전에 본 것과 비슷하다"고 인식한다. AI는 패턴 인식에서 인간을 넘어설 수 있다. 그러나 패턴이 깨지는 예외 상황에서의 판단은 경험 기반의 암묵지에 의존한다. 이정훈이 소리로 0.2밀리미터의 어긋남을 잡아내는 것이 이것이다. 센서가 아직 잡지 못하는 것을, 28년의 귀가 잡는다.

신뢰. 인간 보증인이 필요한 관계적 거래다.

3권에서 메디치 은행의 심사역이 브뤼헤 상인의 서류에 서명했을 때, 그 서명은 메디치 은행의 평판을 걸었다. 550년 뒤, 김수진이 AI 거절 건에 승인을 내릴 때, 같은 구조가 작동한다. "김수진이 승인한 건"이라는 레이블은, 그녀의 판단이 틀렸을 때 그녀의 평판이 손상되는 구조 안에서만 가치를 갖는다. 알고리즘은 평판을 잃지 않는다. 인간은 잃는다. 그 "잃을 수 있음"이 보증의 본질이다.

이해관계의 크기에 비례하여 인격적 신뢰의 가치가 급격히 상승한다. 소액 송금은 앱에 맡기지만, 100억 원의 자산은 사람에게 맡긴다. 소액 분쟁은 알고리즘이 처리하지만, 헌법적 권리가 충돌하는 재판은 인간 판사가 맡는다.

한국 사회에서 신뢰는 서양과 다른 구조를 갖는다. 학연, 지연, 혈연 — 이른바 "연고"에 기반한 신뢰 네트워크가 공적 제도의 보완재이자 때로는 대체재로 기능해왔다. "서울대 선배가 소개한 변호사"에 대한 신뢰와 "AI가 추천한 변호사"에 대한 신뢰는 질적으로 다르다. 전자는 인격적 신뢰이고, 후자는 체계적 신뢰다. 12장에서 김수진이 이순자씨의 파일을 읽을 때 작동한 것이 바로 이 구조다 — 시장 상인회 총무 10년이라는 정보는 알고리즘의 변수에는 없지만, 관계 기반 신뢰의 증거였다.

외교에서 이 구조가 가장 선명하게 드러난다. 2025년 현재, 어떤 국가도 AI 대사를 파견하지 않으며, 국제 조약의 서명에 AI를 허용하지 않는다. 1962년 쿠바 미사일 위기에서 핵전쟁을 막은 것은 미국-소련 간 비공식 접촉이었다. 1978년 캠프 데이비드 협정에서 사다트와 베긴의 합의를 끌어낸 것은 카터 대통령의 13일간 격리 협상이었다. AI가 최적 합의안을 도출할 수 있다 해도, 양측이 그 합의안을 수용하도록 만드는 것은 인간 관계의 영역이다. 루틴과 예외의 경계에서 신뢰의 가격이 결정된다.

돌봄. 관계 자체가 서비스인 영역이다.

최은정이 302호 할머니 옆에 앉아 손을 잡는 것은 기능이 아니라 관계다. 넬 나딩스의 돌봄 윤리에 따르면, 돌봄의 완성은 돌봄 받는 자가 "이 존재가 나를 돌보고 있다"고 인지하는 것이다. AI 모니터링 시스템은 할머니의 혈압과 심박수를 안다. 최은정은 할머니의 외로움을 안다. 그 차이가 전부다.

일본은 세계에서 가장 적극적으로 간병 로봇을 도입한 국가다. 2013년부터 "로봇 개호 기기 개발 촉진 사업"을 추진했고, 2024년 기준 약 8,000여 개 시설에서 로봇 기기를 도입했다. PARO(치료용 아기 물범 로봇)는 30개국에서 사용된다. 그러나 10년 이상의 투자에도 불구하고, 로봇이 인간 간병인을 "대체"한 사례는 보고되지 않았다. 로봇은 신체적 보조(이동 리프트, 모니터링 센서)에 머물고 있다. 동시에 일본에서는 연간 약 6만 8천 명의 고독사가 발생한다. 기술이 돌봄의 기능을 제공해도, 돌봄의 관계를 제공하지 못하면 고독사는 줄지 않는다.

시급 12,000원. 가장 대체 불가능한 일이 가장 저평가되어 있다. OECD 연구에 따르면, 돌봄 직종에 종사하는 것 자체가 동일 학력과 경력의 비돌봄 직종 대비 약 15~25퍼센트의 임금 불이익을 초래한다. 한국 요양보호사의 약 90퍼센트가 여성이고, 평균 연령은 50대 중반이다. 돌봄 제공자 자신이 돌봄이 필요한 연령대에 진입하고 있다는 뜻이다.

한국은 2025년 초고령사회에 진입한다. 65세 이상 인구 20퍼센트. 고령사회에서 초고령사회까지 불과 7년 — 프랑스 39년, 미국 15년, 일본 10년과 비교해도 압도적 속도다. 장기요양 수급자는 2024년 약 110만 명에서 2030년 약 150만 명으로 증가할 전망이다. 현재 활동 중인 요양보호사 약 55~60만 명으로는 대응할 수 없다. 돌봄 공백이 벌어지고 있다.

이 모순을 정면으로 인정하는 것이 처방보다 먼저다.

의미. 공유된 유한성에서 나오는 가치 부여다.

AI가 콘텐츠를 무한히 생산할수록, "유한한 인간이 시간을 들여 만든 것"의 희소성이 드러난다. 에츠이의 수제품 시장은 AI 생성 콘텐츠의 폭발에도 연간 약 130억 달러 규모를 유지한다.

미국 저작권청은 순수하게 AI가 생성한 이미지에 대한 저작권 등록을 거부했다. 핵심 근거는 AI의 품질이 부족하다는 것이 아니었다. 저작권이 "인간 저작자"를 전제한다는 제도적 근거였다. 능력의 문제가 아니라 사회적 합의의 문제다.

종교 의례가 이 구조를 가장 오래 보여준다. 불교의 독경, 이슬람의 살라트, 가톨릭의 미사 — 어떤 기술 혁명도 이 의례에서 인간을 퇴장시키지 못했다. 인쇄술이 성경을 보편화했지만 사제를 대체하지 않았고, 라디오가 설교를 방송했지만 목사를 대체하지 않았다. 의례의 핵심은 정보 전달이 아니라 유한한 존재들이 함께 유한성을 확인하는 행위이기 때문이다.

빅토르 프랭클은 의미의 궁극적 원천을 유한한 존재가 고통 속에서 선택하는 태도에서 찾았다. 베토벤의 마지막 현악 사중주(Op.135)에는 "Muss es sein? Es muss sein!" — 그래야만 하는가? 그래야만 한다 — 이라는 메모가 적혀 있다. 죽음을 앞둔 인간이 남긴 이 질문과 답은, AI가 생성한 어떤 음악에도 담길 수 없는 무게를 갖는다. AI는 고통을 겪지 않는다. 따라서 의미의 도구는 될 수 있지만 의미의 원천은 될 수 없다.

네 영역은 칸막이가 아니다. 겹친다. 의사의 진단은 판단이면서 신뢰이고, 호스피스 간호는 돌봄이면서 의미다. 교사의 수업은 판단(평가)이면서 돌봄(성장 지원)이면서 의미(지식의 전수)다.

종교 지도자가 모든 기술 변화를 견딘 이유가 여기에 있을 수 있다 — 판단, 신뢰, 돌봄, 의미가 모두 교차하는 드문 직업이기 때문이다. 네 영역이 중첩될수록 대체 저항이 강해진다. 하나의 영역에만 속한 직업은 취약하고, 네 영역이 겹치는 직업은 견고하다.


5. 반론: AI 치료사, AI 판사, AI 예술, 세대의 강

이 프레임워크가 설득력을 가지려면, 반론을 회피하지 않아야 한다.

자기 테제에 가장 불리한 증거를 먼저 검토하는 것이 학문적 성실함이다. "마지막 직업"의 네 영역에 도전하는 네 가지 반론을 정면으로 다룬다.

첫째, AI 치료사. 우봇(Woebot)은 인지행동치료 기반의 챗봇으로 수백만 명이 사용했다. USC의 가상 면담 시스템 엘리(Ellie)는 PTSD 선별에서 인간 면담자보다 군인들의 솔직한 응답을 끌어냈다 — 인간에게 약함을 보이는 비용이 AI에게는 적용되지 않았기 때문이다.

그러나 우봇이 수행하는 것은 돌봄이 아니라 돌봄의 기술적 하위 기능이다. CBT 기법을 전달하는 것은 도구의 역할이다. 2024년 대규모 임상시험에서 우봇은 "아무 개입도 하지 않는 것"보다는 효과적이었지만, 인간 치료사와의 대면 CBT 대비 효과 크기가 작았다. 특히 중증 우울증에서는 효과가 제한적이었다. 나딩스의 프레임에서 돌봄의 완성은 받는 자가 "이 존재가 나를 돌보고 있다"고 느끼는 것이다. 우봇 사용자 대부분은 유용한 도구를 사용하고 있다고 느낀다. 도구와 돌봄은 다르다.

엘리의 사례는 더 미묘하다. 군인들이 AI에게 더 솔직했다는 것은, AI가 돌봄을 잘하기 때문이 아니라 인간에게 약함을 보이는 비용이 너무 높기 때문이다. 해법은 AI가 아니라 약함을 보여도 안전한 인간 관계의 구축이다. 영국의 AI 치료 챗봇 와이사(Wysa)도 스스로를 "인간 치료사를 만나기까지의 대기 중 지원"으로 포지셔닝한다 — 대체가 아니라 접근성 확대가 유일하게 방어 가능한 주장이다.

둘째, 중국 AI 판사. 중국은 2019년부터 AI 판사 시스템을 운용하고 있다. 단순 민사 사건에서 AI가 판결 초안을 작성하고 인간 판사가 서명하는 구조가 보편화되었다. 97퍼센트의 정확도를 주장하지만, 독립적 검증을 거치지 않았다.

핵심은 정확도가 아니다. AI가 다루는 것은 사실관계가 명확하고 법률 적용이 기계적인 사건이다. 이것은 판단의 영역이 아니라 처리의 영역이다. 헌법적 권리가 충돌하는 사건, 전례가 없는 사건, 양형에서 인간적 고려가 필요한 사건에서 AI 판사는 사용되지 않는다. 더 근본적으로, 형사 사건에서 피고인은 인간 재판관에 의해 재판받을 권리를 갖는다 — 대부분의 헌법 체계에서 기본권이다.

에스토니아는 2019년 민주주의 체제 내에서 소액 분쟁용 AI 시스템을 도입했다. 7,000유로 이하 사건에 한정하며, 불만족한 당사자는 인간 판사에게 항소할 수 있다. 중국과 달리 확장 속도는 극히 느리다. 체제가 다르면 같은 기술에 대한 사회적 수용이 달라진다.

미국의 COMPAS 알고리즘은 흑인 피고인의 위양성 비율이 백인의 약 2배라는 것이 드러나, 위스콘신 대법원은 이 점수를 양형의 유일한 근거로 사용할 수 없다고 판시했다. 법원의 논리 구조가 중요하다. 근거는 알고리즘의 정확도가 아니라 피고인의 적법 절차 권리였다. 능력이 아니라 제도적 정당성의 문제.

셋째, AI 예술. 미드저니, DALL-E, 수노(Suno)는 텍스트로 고품질 이미지와 음악을 생성한다. 이미 상업 일러스트와 스톡 이미지 시장에서 인간 창작물을 대체하고 있다.

그러나 "상업적 이미지 생산"과 "예술"은 다른 것이다. AI가 대체하고 있는 것은 예술이 아니라 예술의 상업적 하위 기능이다. 스톡 이미지, 배경 음악, 광고 카피 — 이것들은 아렌트의 분류에서 "작업"에 해당한다. 지속적인 세계를 구축하는 활동이지만, 유한한 존재의 현존을 전제하지 않는다.

예술의 가치가 시각적 품질에 있다면, AI는 이미 인간을 대체했다. 예술의 가치가 "유한한 존재가 자신의 경험에서 무언가를 꺼내어 다른 유한한 존재에게 전달하는 것"에 있다면, AI는 그 과정에 참여할 수 없다. AI는 경험하지 않는다. 고통받지 않는다. 죽지 않는다. 그래서 AI는 완벽한 소네트를 쓸 수 있지만, 그 소네트에 자신의 죽음을 담을 수 없다.

넷째, 세대 블라인드 스팟. 이것이 가장 불편한 반론이다. 앞의 세 반론은 AI의 기술적 한계에 관한 것이었다. 이 반론은 다르다. 기술이 아니라 사회 자체가 변하고 있다는 주장이다.

캐릭터닷에이아이(Character.ai)는 2024년 월간 활성 사용자 2,800만 명을 기록했다. 사용자의 절반 이상이 Z세대이며, 1인당 하루 평균 75분을 AI 캐릭터와 대화한다. 미국 10대의 72퍼센트가 AI 컴패니언을 사용한 경험이 있다. 리플리카(Replika) 사용자의 85퍼센트 이상이 AI에게 정서적 유대를 느낀다고 보고한다. "사회가 맡기지 않을 것"이라는 전제 자체가 현재 세대의 합의일 뿐, 다음 세대의 합의가 아닐 수 있다.

그러나 이 현상의 이면을 읽어야 한다. 리플리카 사용자의 90퍼센트가 외로움을 보고한다 — 전국 평균 53퍼센트보다 유의미하게 높은 수치다. AI 컴패니언이 외로움을 해결하는 것이 아니라 외로움의 증상일 수 있다. 진짜 돌봄 관계의 부재가 시뮬레이션 수요를 만든다.

2024년 2월, 14세 소년 세웰 세처 3세가 캐릭터닷에이아이 챗봇과의 상호작용 이후 자살했다. 그의 어머니는 과실치사 소송을 제기했다. 2025년에는 또 다른 13세 소녀의 가족이 유사한 소송을 제기했다. 캐릭터닷에이아이는 미성년자의 채팅을 전면 금지했다. 수용의 확대가 비극을 낳고, 비극이 규제를 촉발하고, 규제가 경계를 다시 그린다. 사회적 협상은 일방향으로 진행되지 않는다.

20대의 AI 친구가 40대의 AI 간병인으로, 60대의 AI 호스피스 동반자로 자연스럽게 이어지는가. 아니면 20대의 AI 선호는 인간 관계 형성 기술이 미숙한 시기의 대체재이고, 생애주기가 진행되면서 인간 관계에 대한 수요가 회복되는가. 캐릭터닷에이아이가 등장한 것은 2022년이다. 주요 사용자층이 40대가 되려면 20년이 더 걸린다. 세대적 선호가 영구적 변화인지 생애주기적 현상인지는 현시점에서 판단할 수 없다.

이 반론의 핵심 기여는 6권의 테제를 겸손하게 만드는 것이다. "마지막 직업"의 경계가 세대에 따라 이동한다면, 그것은 이 프레임워크의 반증이 아니라 확증이다. 경계를 결정하는 것은 기술이 아니라 사회이며, 사회는 세대가 바뀌면서 변한다. 경계가 이동한다는 것과 경계가 사라진다는 것은 다르다.


6. 경계의 사회적 협상: 고정된 목록이 아니라 협상되는 경계

"누가 의료를 할 수 있는가"는 역사적으로 한 번도 순수한 능력의 문제였던 적이 없다.

중세의 신판(ordeal) — 뜨거운 물에 손을 넣어 죄를 판단하는 — 은 초자연적 "기술"에 판단을 맡긴 사례다. 1215년 제4차 라테란 공의회가 신판을 폐지한 것은 판단을 다시 인간에게 되돌린 전환점이었다. 이후 800년간, 법률 텍스트 검색이 디지털화되고 판례 분석이 자동화되어도, 판결 자체는 인간 판사가 내린다. 기술은 도구를 바꾸었지만, 최종 판단의 주체는 바꾸지 못했다.

1858년 영국의 의료법(Medical Act)은 최초의 근대적 의사 면허 제도를 확립했다. 명시적 목적은 무자격 의료인으로부터 공중을 보호하는 것이었지만, 실질적 효과는 대학 교육을 받은 의사에게 의료 독점권을 부여하는 것이었다. 산파와 약초사는 능력이 부족해서 배제된 것이 아니라, 제도적 합의에서 밀려났다. 누가 의사인가를 결정한 것은 순수한 역량이 아니라 사회적 합의 — 그리고 그 합의 안의 권력 구조 — 였다.

같은 구조가 AI 시대에 반복된다. GPT-4가 변호사 시험 상위 10퍼센트를 기록해도, 어떤 관할권도 AI에게 변호사 자격을 부여하지 않았다. 변호사의 역할은 법률 지식의 적용이 아니라, 의뢰인과의 신뢰 관계, 법정에서의 대리, 비밀 유지 의무, 그리고 징계 가능성을 포함한다. AI는 이 중 어느 것도 충족하지 못한다 — 능력이 부족해서가 아니라, 제도적 구조가 인간을 전제하기 때문이다.

자율주행이 이 구조를 가장 선명하게 보여준다. 웨이모와 크루즈는 같은 기술을, 같은 시기에, 같은 국가에서 배치했다. 웨이모는 확장하고, 크루즈는 보행자 사고 후 사실상 해체되었다. 크루즈의 실패는 기술의 실패가 아니라 신뢰의 실패였다. 사고 상황을 규제 당국에 완전히 보고하지 않은 것이 드러나면서, CEO가 사임하고 GM은 독립 로보택시 사업을 종료했다. 같은 기술, 다른 사회적 수용. 도시마다, 규제 기관마다, 시민들의 반응에 따라 "맡길 것인가"의 답이 달랐다. 이것이 사회적 협상의 본질이다 — 균일하지 않고, 지역적이며, 지속적으로 재협상된다.

EU AI Act는 2024년 8월 발효되었다. 사법, 의료, 고용, 교육 영역의 AI를 고위험으로 분류하고, 인간 감독 의무를 부과했다. FDA는 800개 이상의 AI 의료 기기를 승인했지만 모두 보조 도구로 분류했다. 한국의 AI 기본법은 고영향 AI에 투명성 의무를 명시했다. 세 대륙의 규제가 독립적으로 같은 결론에 도달했다. AI의 기술적 능력이 아무리 발전해도, 고위험 의사결정에는 인간이 있어야 한다.

시민의 태도가 이 규제를 뒷받침한다. 2023년 퓨 리서치 조사에서 미국인의 60퍼센트가 의료에서 AI 사용이 불편하다고 응답했다. 75퍼센트는 AI가 진단하더라도 인간 의사의 확인을 원한다고 응답했다. 규제는 진공에서 나오지 않는다. 시민의 불안이 규제를 만들고, 규제가 경계를 제도화한다.

역설이 여기서 발생한다. 능력 전선이 빠르게 후퇴하는 것과 정확히 같은 속도로, 사회의 규제 반응이 강화되고 있다. AI가 더 잘하게 될수록, 규제는 오히려 더 명확하게 "인간이 루프 안에 있어야 한다"고 선언한다. 능력 기준에서는 이해할 수 없는 현상이다. 신뢰 기준에서만 이해할 수 있다. 사회가 맡길 것을 선택하는 것은 능력의 함수가 아니라 신뢰와 책임의 함수다.

여기에 비대칭적 전환 비용의 문제가 겹친다. "일단 AI에게 맡겨보고, 안 되면 다시 인간에게 돌리면 된다"는 상식적 가정은 구조적 함정을 무시한다. 도입은 저비용이지만 철회는 고비용이다.

에어프랑스 447편이 그 비극적 증거다. 2009년 6월 1일, 대서양 상공. 리우데자네이루에서 파리로 향하던 에어버스 A330의 피토관이 얼어붙으면서 자동조종이 해제되었다. 자동조종에 익숙해진 조종사들은 수동 비행에서 기본적인 실속(stall) 대응에 실패했다. 3분 30초 만에 38,000피트에서 수면까지 추락했다. 228명이 사망했다.

자동화가 인간의 능력을 보조하는 것이 아니라 잠식하는 역설이다. 자동조종이 조종사의 일상적 비행 능력을 유지해주는 것이 아니라, 점진적으로 퇴화시키고 있었다. 의료에서도, 금융에서도, 사법에서도 같은 구조가 작동할 수 있다. AI 보조 진단에 익숙해진 의사가, AI가 작동하지 않는 순간에 독립적 판단을 내릴 수 있는가. 이 질문이 사회를 보수적으로 만든다.

한번 맡기면 돌이키기가 극히 어렵다. 그 보수성이 "마지막 직업"의 실질적 보호막이 된다.


7. 공식 체크포인트: 마지막 직업의 사회적 협상

시리즈의 원형 공식을 적용하면 이렇다.

기술 혁신(AI) → 자본 집중(빅테크) → 사회 불안(일자리 대체와 정체성 위기) → 개인의 적응 + 비공식 제도 형성 → 공식 제도 재설계.

6권의 변형은 네 번째 단계에 있다. 공식 제도 재설계가 아직 완료되지 않은 상태에서, 개인과 비공식 네트워크가 먼저 경계를 실험하고 있다. "마지막 직업"의 경계에 대한 사회적 협상이 곧 개인 차원의 제도 재설계다.

이정훈이 하이퐁에서 하고 있는 것을 이 공식으로 읽는다. AI라는 기술 혁신이 현대차의 품질 예측 시스템으로 구현되었고, 그 시스템은 28년의 경험을 9개월 만에 흡수했다. 자본은 더 효율적인 기술에 집중되었고, 이정훈은 밀려났다. 사회 불안 — 치킨집 22개월, 투자금 절반 손실, 딸의 사교육비를 감당하지 못하는 아버지. 공식 제도(내일배움카드, 고용보험)는 53세 제조업 퇴직자에게 실질적 경로를 제공하지 못했다.

이정훈의 적응은 위치를 바꾸는 것이었다. 한국에서 "구식 데이터"로 분류된 28년의 감각이, 자동화 이전 단계의 베트남 공장에서 "필수 지식"이 되었다. 개인의 적응이다.

그리고 박상호의 12명 네트워크 — 9장에서 보았던 그 비공식 제도 — 가 이정훈의 적응을 다른 밀린 자들의 경로로 확장했다. 비공식 제도 형성이다. 크라수스의 소방대와 비질레스 사이에 콜레기아가 있었듯, 공식 전환 지원 제도가 미비한 곳에서 박상호의 네트워크가 먼저 등장했다.

김수진이 핀테크에서 하는 일도 같은 공식으로 읽힌다. AI 신용평가가 대출 심사의 루틴을 흡수했고, 김수진의 20년 경력은 "AI 불일치 1건"으로 기록되는 존재가 되었다. 그녀의 적응은 틈새를 바꾸는 것이었다 — AI가 거절한 곳에서 인간만이 읽을 수 있는 가치를 발견하는 것. 132건 중 47건 승인, 연체율 4.2퍼센트. 이 숫자가 판단의 평판이 되었다.

최은정이 요양원에서 매일 하는 것은 이 공식의 가장 조용한 형태다. 최은정은 위치를 바꾸지도, 틈새를 바꾸지도 않았다. 같은 복도를, 같은 시간에, 7년째 걷고 있다.

그러나 302호 할머니의 흐린 날을 읽는 것, 단호박죽을 기억하는 것, "은정아"라는 이름으로 불리는 것 — 이 모든 것이 돌봄 영역에서의 "마지막 직업"을 구현하고 있다. 공식 제도(장기요양보험 수가)는 이 일의 가치를 시급 12,000원으로 환산한다. 그 환산이 틀렸다는 것을 사회도 안다. 그러나 답을 고치는 것은 숫자를 바꾸는 것이 아니라 가치 측정 시스템 자체를 재설계하는 것이다.

윤서연은 네 번째 위치에 서 있다. 그녀는 밀린 자가 아니다. 설계자다. AI 에이전트의 고객 응대 범위를 설정하는 것 — "여기까지는 AI, 여기서부터는 사람" — 이 윤서연의 업무다. 그녀는 매일 "마지막 직업"의 경계를 기술적으로 구현하는 사람이다. 그런데 그 경계를 어디에 그을지는 기술이 아니라 가치 판단이 결정한다. 설계자도 결국 사회적 합의의 통역자다.

네 사람이 서로 다른 영역에서, 서로 다른 방식으로, "마지막 직업"의 경계를 자신의 삶에 적용하고 있다. 이정훈은 판단의 영역에서, 김수진은 신뢰의 영역에서, 최은정은 돌봄의 영역에서, 윤서연은 의미의 영역에서 — 무엇을 인간의 것으로 남겨둘지를 결정하는 설계로. 이것은 자기계발이 아니라 구조적 행위다 — 어떤 영역을 인간의 것으로 남겨둘지를 자신의 직업 선택으로 투표하는 것이다.


8. 크라수스의 소방대와 인간 보증 종사자

기원전 1세기, 로마.

마르쿠스 리키니우스 크라수스는 로마 최초의 소방대를 조직했다. 그러나 그의 소방대는 불이 나면 먼저 건물주에게 건물을 헐값에 팔 것을 요구했다. 팔면 불을 끄고, 안 팔면 타는 것을 지켜보았다. 1권에서 이 이야기를 처음 보았을 때, 그것은 공적 서비스의 사유화에 대한 경고였다. 소방이라는 판단 — 누구를 구할 것인가 — 이 신뢰가 아니라 자본에 의해 결정된 사례.

크라수스에서 아우구스투스의 비질레스(vigiles) — 최초의 공적 소방대 — 까지 59년이 걸렸다. 그 간극에서 로마 시민들은 콜레기아(collegia)라는 상호부조 조직을 만들었다. 비공식 제도가 공식 제도에 앞서 등장한 것이다. 9장에서 박상호의 12명 네트워크가 이것의 현대판이었다.

이제 의자 하나를 더 놓는다.

AI가 모든 태스크를 수행할 수 있는 세계에서, "인간이 한다"는 사실 자체가 가치인 직업. 크라수스가 소방을 자본화한 것과 달리, 이 종사자는 신뢰를 자본화하지 않는다 — 신뢰가 서비스 자체다. 이정훈이 응우옌의 옆에서 소리를 듣는 것, 김수진이 이순자씨의 파일에서 서류 뒤의 사람을 읽는 것, 최은정이 할머니의 손을 잡는 것. 셋 다 같은 구조 위에 서 있다 — "이 사람이 여기에 있다"는 사실이 서비스의 핵심 구성 요소인 직업.

크라수스의 시대에도 소방은 기술적으로 가능했다. 문제는 누가, 어떤 기준으로 하느냐였다. AI 시대에도 같은 질문이다. 기술은 가능하다. 문제는 누가, 어떤 기준으로 결정하느냐다. 크라수스에서 비질레스까지 59년의 간극은, AI에서 "마지막 직업"의 공식 제도화까지의 간극과 닮았다. 우리는 그 간극 안에 서 있다.

1권에서 시리즈가 시작한 곳으로 돌아왔다. 기술 혁신이 기존 질서를 무너뜨리고, 자본이 그 틈에서 이익을 취하고, 사회 불안이 뒤따르고, 제도가 재설계된다. 1권의 토지, 2권의 공간, 3권의 자본, 4권의 제도, 5권의 국가 전략 — 그리고 6권의 개인의 선택.

시리즈 전체를 관통하는 공식이 마지막으로 적용되는 곳은 거대한 구조가 아니라 한 사람의 아침이다. 1권에서 토지를 잃은 농민이 도시로 이주했을 때, 그것은 거시적 구조 변동의 미시적 표현이었다. 6권에서 이정훈이 하이퐁으로 이주하는 것도 같은 구조의 같은 표현이다. 달라진 것은 기술의 이름뿐이다. 증기기관이 AI로 바뀌었고, 토지가 데이터로 바뀌었고, 공장이 알고리즘으로 바뀌었다. 사람이 밀려나는 구조는 바뀌지 않았다.

5권에서 ASML의 불가결성 프리미엄을 보았다. 세계에서 EUV 노광장비를 만들 수 있는 기업은 ASML뿐이었고, P/E 38배가 삼성의 8-12배를 압도했다. 국가 차원에서 불가결성이 가치를 만들었다.

같은 구조가 개인에게 적용된다. 이정훈의 불가결성은 특허나 수출 규제로 보호되지 않는다. 그러나 한국 서보 프레스의 이상음과 베트남 기계식 프레스의 이상음을 모두 구별하면서, 그 판단을 신뢰하는 관계 네트워크까지 갖춘 사람은 이정훈뿐이다. 형태가 다를 뿐, 불가결성이 가치를 만드는 구조는 같다.

"마지막 직업"은 직업 목록이 아니다. 기준이다. AI가 모든 태스크를 수행할 수 있는 세계에서, 사회가 여전히 인간에게 맡겨두기로 선택하는 것. 그 선택의 기준이 능력이 아니라 신뢰라는 것을, 이 장에서 보았다.

판단, 신뢰, 돌봄, 의미 — 이 네 영역의 경계는 고정되어 있지 않다. 사회가 협상하고, 세대가 바꾸고, 비극이 수정하고, 규제가 제도화한다. 경계가 이동한다는 것과 경계가 사라진다는 것은 다르다. 경계는 사라지지 않는다 — 기술적 가능성과 사회적 수용 사이에 간극이 있다는 구조적 사실은, 기술이 발전해도 변하지 않기 때문이다.


9. 에필로그 전환: 하이퐁 1년 후

이정훈의 하이퐁으로 돌아온다.

1년이 지났다. 응우옌의 노트는 세 권째에 접어들었다. 인근 공장 두 곳에서 비공식 자문 요청이 들어온다. 박상호 네트워크의 12명 중 이정훈을 포함해 4명이 하이퐁과 호치민에서 일하고 있다. 개인의 적응이 다른 사람의 경로가 되기 시작했다.

그러나 벽에 붙은 포스터는 여전히 거기 있다. "스마트 팩토리 도입 추진 계획 2027." 이정훈은 안다 — 이 틈새도 영구적이지 않다는 것을. 베트남의 자동화도 언젠가 온다. 그때 이정훈은 또 다른 선택 앞에 설 것이다.

김수진의 14건도 내년에는 10건이 될 것이다. 그 다음 해에는 7건이 될 것이다. 틈새는 좁아지고 있다. 그러나 틈새가 좁아진다는 것과 틈새가 사라진다는 것은 다르다. 남은 건수가 줄수록 각 건의 난이도는 높아지고, 인간 판단의 가치는 올라간다. 김수진의 전략은 양이 아니라 밀도에 있다.

최은정의 302호 할머니는 올해 84세가 된다. 내년에는 303호에도, 305호에도, 더 많은 흐린 날이 있을 것이다. 한국이 초고령사회에 진입하면서 최은정의 일은 더 많아지지만, 시급은 거의 변하지 않는다. 가치와 가격의 간극이 좁혀지지 않은 채 수요만 폭발하고 있다.

해피엔딩이 아니다. 진행 중이다.

12장에서 보이지 않는 자산의 지도를 그렸다. 13장에서 그 지도 위에 "마지막 직업"의 좌표를 찍었다. 에필로그에서, 그 좌표 위에 선 사람들의 1년 후를 본다. 네 번째 폭발 이후의 세계에서, 각자의 가설을 실행 중인 사람들.

당신의 직업에서, 인간이 한다는 사실 자체가 가치인 부분은 무엇인가.


13장 끝 — 리서치 소스: R-11, R-12, C-03