← 마지막 직업 Vol. 6 12 / 15
Vol. 6 — 마지막 직업

11장: 희소성의 이동 — 생산성이 무한할 때


1. 최은정의 새벽

2025년 11월, 서울 은평구. 새벽 5시.

요양원 복도의 형광등이 반쯤 켜져 있다. 최은정(52세)은 운동화 끈을 조이고 3층 복도로 올라간다. 7년째 같은 시간, 같은 복도다. 벽에 걸린 시계가 5시 4분을 가리킨다. 복도 끝의 창문으로 은평구의 아파트 불빛이 보인다. 아직 대부분 꺼져 있다.

간호사실의 모니터에는 입소자 32명의 혈압, 심박수, 혈당 수치가 실시간으로 표시된다. AI 건강 모니터링 시스템이 도입된 것은 작년이다. 야간 이상 징후를 감지하면 알림이 울린다. 밤새 알림은 없었다. 숫자로 보면 평온한 밤이다. 그러나 최은정은 숫자가 보여주지 않는 것을 알고 있다.

최은정은 302호 문 앞에서 멈춘다. 문을 열기 전에 안다. 오늘이 힘든 날이라는 것을. 날이 흐리면 힘든 날이다. 87세 여성, 치매 3등급. 남편은 4년 전 세상을 떠났지만, 흐린 날이면 남편을 찾는다.

문을 연다. 침대에서 할머니가 이불을 걷고 앉아 있다. 슬리퍼를 신고 있다. 나가려던 것이다.

"할머니."

할머니가 최은정을 본다. 눈이 젖어 있다.

"영감이 안 왔어. 밖에 나가봐야 해."

최은정은 할머니 옆에 앉는다. 손을 잡는다. 손이 차다. 난방은 켜져 있지만 새벽의 손은 늘 차다. 손등의 핏줄이 두드러져 있다. 최은정은 이 손의 지도를 안다. 7년 동안 잡아온 손이다.

"할머니, 할아버지가 잠깐 나가셨어요. 금방 오실 거예요."

이 말은 거짓이다. 최은정은 그것을 안다. 할머니도 하루에 두세 번은 안다. 그러나 이 새벽, 이 순간에는 모른다.

최은정의 거짓은 의학적 처방이 아니라 관계적 판단이다. 진실을 말하면 할머니는 남편의 죽음을 다시 겪는다. 매번 처음 겪는 것처럼 겪는다. 최은정은 7년 동안 이 판단을 반복해왔다.

AI 모니터링 시스템은 할머니의 혈압과 심박수를 안다. 최은정은 할머니의 외로움을 안다. 그 차이가 전부다.

할머니의 손을 잡고 있는 동안, 할머니의 눈이 천천히 감긴다. 다시 눕힌다. 이불을 덮는다. 5시 23분. 다음 방으로 간다.

최은정의 시급은 12,000원이다. 월급은 220만 원. 7년차. 이혼 후 혼자 산다. 아들은 26세, 서울 외곽에서 배달 라이더를 한다.

이것은 기능이 아니라 관계다. 돌봄의 본질은 "거기에 있음(being there)"이다. 이 새벽, 이 복도에서, 이 손을 잡고 있는 것.

AI 시스템은 할머니의 활력 징후를 모니터링할 수 있다. 투약 시간을 알릴 수 있다. 그러나 할머니가 돌아가신 남편을 찾을 때, 옆에 앉아 손을 잡고 "금방 오실 거예요"라고 말하는 것은 기계가 하지 않는다. 하지 못하는 것이 아니라, 사회가 맡기지 않는 것이다.


2. 희소성은 이동한다

희소한 것은 고정되어 있지 않다. 시대마다 이동한다.

로마 공화정 중기, 희소한 것은 토지였다. 포에니 전쟁 이후 대농장(라티푼디움)이 확산되면서 소농의 토지가 흡수되었다. 1권에서 따라간 그 과정이다. 토지를 가진 자가 곧 시민이었고, 토지를 잃은 자는 프롤레타리우스 — 자녀를 낳는 것 외에 국가에 기여할 수단이 없는 자 — 로 분류되었다.

희소한 것이 토지일 때, 토지를 잃은 자는 정체성을 잃었다.

산업혁명기, 희소한 것은 숙련 노동이었다. 랭커셔의 수직공은 손가락 끝의 감각으로 씨실과 날실의 장력을 조절했다. 그 기술을 익히는 데 7년이 걸렸다. 방적기와 역직기가 그 7년을 기계의 반복으로 대체했을 때, 수직공의 주급은 25실링에서 4.5실링으로, 84퍼센트가 무너졌다.

숙련이 희소하지 않게 된 순간, 숙련공은 밀렸다.

3권에서 분석한 메디치 은행의 시대에는 정보가 희소했다. 피렌체에서 브뤼헤까지 편지가 도달하는 데 2주가 걸리던 시대에, 정보를 먼저 가진 자가 자본을 통제했다. 메디치 심사역의 가치는 그 정보의 비대칭에서 나왔다.

인쇄술이, 전신이, 인터넷이 그 비대칭을 축소할 때마다, 게이트키퍼의 가치는 "아는 것"에서 "보증하는 것"으로 이동했다. 3권의 표현대로, 게이트키퍼는 사라지지 않았다. 보이는 곳에서 보이지 않는 곳으로 이동했을 뿐이다.

AI 시대에 무엇이 희소해지는가.

인지 능력의 희소성이 사라지고 있다. GPT-4는 미국 변호사 시험 상위 10퍼센트 수준을 기록했다. 알파폴드는 단백질 구조 예측에서 인간 전문가를 넘어섰다.

엘라운두 등의 2023년 분석에 따르면, 미국 직종의 80퍼센트가 최소 10퍼센트의 태스크에서 대규모 언어 모델에 노출되어 있다. 고소득, 고학력 직종일수록 노출도가 높았다. 이것은 과거의 자동화와 다른 패턴이다. 산업혁명은 육체 노동의 하층부터 대체했다. AI는 인지 노동의 상층부터 침투한다.

인지 능력이 희소하지 않게 될 때, 무엇이 새로 희소해지는가.

답은 네 가지다. 판단, 신뢰, 돌봄, 의미. 기계가 할 수 있지만 사회가 맡기지 않는 영역이다. 그 경계를 결정하는 것은 능력이 아니라 신뢰다. 이것이 이 장의, 그리고 Part 4 전체의 좌표다.


3. 시급 12,000원의 모순

한국의 요양보호사는 약 55만에서 60만 명이다. 자격 취득자는 누적 200만 명이 넘지만, 실제 활동하는 인원은 그 3분의 1에 불과하다. 시급 12,000원 수준. 야간과 주말 수당을 포함해도 시설 요양보호사의 월 실수령액은 180만에서 220만 원이다.

연간 이직률은 30에서 40퍼센트. 3년 미만 근속자가 절반을 넘는다.

일을 그만두는 이유는 낮은 임금만이 아니다. 감정적 소진이다. 매일 새벽 누군가의 손을 잡고, 기억을 잃어가는 사람의 곁에 있고, 죽음을 가까이에서 보는 일이 7년, 10년 이어질 때 남는 것은 경력이 아니라 피로다. 요양보호사 자격증 취득에 걸리는 시간은 교육 이수 포함 약 6개월이다. 사회가 이 일에 요구하는 공식 자격은 6개월이지만, 최은정이 302호 할머니의 흐린 날을 읽는 데는 7년이 걸렸다. 그 7년은 어떤 자격증에도 기록되지 않는다.

NVIDIA 엔지니어의 미국 내 평균 연봉은 15만에서 25만 달러다. 한화로 2억에서 3억 3,000만 원. 시급으로 환산하면 최은정의 15배에서 25배다. AI를 만드는 사람의 시간과 AI가 대체할 수 없는 일을 하는 사람의 시간 사이에, 15배에서 25배의 가격 차이가 존재한다.

모순이다. 가장 대체 불가능한 일이 가장 저평가되어 있다. 시장은 대체 가능한 것에 높은 가격을 매기고, 대체 불가능한 것에 낮은 가격을 매긴다. 이것이 모순인지 시장의 본질인지는 관점의 문제다. 그러나 결과는 분명하다.

왜 그런가. 낸시 폴브르(Nancy Folbre)는 이것을 "돌봄의 역설(care paradox)"이라 불렀다. 돌봄 노동은 시장 논리로 가격을 매길 수 없다. 돌봄은 상품화할수록 질이 떨어진다. 더 빨리, 더 효율적으로 돌보라는 요구는 돌봄의 본질과 충돌한다.

최은정이 할머니의 손을 잡고 있는 시간을 단축하면, 그 시간의 가치가 올라가는 것이 아니라 돌봄 자체가 사라진다. "사랑의 노동"이기 때문에 시장 가격이 붙지 않는다는 것이 폴브르의 진단이다.

마리아나 마추카토(Mariana Mazzucato)는 다른 각도에서 같은 문제를 짚는다. 현대 경제학은 "가치 창출"과 "가치 추출"을 구분하지 못한다. GDP가 측정하는 것과 사회가 실제로 필요로 하는 것 사이에 구조적 괴리가 있다.

NVIDIA의 시가총액은 2024년 한때 3조 달러를 넘었다. 이것은 가치를 창출한 결과인가, 가치를 추출한 결과인가. 최은정이 새벽 5시에 할머니의 손을 잡는 행위는 GDP에 어떻게 기록되는가. 장기요양보험 수가의 일부로, 시급 12,000원의 인건비로 기록된다.

3조 달러와 12,000원 사이의 거리가 가치 측정 시스템의 구조적 실패를 보여준다.

한국은 2025년 초고령사회에 진입한다. 65세 이상 인구가 20퍼센트를 넘는다. OECD 국가 중 가장 빠른 고령화 속도다. 고령사회에서 초고령사회까지 7년. 프랑스는 39년, 미국은 15년, 일본은 10년이 걸렸다.

장기요양 수급자는 2024년 약 110만 명에서 2030년 150만에서 170만 명으로 증가할 전망이다. 요양보호사 수요는 폭증하지만 처우는 정체되어 있다.

수요와 보상의 괴리가 매년 벌어진다. 돌봄을 필요로 하는 사람은 늘어나고, 돌봄을 제공하려는 사람은 줄어든다. 이 간극을 기술로 메우겠다는 발상이 등장한다. 그것이 가능한가. 가능하더라도 바람직한가. 그 질문이 이 장의 후반부에서 돌아온다.

최은정이 새벽 5시에 하는 일의 "가치"는 어디에도 기록되지 않는다. 할머니가 남편을 찾지 않고 다시 잠든 새벽. 그 새벽의 가치를 측정할 수치는 없다.


4. 능력에서 신뢰로

2013년, 칼 베네딕트 프레이와 마이클 오스본은 미국 702개 직종을 분석하여 47퍼센트가 높은 자동화 위험에 놓여 있다고 발표했다. "기계가 할 수 없는 것"으로 직업의 안전성을 정의한 것이다. 이 논문은 자동화 논의의 원형이 되었다. 능력 기준(capability criterion)의 정점이었다.

문제는 능력 전선이 매년 후퇴한다는 것이다.

2013년에 "안전"했던 직종 — 번역, 법률 문서 검토, 영상 판독, 기초 코드 작성 — 은 2024년에 이미 자동화의 대상이 되었다. 프레이와 오스본이 "창의적 지능"이라 불렀던 영역에서조차 미드저니가 미술 대회 1등을 차지했다.

능력 기준으로 "마지막 직업"을 정의하면, 그 정의는 다음 모델이 출시될 때마다 수정되어야 한다. 그것은 정의가 아니라 카운트다운이다.

능력의 프레임은 방어적이다. "아직 못 한다"는 말 뒤에는 언제나 "곧 할 것이다"가 따라온다. 다른 프레임이 필요하다.

다론 아세모글루와 파스쿠알 레스트레포의 2019년 연구는 다른 틀을 제시했다. 자동화는 기존 태스크를 대체하지만 동시에 새로운 태스크를 창출한다. 문제는 순효과다.

AI의 경우, 대체가 일어나는 속도와 범위가 과거의 자동화와 질적으로 다르다. 인지 노동 전반에 걸친 동시다발적 대체는 새로운 태스크 창출이 따라잡을 시간을 허용하지 않을 수 있다.

데이비드 오터는 2024년 논문에서 한 걸음 더 나아갔다. AI가 전문가 판단의 도구는 될 수 있지만 대체물은 될 수 없다고 주장했다. 전문가 판단은 맥락에 의존하고, 암묵지에 기반하며, 결정의 결과에 대한 책임이 수반된다.

오터가 "노동의 분업이 아니라 분업의 노동(the labor of division)"이라 부른 것 — 패턴이 깨지는 예외 상황에서의 판단 — 은 인간의 영역으로 남는다.

그러나 오터의 논증도 여전히 "능력"의 프레임 안에 있다. AI가 "할 수 없는" 것을 말하고 있다. 더 근본적인 전환이 필요하다.

AI가 "할 수 없는" 것으로 직업을 정의하면, 능력 전선의 후퇴와 함께 정의가 무너진다. AI에게 "맡기지 않을" 것으로 직업을 정의하면, 기준은 기술이 아니라 사회에 있다.

EU AI Act는 2024년 8월 발효되었다. 사법, 의료, 고용, 교육 영역의 AI를 "고위험"으로 분류하고, 인간 감독 의무를 부과했다. AI가 더 정확해도, 인간이 루프 안에 있어야 한다는 것이 법의 설계 철학이다.

FDA는 2024년 기준 약 950건 이상의 AI 의료 기기를 승인했지만, 모두 "보조" 또는 "임상 의사결정 지원"으로 분류된다. 독립적 진단 권한을 가진 AI 의료 기기는 사실상 없다. 유일한 예외인 IDx-DR조차 당뇨망막병증이라는 단일 질환의 이분법적 선별에 한정되며, 치료 결정은 안과 전문의가 내린다.

2023년 퓨 리서치의 조사에서 미국인의 60퍼센트가 "의료에서 AI 사용이 불편하다"고 응답했고, 75퍼센트는 "AI가 진단하더라도 인간 의사의 확인을 원한다"고 답했다. 기술의 정확도가 아니라 환자의 심리적 안전이 경계를 그리고 있다.

한국의 AI 기본법은 고영향 AI에 대한 투명성 의무를 명시했다. 한국 식약처는 2024년 기준 약 200건 이상의 AI 기반 의료기기를 허가했으나, 독립 진단 권한을 가진 기기는 하나도 없다.

세 대륙의 규제가 독립적으로 같은 결론에 도달했다.

AI의 기술적 능력이 아무리 발전해도, 고위험 의사결정에는 인간이 있어야 한다. 능력이 아니라 신뢰가 경계를 결정한다. 이 전환이 능력 기준에서 신뢰 기준으로의 이동이다.


5. 두 개의 서명 — 심사역과 컨설턴트

1470년경, 피렌체.

메디치 은행의 심사역이 브뤼헤에서 온 상인의 서류를 펼친다. 양모 거래를 위한 신용장 발행 요청이다. 심사역은 서류를 읽지만, 서류만 읽는 것이 아니다. 이 상인의 평판을 읽는다. 브뤼헤 지점에서 보낸 서신의 행간을 읽는다.

"신뢰할 만합니다"라는 한 줄이 아니라, 그 한 줄을 쓴 지점장이 자신의 이름을 걸었다는 사실을 읽는다.

심사역은 서명한다. 그 서명은 메디치 은행의 평판을 건다. 틀리면 — 상인이 양모 대금을 갚지 못하면 — 손실은 은행의 것이고, 책임은 심사역의 것이다. 서명하는 순간, 심사역은 자신의 판단에 자신을 묶는다.

3권에서 메디치 은행의 심사역이 서명 하나로 국제 무역을 보증했다. 550년 후, 같은 구조가 다른 이름으로 작동한다.

2025년, 서울 판교.

AI 윤리 컨설턴트가 자율주행 알고리즘의 의사결정 로직을 검토한다. 교차로에서 보행자와 탑승자의 안전이 충돌할 때 알고리즘이 어떤 선택을 하도록 설계되어 있는가. 시뮬레이션 데이터를 분석하고, 엣지 케이스를 점검하고, 윤리 가이드라인과의 정합성을 확인한다.

보고서를 작성한다. 마지막 페이지에 서명한다. 펜을 드는 순간 손이 잠시 멈춘다. 이 서명이 실패하면, 신문 1면에 실리는 이름은 알고리즘의 이름이 아니라 자신의 이름이다.

"이 알고리즘을 도로에 배포해도 됩니까."

그 질문에 자신의 이름으로 답한다.

두 의자 사이에 550년이 놓여 있다. 기술은 환어음에서 알고리즘으로 바뀌었다. 그러나 구조는 같다. 서명하는 인간이 자신의 평판을 건다.

틀리면 — 알고리즘이 사고를 일으키면 — 그 컨설턴트의 이름이 책임의 귀착점이 된다. 알고리즘은 평판을 잃지 않는다. 해고되지 않는다. 법정에 서지 않는다.

인간은 잃는다. 그 "잃을 수 있음"이 보증의 본질이다. 잃을 수 있는 자만이 보증할 수 있다. 이것이 메디치 심사역과 AI 윤리 컨설턴트를 잇는 구조이고, 550년간 바뀌지 않은 원리다.


오후 3시, 최은정이 302호에 다시 들어간다. 할머니가 깨어 있다. 이번에는 남편을 찾지 않는다. 최은정을 알아본다.

"은정아, 점심 먹었어?"

최은정은 웃는다. "먹었어요, 할머니."

이것은 거짓이 아니다. 진짜 대화다. 할머니의 하루에는 거짓과 진실이 교대로 온다. 아침의 거짓 — "할아버지가 금방 오실 거예요" — 이 할머니를 안정시킨 뒤, 오후의 진실이 찾아오는 리듬이 있다. 최은정은 이 교대의 리듬을 7년째 읽고 있다.

문제는 거짓말 자체가 아니다. 문제는 이 거짓말이 맞는 것인지를 최은정 자신도 모른다는 것이다. 치매 환자에게 고인의 사망 사실을 반복적으로 알리는 것이 잔인한가, 아니면 진실에 대한 환자의 권리를 존중하는 것인가. 요양보호사 교육 320시간의 커리큘럼에 "거짓말의 윤리"라는 항목은 존재하지 않는다.

최은정은 매일 아침 이 판단을 혼자 내린다. 메디치 심사역이 서명 하나에 자신의 평판을 걸었듯, 최은정은 거짓말 하나에 자신의 양심을 건다. 다만, 심사역의 서명에는 연봉이 따르고, 최은정의 거짓말에는 시급 12,000원이 따른다.


6. 돌봄의 역설, 가치의 전도

돌봄의 역설은 더 깊은 구조를 가지고 있다.

폴브르의 분석에 따르면, 돌봄 노동에는 "돌봄 벌칙(care penalty)"이 존재한다. 돌봄 직종에 종사하는 것 자체가 동일 학력, 동일 경력의 비돌봄 직종 대비 15에서 25퍼센트의 임금 불이익을 초래한다.

이 벌칙은 돌봄이 역사적으로 여성의 "자연스러운" 역할로 간주되어 전문적 노동으로 인정받지 못한 구조에서 비롯된다. 한국 요양보호사의 90퍼센트 이상이 여성이라는 사실이 이 구조를 압축한다.

마추카토의 가치론은 이 문제를 경제 체계 전체로 확장한다. GDP는 시장에서 거래되는 것만 측정한다. 가정에서 이루어지는 무급 돌봄 — 노부모 간병, 육아, 가사 — 은 GDP에 포함되지 않는다.

OECD 추정에 따르면, 무급 돌봄 노동의 경제적 가치는 GDP의 10에서 15퍼센트에 달할 수 있다. 한국의 1인 가구 비율은 2024년 기준 약 35퍼센트이고, 독거 노인 가구는 약 190만이다. 가족에 의한 비공식 돌봄이 더 이상 작동하지 않는 구조에서, 유급 돌봄 노동의 가치는 더욱 커지지만, 그 가격은 여전히 바닥에 머물러 있다.

AI 시대에 이 모순은 심화된다. AI가 인지 노동의 가격을 0에 가깝게 만들 때, 돌봄 노동의 가격은 어떻게 되는가. 보몰의 비용 질병(Baumol's cost disease)이 여기서 작동한다.

돌봄은 기술로 생산성을 높이기 어려운 영역이다. 할머니의 손을 잡는 시간을 기술로 단축할 수 없다. 다른 부문의 생산성이 AI에 의해 폭발적으로 증가하면, 돌봄 노동의 상대적 비용은 올라간다. 그러나 돌봄 노동자의 임금은 장기요양보험 수가에 묶여 있어 시장의 수요-공급 논리를 따르지 않는다.

여기에 비대칭적 전환 비용의 문제가 겹친다. 한번 AI에 맡기면 돌이키기가 극히 어렵다.

에어프랑스 447편이 그 사례다. 2009년 6월 1일, 리우데자네이루에서 파리로 향하던 에어버스 A330이 대서양에 추락했다. 피토관이 얼어붙어 속도 데이터가 사라지자, 자동조종 장치가 해제되었다. 조종사 세 명이 조종석에 있었다. 그러나 수동 비행에 익숙하지 않았다.

부기장은 기수를 올렸다. 항공역학의 기본 — 속도를 잃으면 기수를 내려야 한다 — 과 반대되는 조작이었다. 경고음이 75차례 울렸다. 3분 30초 동안 항공기는 38,000피트에서 수면까지 낙하했다. 228명이 사망했다.

자동화에 익숙해진 조종사가 수동 비행을 해야 하는 순간의 참사였다. 3권에서 분석한 이 사고의 구조는 돌봄에도 적용된다.

의료에서도 같은 패턴이 보고되고 있다. AI 내시경 보조 시스템에 의존한 전문의의 선종 발견율이 AI 없이 진단했을 때 28퍼센트에서 22퍼센트로 하락했다는 연구가 있다. 기술이 인간의 능력을 보조하는 것이 아니라, 인간의 능력을 잠식하는 역설이다.

돌봄에서 이 역설은 더 치명적이다. 요양보호사의 수를 AI 보조 시스템 도입을 근거로 줄인다면, 최은정이 새벽에 하는 일 — 할머니의 외로움을 읽고, 손을 잡고, 적절한 말을 건네는 것 — 을 할 수 있는 사람이 줄어든다.

그 능력이 사회적으로 퇴화한 뒤에 "역시 사람이 필요하다"고 판단해도, 이미 사람은 없다.

5권에서 일본의 고독사 문제와 PARO 로봇을 보았다. 로봇 물범이 노인의 손을 핥는 장면은 돌봄의 경계가 어디인지를 묻는 가장 조용한 질문이었다. 일본은 세계에서 가장 많은 간병 로봇과 세계에서 가장 많은 고독사를 동시에 보유한 국가다. 2024년 추정으로 65세 이상 고독사는 연간 약 6만 8,000명이다.

이 두 사실은 모순이 아니라 같은 구조의 두 얼굴이다. 기술은 기능을 제공하지만 관계를 제공하지는 못한다. 기능과 관계의 차이가 돌봄의 경계를 결정한다.


7. 네 영역의 윤곽

희소성이 이동한 자리에 네 영역이 드러난다. 판단, 신뢰, 돌봄, 의미.

이것은 고정된 목록이 아니라 사회적으로 협상되는 경계다. 12장과 13장에서 각각을 심화하겠지만, 여기서 윤곽을 그린다.

판단. 실존적 이해관계가 걸린 결정이다. 틀리면 사람이 죽거나 자유를 잃거나 재산을 잃는다.

중국은 AI 판사 시스템을 운용하고 있다. 단순 민사 사건에서 AI가 판결 초안을 작성하고 인간 판사가 서명하는 구조가 보편화되었다. 97퍼센트의 정확도를 주장하지만, 독립적 검증을 거치지 않았다. 그리고 핵심은 정확도가 아니다.

AI 판사가 97퍼센트 정확해도, 3퍼센트의 오류에서 "누가 책임지는가"에 대한 답이 없다. 판사는 탄핵될 수 있고, 징계될 수 있고, 역사의 심판을 받을 수 있다. 알고리즘은 이 중 어느 것도 겪지 않는다.

미국의 COMPAS 알고리즘은 재범 위험을 예측하지만, 흑인 피고인의 위양성 비율이 백인의 약 2배라는 ProPublica의 보도가 이 시스템의 편향을 드러냈다. 위스콘신 대법원은 COMPAS 점수를 양형의 "유일한 근거"로 사용할 수 없다고 판시했다. 능력이 아니라 적법 절차 — 제도적 정당성 — 가 판결의 근거였다.

자율주행에서도 같은 구조가 반복된다. 웨이모는 확장하고, 크루즈는 보행자 사고 후 사실상 해체되었다. 같은 기술, 같은 시기에 경계가 다르게 그려졌다. 기술의 실패가 아니라 신뢰의 실패였다.

신뢰. 인간 보증인이 필요한 관계적 거래다. 6장에서 김수진이 AI 거절 대출 건에서 인간만이 읽을 수 있는 가치를 발견한 것이 이 영역이다.

FICO 신용 점수가 대체한 것은 신뢰가 아니라 루틴 태스크다. 신용 이력이 없는 "씬 파일러" — 청년, 이민자, 자영업자, 경력 단절 여성 — 약 300만에서 400만 명은 알고리즘이 평가할 데이터가 부족하여 체계적으로 배제된다.

로보어드바이저 시장은 성장했지만, 100억 원을 맡길 때 고객이 찾는 것은 알고리즘이 아니라 "이 사람이 내 돈을 지키겠다는 의지가 있는가"라는 질문에 대한 답이다.

이해관계의 크기에 비례하여 인격적 신뢰의 가치가 급격히 상승한다. 소액 송금은 앱에 맡기지만, 상속은 사람에게 맡긴다. 루틴과 예외의 경계에서 신뢰의 가격이 결정된다.

돌봄. 관계 자체가 서비스인 영역이다. 최은정이 하는 일이다.

넬 나딩스(Nel Noddings)의 돌봄 윤리에 따르면, 돌봄의 완성은 돌봄 받는 자가 "이 존재가 나를 돌보고 있다"고 인지하는 것이다. AI 치료 챗봇 우봇(Woebot)은 인지행동치료 기법을 전달할 수 있다. USC의 가상 면담 시스템 엘리(Ellie)는 PTSD 선별에서 인간 면담자보다 솔직한 응답을 끌어냈다.

그러나 우봇 사용자 대부분은 우봇이 "자신을 돌보고 있다"고 느끼지 않는다. 유용한 도구를 사용하고 있다고 느낀다. 도구와 돌봄은 다르다.

엘리의 사례는 더 미묘하다. 군인들이 AI에게 더 솔직했다는 것은 AI가 돌봄을 잘 하기 때문이 아니라, 인간에게 약함을 보이는 비용이 높기 때문이다. 해법은 AI가 아니라 약함을 보여도 안전한 인간 관계의 구축이다.

의미. 공유된 유한성에서 나오는 의미 부여다.

AI 예술이 대체하는 것은 예술의 상업적 하위 기능이다. 스톡 이미지, 배경 음악, 광고 카피. 미국 저작권청은 순수하게 AI가 생성한 이미지에 대한 저작권 등록을 거부했다. 핵심 근거는 AI의 품질이 부족하다는 것이 아니었다. 저작권이 "인간 저작자"를 전제한다는 제도적 근거였다.

"이것은 인간이 만들었습니다"라는 표기가 경제적 프리미엄이 되는 현상이 이미 나타나고 있다. 에츠이(Etsy)의 수제품 시장은 AI 생성 콘텐츠의 폭발에도 연간 약 130억 달러 규모로 안정적이다. 소비자가 구매하는 것은 기능이 아니라 "유한한 인간이 시간을 들여 만들었다"는 서사다.

빅토르 프랭클은 의미의 궁극적 원천을 유한한 존재가 고통 속에서 선택하는 태도에서 찾았다. AI는 고통을 겪지 않는다. 따라서 프랭클의 프레임에서 AI는 의미의 도구는 될 수 있지만 의미의 원천은 될 수 없다.

이 네 영역은 칸막이가 아니다. 겹친다. 의사의 진단은 판단이면서 신뢰이고, 호스피스 간호는 돌봄이면서 의미다. 교사의 역할은 지식 전달이면서 신뢰 관계를 통한 의미 부여다. 변호사의 변론은 판단이면서 의뢰인과의 신뢰 관계에 기반한다.

네 영역이 중첩될수록 대체 저항이 강해진다. 한나 아렌트는 인간의 활동을 노동, 작업, 행위로 구분했다. 노동은 생존을 위한 반복이고, 작업은 지속하는 것을 만드는 것이며, 행위는 인간들 사이에서 시작하는 것이다. AI가 대체하는 것은 노동과 작업의 영역이다. 행위 — 타인 앞에 자신을 드러내고, 말하고, 약속하고, 용서하는 것 — 는 복수성(plurality)을 전제한다. 서로 다른 유한한 존재들이 함께 있어야 가능한 것이다.

종교 지도자가 모든 기술 변화를 견딘 이유가 여기에 있을 수 있다. 판단, 신뢰, 돌봄, 의미가 모두 교차하는 드문 직업이기 때문이다.


8. 문턱의 질문

최은정의 새벽으로 돌아온다.

오전 7시. 302호 할머니가 식당에 내려왔다. 슬리퍼 대신 실내화를 신고 있다. 최은정이 죽을 떠서 건넨다. 단호박죽이다. 할머니가 좋아하는 것을 최은정은 안다. 그것은 파일에 기록된 식단 선호도가 아니다. 2년 전 가을, 할머니가 단호박죽을 먹으며 "우리 어머니가 해줬던 거다"라고 말한 것을 기억하고 있기 때문이다.

할머니가 최은정의 손등을 두드린다.

"고마워, 은정아."

이름을 기억하는 날이다. 기억하지 못하는 날도 있다. 그러나 기억하든 기억하지 못하든, 할머니는 이 사람이 자신을 돌보고 있다는 것을 안다. 나딩스가 말한 돌봄의 완성이 이 식당에서, 죽 한 그릇 사이에서 일어난다.

시급 12,000원. 이 숫자는 최은정의 노동에 대한 사회의 답이다. 그 답이 틀렸다는 것을 사회도 알고 있다. 그러나 답을 고치는 것은 숫자를 바꾸는 것이 아니라 가치 측정 시스템 자체를 바꾸는 것이다. 그것은 아직 일어나지 않았다.

최은정은 돌봄에 가장 충실한 사람이지만, 시급 12,000원이라는 구조적 저평가 속에 있다. 이정훈이 28년간 축적한 기술이 "구식 데이터"로 분류되었듯, 최은정이 7년간 축적한 관계적 지식은 장기요양 수가표의 한 줄로 환원되어 있다.

이 모순을 정면으로 인정하는 것이 처방보다 먼저다.

해법을 제시하기 전에, 문제의 크기를 직시해야 한다.

AI가 인지 노동의 희소성을 해체하는 동안, 판단과 신뢰와 돌봄과 의미의 희소성이 드러나고 있다. 희소성은 사라지지 않는다. 이동한다. 그 이동의 방향을 읽는 것이 개인에게는 전략이 되고, 사회에게는 좌표가 된다.

다음 장의 이야기는 김수진(44세)에게서 시작된다. 국민은행 강남지점의 서랍에서 핀테크의 사무실로 옮겨간 김수진은, 대차대조표에 기록되지 않는 인간 판단의 가치를 발견한다. "보이지 않는 자산"이라는 이름으로.

당신의 직업에서 AI가 대신할 수 없는 것은 무엇인가. 그것은 능력의 문제인가, 신뢰의 문제인가.


11장 끝 — 리서치 소스: R-11, C-03, C-02