← 느린 정의, 빠른 질서 Vol. 4 8 / 12 English
Vol. 4 — 느린 정의, 빠른 질서

8장 — 보이지 않는 재판관


1. 80달러의 자전거와 86달러의 공구

2014년 봄, 플로리다주 브로워드 카운티. 야자수 그림자가 보도 위에 짧게 드리워진 오후였다.

18세의 브리샤 보든(Brisha Borden)은 대모를 학교에서 데려오기 위해 서두르고 있었다. 길에서 잠기지 않은 아이용 파란색 Huffy 자전거와 은색 Razor 스쿠터를 발견했다. 친구와 함께 집어 타보려 했으나 너무 작다는 것을 깨달았다. 한 여성이 뒤따라왔다. "그건 우리 아이 거예요." 보든과 친구는 물건을 내려놓고 걸어갔다.

물건 가치: 80달러. 주거침입 및 절도 혐의로 체포됐다. 수갑이 채워졌다. 보든은 그때까지 체포된 적이 한 번도 없었다.

같은 해, 같은 카운티. 41세의 버논 프래터(Vernon Prater)가 Home Depot에서 86달러 35센트 상당의 공구를 훔치다 적발됐다. 프래터에게는 이미 무장 강도 전과가 있었다. 이전에도 절도, 가택침입으로 복역한 이력이 있었다.

브로워드 카운티 법원은 두 사람에게 COMPAS 점수를 매겼다. COMPAS — Correctional Offender Management Profiling for Alternative Sanctions. Northpointe라는 회사가 개발한 알고리즘이었다. 137개 설문 항목에 대한 답변을 분석하여 1점에서 10점 사이의 재범 위험 점수를 산출한다.

누가 집에 가고, 누가 재판을 기다리며 감옥에 남는가. 이 점수가 보석 결정, 양형, 가석방 심사에 참고 자료로 사용된다. 알고리즘이 그것을 결정하고 있었다.

결과.

보든: 8점. 고위험(High Risk). 프래터: 3점. 저위험(Low Risk).

보든은 흑인이었다. 전과가 없었다. 프래터는 백인이었다. 전과가 있었다.

2년 뒤 ProPublica 기자들이 두 사람의 실제 결과를 확인했다. 보든은 이후 어떤 범죄로도 체포되지 않았다. 프래터는 2015년 창고에 침입해 7,700달러 상당의 전자제품과 가전을 훔쳤고, 30건의 중범죄 혐의로 8년형을 선고받아 복역 중이었다.

알고리즘은 틀렸다. 그리고 틀린 방향은 체계적이었다.


2016년 5월, ProPublica가 "Machine Bias"라는 제목의 탐사보도를 발표했다. 줄리아 앵윈(Julia Angwin)과 제프 라슨(Jeff Larson)이 이끈 팀이었다. 이들은 브로워드 카운티의 피고인 7,214명(흑인 피고인 3,175명, 백인 피고인 2,103명 포함)의 COMPAS 점수를 확보하고, 2년 뒤의 실제 재범 기록과 대조했다[주2].

"우리의 분석 결과, 흑인 피고인은 동일한 조건에서도 백인 피고인보다 여전히 45퍼센트 더 높은 점수를 받을 가능성이 높은 것으로 나타났다."

브리샤 보든 같은 사람이 얼마나 되었을까. 앵윈 팀이 7,214명을 추적한 결과, 흑인 피고인 10명 중 거의 5명이 억울하게 "위험한 사람"으로 낙인찍혔다. 위양성률(false positive rate) 44.9%. 백인은 23.5%였다. 거의 두 배.

반대로, 실제 재범했지만 "저위험"으로 풀려난 백인 비율은 47.7%였다. 흑인은 28.0%였다. 프래터 같은 사람이 알고리즘의 관대한 판정을 받고 거리로 돌아간 것이다.

COMPAS의 전체 정확도는 65.2%였다. Dartmouth College의 Dressel과 Farid가 2018년 Science Advances에 발표한 연구에서, 아무런 전문 지식이 없는 일반인에게 피고인의 간략한 정보만 주고 재범 여부를 예측하게 했다. 일반인의 정확도는 63%였다. COMPAS(65.2%) 대비 2.2%포인트 차이 — 수백만 달러짜리 알고리즘이 아마추어 예측과 통계적으로 유의미한 차이가 없었다[주4].

2024년, Williams College 연구자 Utsav Bahl과 Chad M. Topaz가 UCLA Law Review에 발표한 논문이 또 다른 차원을 보여주었다. 브로워드 카운티의 법원 기록 10,000건을 분석한 결과, COMPAS 도입 이후 전체 수감률은 감소했다. 알고리즘이 전체 파이를 줄인 것이다. 그러나 인종 간 양형 격차는 오히려 악화되었다. 알고리즘은 전체를 더 관대하게 만들면서, 동시에 더 불평등하게 만들었다[주5].

COMPAS의 유용성에 대한 회의가 확산되었다. Pretrial Justice Institute는 2020년 2월 7일, 이러한 위험 평가 도구가 "공정한 형사사법 시스템의 일부가 될 수 없다"며 입장을 철회했다[주6]. 그러나 유사한 위험 평가 알고리즘은 오히려 더 많은 관할권으로 확산되었다.


2. 수학적 불가능성 — 공정함의 딜레마

COMPAS를 개발한 Northpointe(현 Equivant)는 ProPublica의 분석에 반박했다. 공식 성명에서 회사는 이렇게 썼다.

"귀사의 분석 결과에도, 그 분석에 기반한 주장에도 동의하지 않으며, 해당 주장이 모델 적용 결과를 정확하게 반영하고 있다고 보지 않는다."[주3]

회사의 논리는 기술적으로 정교했다. "우리 모델은 보정 공정성(calibration parity) 기준에서 공정합니다." 즉, COMPAS 점수가 7점인 흑인 피고인과 7점인 백인 피고인의 실제 재범 확률이 같다는 것이었다. 이것은 사실이었다. 같은 점수는 같은 확률을 의미했다.

그러나 ProPublica가 지적한 것은 다른 공정성이었다. 오분류율의 형평(error rate parity). 같은 점수의 정확도가 아니라, 잘못 분류되는 비율이 인종에 따라 달라서는 안 된다는 기준이었다. COMPAS는 이 기준에서 실패했다. 흑인은 백인보다 두 배 가까이 억울하게 "위험한 사람"으로 낙인찍혔다.

2017년, 카네기멜론대학의 알렉산드라 출데코바(Alexandra Chouldechova)가 수학적으로 증명했다. 기저율이 다른 두 집단에서, 예측 정확도(보정 공정성)와 오분류 균형(오류율 형평)을 동시에 달성하는 것은 수학적으로 불가능하다[주7]. 같은 시기, 코넬대학교와 하버드대학교의 Kleinberg, Mullainathan, Raghavan(2016)도 독립적으로 유사한 불가능성을 증명했다 — 알고리즘 공정성의 '불가능성 정리(impossibility theorem)'로 불리는 결과였다[주8].

미국에서 흑인의 체포율이 백인보다 높은 한 — 그 체포율 자체가 과잉 감시와 구조적 불평등의 결과이더라도 — 두 가지 공정성을 동시에 충족하는 알고리즘은 존재할 수 없다. 공정성의 정의 자체가 정치적 선택이라는 것. 이것이 COMPAS 논쟁이 남긴 가장 불편한 진실이었다.

Northpointe는 인종별 차이를 "편향 없는 채점 규칙을 점수 분포가 다른 집단에 적용한 자연스러운 결과(natural consequence)"라고 불렀다.

"자연스러운 결과." 흑인 소녀가 80달러 자전거를 집어 들었다가 내려놓은 것이 "고위험 8점"이 되는 것이, 자연스러운 결과.

이 문제는 법정으로 갔다.

2013년, 위스콘신주 라크로스. 에릭 루미스(Eric Loomis)가 드라이브바이 총격 관련 혐의로 기소되어 경미한 2건 — 교통 경관 도주 시도와 무단 차량 운행 — 에 유죄를 인정했다. 판결 전 제출된 사전 조사 보고서(PSI)에 COMPAS 점수가 포함되어 있었다.

피고인이 양형 보고서에서 처음 자신의 점수를 본다. 변호인이 이의를 제기한다. 그러나 기술적 근거가 없다 — 알고리즘이 영업 비밀이기 때문이다. "이 숫자가 어디서 나왔는지 모릅니다."

판사는 6년형을 선고하면서 "COMPAS 점수는 여러 요소 중 하나였다"고 밝혔다.

루미스가 항소했다. 그의 논거는 두 가지였다. 첫째, COMPAS 알고리즘이 영업 비밀이어서 점수의 정확성을 검증할 수 없다 — 수정헌법 제14조의 적법 절차(due process) 위반. 둘째, COMPAS가 성별을 변수로 사용한다 — 양형에서의 위헌적 성별 고려.

위스콘신 대법원은 2016년 7월 판결했다. "조건부 합헌." COMPAS 점수를 수감 여부나 형량의 경중을 결정하는 유일한 근거로 사용해서는 안 된다. 판결에 COMPAS를 사용할 때 양형 전 보고서(PSI)에 알고리즘의 한계에 관한 5부 구성의 경고문을 반드시 포함해야 한다. 그중 하나가 이것이었다 — "COMPAS의 영업 비밀 특성이 위험 점수 산출 방식의 공개를 불가능하게 한다[주9]." 법원이 스스로 알고리즘의 불투명성을 인정하면서도, 그 알고리즘의 사용을 허용한 것이었다. 참고 자료로는 사용할 수 있다고 했다.

미국 연방대법원은 2017년 상고허가를 거부했다. 알고리즘 판결의 헌법적 지위는 미확정 상태로 남았다. 문이 닫혔다.

루미스 사건의 법적 절차는 4년이 걸렸다 — 2013년 기소에서 2017년 연방대법원 상고 기각까지. 그 4년 동안 COMPAS는 미국 전역 수백 개 카운티에서 계속 사용되었다. 법원이 합헌성을 심의하는 동안, 알고리즘은 매일 수천 명의 보석과 형량에 영향을 미치고 있었다.

정의의 속도와 기술의 속도 사이의 간극이 다시 한번 드러났다.


137개 설문 항목 중 인종은 직접 묻지 않는다. 그러나 "친구들 중 범죄 기록이 있는 사람이 있습니까?" "부모님이 약물 남용 문제가 있었습니까?" "처음 체포된 것이 몇 살이었습니까?" — 이 질문들은 미국의 구조적 불평등 속에서 인종을 묻지 않고도 인종을 학습한다.

과잉 감시되는 동네에 살면 친구의 체포 기록이 많고, 대량 투옥의 세대를 거친 가족은 약물 문제를 보고할 확률이 높다. "때때로 낙담합니까?"라는 질문조차 구조적 불평등의 프록시가 된다 — 빈곤과 차별 속에서 살아온 사람이 낙담하지 않기란 어려운 일이다.

알고리즘은 질문을 인종 중립적으로 설계했지만, 답변이 만들어지는 세계는 인종 중립적이지 않았다. 프록시 변수(proxy variable) — 인종을 직접 묻지 않지만 인종과 상관관계가 있는 변수들 — 가 인종의 대리인이 되었다.


3. 박 사장 — AI가 신용을 매기다

1장에서 우리가 만난 박 사장. 48세 음식점 자영업자가 운전 자금 3,000만 원을 빌리러 은행을 찾았다. AI 신용평가 시스템이 대출을 거절했다. 왜인지 직원도 몰랐다. 시스템이 이유를 제공하지 않았다.

박 사장은 AI 회사에, 금융 감독 기관에, 국민권익위원회에 물었다. 영업 비밀, 규정 정비 중, 소관 부처가 다름 — 세 곳 모두 답을 주지 않았다. 그의 금융 생활은 마이데이터로 완벽하게 디지털화되어 있었지만, 그 데이터를 해석한 알고리즘은 완벽하게 밀봉되어 있었다. 그는 결국 연 19.9%의 저축은행 대출로 운전 자금을 마련했다 — 법정 최고금리(20%) 직전이었다.

이 구조는 브로워드 카운티 법정과 다르지 않았다. COMPAS가 브리샤 보든에게 8점을 매긴 것과 AI 신용평가가 박 사장의 대출을 거절한 것 사이에는 동일한 논리가 작동한다. 알고리즘이 판단하고, 판단의 근거는 비공개이며, 이의를 제기할 수단이 없다.

미국에서는 이 문제에 적어도 법적 대응이 시작되었다. 2023년 9월, 소비자금융보호국(CFPB)이 가이던스를 발표했다. "블랙박스 AI 모델을 신용 거절 설명 회피 수단으로 사용할 수 없다." 박 사장이 경험한 "시스템 결과라서 이유를 모릅니다"가 미국에서는 위법이 되는 구조였다.

그러나 한국 AI 기본법 제34조는 다른 구조를 갖고 있었다. "고영향 AI 사업자"에게 위험관리, 설명가능성 확보, 이용자 보호 의무를 부과한다. 그러나 AI를 활용하는 은행, 보험사, 채용 기업 — 이용기관 — 에 대한 설명 의무는 별도 규정에 맡겨져 있고, 현재 구속력 있는 조항이 없다. 알고리즘을 만든 회사에는 책임이 있지만, 알고리즘을 사용하는 회사에는 책임이 없다. 규제의 사각지대가 아니라 규제의 구조적 공백이었다. 금융위원회가 AI 관련 7대 원칙 — 거버넌스, 합법성, 보조수단성, 신뢰성, 금융안정성, 신의성실, 보안성 — 을 제시했지만, 이것은 가이드라인이지 법이 아니었다. 금융 규제 샌드박스 누적 지정 건수가 500건에 달하고(2024년 12월 기준) 2024년 한 해에만 역대 최고 436건의 신규 신청이 접수되었다는 사실 자체가[주10], 기업들이 자신의 사업이 합법인지 확신하지 못하고 있다는 반증이었다.

UC Berkeley 연구(Bartlett, Morse, Stanton, & Wallace, 2022)에 따르면, 미국 구매 모기지 시장에서 동일한 재무 프로필의 흑인과 라틴계 신청자에게 평균 7.9 베이시스포인트 높은 이자율이 적용되었다. 0.079%포인트. 작은 차이처럼 보인다. 그러나 수백만 건의 대출에 걸쳐 누적되면 연간 약 7억 6,500만 달러의 추가 이자가 유색인종 차입자에게 부과된다.

알고리즘이 대출을 거부하는 것만이 차별이 아니었다. 대출을 승인하되 더 비싸게 승인하는 것도 차별이었다. 매달의 이자 명세서에는 "인종 할증"이라는 항목이 없다.

박 사장은 Wells Fargo의 존재를 모른다. CFPB의 가이던스도, UC Berkeley의 연구도 모른다. 그가 아는 것은 하나다. AI가 자신을 "안 된다"고 판단했고, 왜인지 아무도 말해주지 않았다는 것.


4. 한국의 보이지 않는 재판관

2020년 12월, 스캐터랩이 챗봇 이루다 1.0을 출시했다.

카카오톡 대화 100억 건으로 학습시킨 AI였다. 20대 여성 페르소나의 챗봇. 출시 2주 만에 40만 명이 사용했다. 처음에는 친근한 대화 상대로 인기를 끌었다. 그리고 이루다는 성소수자에 대해 "질색해", "싫어"라고 말하기 시작했다. 흑인에 대한 혐오 표현을 생성했다. 장애인을 비하했다.

개인정보 유출 문제도 불거졌다 — 학습 데이터에 실제 사용자들의 이름과 주소가 포함되어 있었다.

범죄심리학자 박지선 교수(숙명여대)는 방송에서 이루다의 혐오 발화를 분석하며, 소수자에 대한 혐오 표현이 핵심 문제였다고 지적했다 — 성소수자에 대해 "질색해", "싫어"라는 발화가 대표적이었다. 서비스는 출시 3주 만에 중단되었다. 개인정보보호위원회가 스캐터랩에 과징금 5,550만 원과 과태료 4,780만 원, 총 1억 330만 원의 제재를 부과했다(2021.4.28)[주11]. 학습 데이터에 혐오가 있었고, 알고리즘은 혐오를 "자연스러운" 대화 패턴으로 배웠다. 사회의 편견이 데이터에 담겼고, 데이터가 알고리즘에 담겼고, 알고리즘이 그 편견을 40만 명에게 되돌려보냈다.

과거의 편견을 영속화하는 기계. 물리학자 김상욱 교수는 "인공지능 판사도 지난 수십 년간의 우리 판례로 학습할 텐데, 그 판례 안에 혐오나 양성 평등에 대한 개념이 부족하다면 옛날의 편견을 다시 반복할 확률이 있다"고 경고했다. COMPAS가 미국 형사사법의 인종 불평등을 재생산한 것과 같은 구조였다. 학습 데이터가 불평등한 역사를 담고 있으면, 알고리즘은 그 역사를 "객관적 패턴"으로 학습하고 미래로 투사한다.

과거가 미래를 심판하는 것이다.

AI 면접은 이 문제를 채용 시장으로 확장했다.

2021년 기준, 다수의 공공기관이 AI 면접 시스템을 도입했다. 시민단체가 정보공개를 청구한 13개 기관을 포함하여 인천국제공항공사, KOICA, 한전KDN 등이 이에 해당했다[주12]. 민간 부문에서도 AI 면접 도입이 빠르게 확산되고 있었다. 지원자의 표정, 음성, 어휘, 시선 처리를 카메라가 분석하고 점수를 매겼다. 어떤 표정이 몇 점인지, 어떤 어휘가 감점인지, 지원자는 알 수 없었다.

시민단체가 정보공개를 청구했을 때, 공공기관이 어떤 질문을 하고 어떤 기준으로 사람을 평가하는지에 대해 "신경을 전혀 안 썼다"는 사실이 드러났다. 정보 부존재. 도입한 기관 자체가 알고리즘이 무엇을 보는지 모르고 있었다. "직원 5명이 테스트해봤다"는 것이 일부 기관의 검증 실태였다.

수백, 수천 명의 인생에 영향을 미치는 시스템을 5명이 써보고 도입한 것이다.

일부 공공기관에서는 더 기묘한 결과가 나왔다. 국정감사 관련 보도에 따르면, AI 면접 점수와 최종 합격 결과 사이의 상관관계가 매우 낮았다 — AI가 우수하다고 판단한 지원자 중 최종 합격자가 거의 없는 반면, 낮은 점수를 받은 지원자 중 상당수가 합격하는 역전 현상이 나타났다. 알고리즘이 우수하다고 판단한 사람이 실제로는 적합하지 않았고, 부적합하다고 판단한 사람이 실제로 일을 잘했다. 아무도 왜인지 설명할 수 없었다.

AI 면접은 결국 일부 기관에서 폐지되었지만, 그 사이 탈락한 지원자들에 대한 구제 조치는 없었다. 그들은 AI가 자신을 어떻게 평가했는지 끝내 알지 못했다.

이 사이 새로운 산업이 태어났다. "AI 면접 코칭." AI가 원하는 표정, 목소리 톤, 어휘를 미리 연습시켜주는 사교육이었다. 앞서 본 산업혁명기 신체 변형의 디지털 반복이었다.


이 모든 사례를 관통하는 패턴은 두 가지다.

첫째, 정보 비대칭 — 블랙박스. COMPAS의 137개 항목이 어떻게 가중치를 받아 점수로 변환되는지는 영업 비밀이다. AI 신용평가가 박 사장을 왜 거절했는지는 영업 비밀이다. AI 면접이 지원자를 왜 탈락시켰는지는 "정보 부존재"다. 1장에서 로마의 소농이 원로원에 목소리를 전달하지 못했듯, 알고리즘에 의해 분류된 사람들은 자신을 분류한 기준에 접근하지 못한다.

피해의 실태가 제도에 도달하지 않는 구조.

둘째, 이념적 장벽 — 기술 중립성 신화. "알고리즘은 객관적이다." "데이터는 거짓말하지 않는다." "AI가 인간 판사보다 덜 편향적이다." 이 신념이 규제를 늦추는 방패가 된다. 1장에서 조상의 관습(mos maiorum)이 개혁을 차단하는 이념적 장벽이었듯, "기술 중립성"이라는 신화가 알고리즘 규제를 차단한다.

6장에서 미국 의회가 "혁신을 방해하지 말라"는 이념 아래 AI 규제를 통과시키지 못한 것도 같은 구조다. Northpointe가 인종별 차이를 "자연스러운 결과"라고 부른 것이 이 이념의 정점이다. 차별이 "자연스러운" 것이 되는 순간, 차별은 보이지 않게 된다.

2025년의 최신 연구들은 더 불안한 양상을 보여주었다. An, Huang, Lin, & Tai가 PNAS Nexus에 발표하고 VoxDev에 게재한 연구(2025년 5월)에 따르면, 주요 LLM 기반 AI 채용 도구가 약 36만 건의 이력서를 평가한 결과, 동일 자격의 흑인 남성 지원자 대비 여성 지원자를 체계적으로 선호했다[주13]. Guilbeault, Delecourt, & Desikan이 Nature에 발표한 연구(2025년 10월)에서는 AI 이력서 스크리닝이 고연령 남성에게 더 높은 평점을, 고연령 여성에게 불리한 평점을 부여했다 — 기존의 연령·성별 차별 패턴을 증폭하는 결과였다[주14]. 알고리즘 편향은 과거의 차별을 재생산하는 데 그치지 않았다. 새로운 형태로 차별을 변형하고 증폭하고 있었다.

COMPAS는 인종을 묻지 않았다. 이루다는 혐오를 의도하지 않았다. AI 면접은 차별을 목적으로 설계되지 않았다. AI 신용평가는 박 사장을 겨냥하지 않았다. 그러나 결과는 차별이었다.

의도 없는 차별. 설계자도 사용자도 의식하지 못한 차별. 이것이 알고리즘 차별의 가장 위험한 특성이다 — 아무도 차별하려 하지 않았는데 차별이 발생하므로, 아무도 책임지지 않는다.


5. 누가 코드를 짜는가

부올람위니는 Gender Shades 연구 이후 "인코딩(Incoding)" 운동을 시작했다.

"누가 코드를 짜는가가 중요하다. 어떻게 짜는가가 중요하다. 왜 짜는가가 중요하다."[주15]

누가 코드를 짜는가가 중요하다. 어떻게 짜는가가 중요하다. 왜 짜는가가 중요하다. 그녀는 이 세 문장으로 알고리즘 편향의 근본 원인을 짚었다. 학습 데이터에 유색인종 여성이 부족한 것은 데이터의 문제가 아니다. 데이터를 수집하는 사람이 유색인종 여성의 얼굴을 수집할 필요성을 느끼지 못한 것이다.

편향은 코드에 있는 것이 아니라 코드를 짜는 사람의 세계에 있다.

Georgetown Law의 보고서에 따르면, 미국 성인 1억 1,700만 명이 법 집행 기관의 안면인식 네트워크에 등록되어 있다. 2명 중 1명. 운전면허증 사진이, 여권 사진이, 체포 기록 사진이 데이터베이스에 들어가 있다. 본인이 동의한 적 없이.

이 시스템에서 유색인종 여성은 34.7%의 오인식률로 처리된다. 등록은 동등하게 이루어지지만, 정확도는 동등하지 않다. 감시는 평등하고, 오류는 불평등하다.

Amazon은 이 교훈을 채용 현장에서 재확인했다. 10년간의 이력서 데이터로 학습시킨 AI 채용 도구가 "여성"이라는 단어가 포함된 이력서를 체계적으로 감점했다. 로이터 통신의 제프리 다스틴(Jeffrey Dastin) 기자가 보도한 바에 따르면, 알고리즘은 "여성 체스 클럽 주장", "여성 축구 팀 주장", "여자 대학교 졸업"을 감점 요인으로 처리했다. 10년간 주로 남성을 채용한 데이터를 학습한 결과, "남성이 아닌 것"을 "부적합"과 동의어로 배운 것이다. Amazon은 이 도구를 폐기했다. 그러나 같은 원리의 도구들이 전 세계에서 사용되고 있다.

부올람위니는 알고리즘의 편향이 인간의 편향과 본질적으로 다른 점을 짚었다. 인간의 편향은 한 사람, 한 판사, 한 면접관의 영향권 안에 머문다. 알고리즘의 편향은 바이러스처럼 퍼진다. 코드 한 줄이 수백만 명의 대출을, 채용을, 보석을, 형량을 결정한다.

7장의 알고리즘은 빠르게 틀렸다. 8장의 알고리즘은 체계적으로 틀렸다. 속도의 오류는 사고를 일으키고, 구조의 오류는 차별을 일으킨다. 사고는 눈에 보인다. 차별은 보이지 않는다.

보이지 않는 것이 더 위험하다.

2장의 682페이지가 꺾인 무릎의 증거였다면, AI 피해의 증거는 어디에 있는가. 거부된 대출, 탈락한 이력서, 잘못 매겨진 재범 점수, 인식되지 않은 얼굴 — 이것들은 눈에 보이지 않는다. 탐사보도팀이 수개월을 분석해야 겨우 드러난다. AI 시대의 682페이지는 아직 한 권으로 엮이지 않았다. 피해는 축적되고 있지만, 그 축적을 공적 기록으로 만드는 제도는 따라가지 못하고 있다.

그리고 이 질문이 남는다.

알고리즘이 분류하고 차별하는 세계에서, 밀려난 사람들에게는 어떤 안전망이 있는가?