← 느린 정의, 빠른 질서 Vol. 4 5 / 12 English
Vol. 4 — 느린 정의, 빠른 질서

5장 — 베이징의 8개월


1. 레이어 케이크: 중국식 규제 방법론

중국의 AI 규제는 단일 법률이 아니다.

EU가 하나의 포괄법(AI Act)으로 모든 AI를 규율하려 했다면, 중국은 문제가 부상할 때마다 해당 규정을 신속하게 발행하는 방식을 택했다. "레이어 케이크" — 층층이 쌓이는 규제다. 카네기 국제평화재단의 매트 시핸에 따르면, 이 방식은 의도적이었다. "중국 규제 당국은 표적화된 AI 규정들을 순차적으로 발행함으로써, 관료적 노하우와 규제 역량을 꾸준히 축적해왔다. 알고리즘 등록부 같은 재사용 가능한 규제 도구는 다음 규정의 건설을 수월하게 하는 규제적 비계(scaffolding) 역할을 했다[주4]."

2022년 3월, 세계 최초의 알고리즘 추천 규제가 시행됐다. 틱톡(더우인)의 콘텐츠 알고리즘을 규율하는 법이 세계 어느 나라보다 먼저 중국에 생겼다.

이 규제에는 정치적 원인이 있었다. 시핸의 분석에 따르면, 알고리즘 추천 기술이 당에 제기한 위협은 구체적이었다. "당은 항상 특정 기사를 전면에 내세운 결정에 대해 담당자에게 책임을 물을 수 있었다. 토우티아오(今日头条)가 그것을 바꿨다 — 의사결정 권한을 알고리즘에 넘겨버린 것이다[주5]." 책임을 물을 사람이 사라졌다. 알고리즘이 뉴스를 배치하는 세상에서, 당의 전통적 콘텐츠 통제 방식은 작동하지 않았다. 규제는 통제력을 회복하기 위한 것이기도 했다.

그러나 이 규제의 촉발점에는 인간의 얼굴도 있었다. 2020년 9월 8일, 《런우(人物)》 잡지가 "외매 기수, 시스템에 갇히다(外卖骑手,困在系统里)"라는 탐사 보도를 냈다. 기자 라이유쉬안(赖佑玄)이 6개월간 여러 도시의 배달 기사들을 밀착 취재한 기사였다. 배달 플랫폼의 알고리즘이 배달 기사들의 배송 시간을 매 분기 단축하고 있었다. 《런우》의 보도에 따르면, 2016년 3km 배송에 최장 1시간이 주어졌고, 2017년 45분, 2018년 38분으로 줄었다. 2019년에는 업계 전체적으로 3년 전 대비 10분이 단축됐다[주6].

귀저우 출신 기사 소도(小刀)의 말이 이 구조를 가장 정확하게 포착했다. "시스템은 우리를 헬리콥터 취급하지만, 우리는 헬리콥터가 아닙니다(系统当我们是直升机,但我们不是)[주7]." 배달은 죽음과의 경주였고, 교통사고는 흔한 일이었으며, 음식만 안 쏟으면 사람이 넘어지는 건 별일 아니었다[주8].

알고리즘이 만든 시간표 안에서, 음식이 사람보다 중요했다.

2018년 청두에서만 7개월간 배달 기사 교통 위반이 약 1만 건 단속됐고, 사고 196건에 사상자 155명이 발생했다 — 하루 평균 1명의 기사가 다치거나 목숨을 잃었다[주9]. 사회학자 쑨핑(孙萍)은 이 현상을 "역(逆)알고리즘"이라 명명했다. "기수들이 교통 법규에 도전하는 행동은 오랜 기간 시스템 알고리즘의 통제와 규율 아래 어쩔 수 없이 행하게 된 노동 실천이며, 이 '역알고리즘'의 직접적 결과는 배달 기수들이 교통사고를 당하는 수가 급격히 증가한 것"이라는 분석이었다[주10].

여론이 들끓자 알고리즘 규제가 가속됐다[주11]. 카네기 국제평화재단의 분석에 따르면, 배달 노동자들의 알고리즘 관리 반대 캠페인이 중국의 플랫폼 규제에 직접적 영향을 미쳤다. 9장에서 만날 한국의 콜센터 상담사들처럼, 중국의 배달 기사들도 알고리즘에 밀린 자들이었다.

2023년 1월, 세계 최초의 딥페이크 전문 규제가 시행됐다.

2023년 8월, ChatGPT 출시 8개월 반 만에 생성형 AI 규제가 시행됐다.

2025년 9월, AI 생성 콘텐츠 라벨링 의무 규정이 시행됐다. 명시적 라벨과 묵시적(메타데이터 삽입) 라벨 모두를 의무화한 규정이었다 — 미국이 2026년 현재까지도 연방 차원에서 달성하지 못한 수준이었다.

2026년 1월, 사이버보안법 AI 관련 개정안이 시행됐다 — AI가 중국 국가 법률에 처음으로 포함된 순간이었다[주12]. 부처 규정의 레이어 케이크가 국가 법률의 영역으로 올라가기 시작한 것이다.

속도는 인상적이다. 2025년 상반기에만, 중국은 이전 3년 합산과 동일한 양의 국가 AI 요건을 발표했다는 분석이 있다[주13]. 그러나 각 규정의 공통점을 보면 다른 것이 보인다.


2. "사회주의 핵심 가치관"

생성형 AI 관리 잠정조치 제4조[주14]:

생성형 AI 서비스를 제공하는 자는 사회주의 핵심 가치관을 준수하고, 국가 정권 전복 선동, 사회주의 제도 타파, 국가 안전과 이익 침해, 국가 이미지 훼손, 국가 분열 선동, 국가 통일과 사회 안정 파괴, 테러리즘·극단주의 선동, 민족 증오와 민족 차별 조장, 폭력·음란물 전파, 허위 유해 정보 유포 등의 내용을 생성해서는 안 된다.

"사회주의 핵심 가치관." 이 조항의 집행은 전적으로 CAC의 재량에 달려 있다. 어떤 AI 출력물이 이 가치관에 반하는지를 정부가 단독으로 결정한다.

제14조는 더 직접적이다. 위법 콘텐츠를 발견했을 때, 기업은 "즉시 생성 중단, 전송 중단, 삭제 등의 처리 조치를 취해야 하며(及时采取停止生成、停止传输、消除等处置措施)" 주관 부처에 보고해야 한다[주15]. 자기검열이 법으로 의무화된 것이다.

이것이 중국 AI 규제의 핵심 구조다. 속도가 빠른 이유와 문제가 생기는 이유가 같은 곳에 있다. 합의가 없으니 빠르다. 재량이 무한하니 집행이 자의적이다.

이 자의적 집행은 구조적이다. 인기 인플루언서를 모방한 딥페이크 영상은 심층합성 규정에 따라 삭제 대상이 됐지만, 같은 기간 국가 선전 목적의 AI 생성 영상은 정부 공식 채널에서 유통됐다. 같은 법이 다르게 적용됐다. 권위주의적 규제의 효율은 이 불투명성 위에 서 있다.

디디(滴滴) 사건이 이를 극명하게 보여준다. 2021년 뉴욕증권거래소 상장 이틀 만에 CAC의 사이버보안 조사를 받고 앱스토어에서 삭제됐으며, 과징금 80.26억 위안(약 12억 달러)이 부과됐다[주16]. "하나의 사건을 처리하여 전체를 경고한다(做到查处一案、警示一片)[주17]" — 규제는 법적 집행인 동시에 정치적 메시지였다.


3. 선제적 자기검열

2021년 9월, ByteDance는 발표 하나를 했다.

더우인(중국판 틱톡) 14세 미만 사용자에게 하루 40분 사용 제한, 오후 10시~오전 6시 접속 차단을 도입한다는 내용이었다. CAC의 알고리즘 규제(2022년 3월 1일 시행)보다 6개월 앞선 조치였다.

왜 먼저 했는가. 보도와 업계 분석에 따르면, CAC의 압박을 예상한 선제 대응으로 해석된다. 규제가 오기 전에 스스로 시행하면 더 유리한 조건에서 당국과의 관계를 유지할 수 있다는 계산이었을 가능성이 높다. 기업의 자기검열이 규제를 앞질렀다.

이 장면은 중국 AI 생태계의 핵심 역학을 보여준다. 규제가 명시적으로 오기 전에, 기업들은 "선"이 어디 있는지 파악하고 그 안에서 행동한다. 선의 위치는 공식 문서에 명확히 적혀 있지 않다. 관계, 신호, 전례, 과거의 단속 패턴으로 추론한다. 제프리 딩은 이 메커니즘을 이렇게 설명했다. "중국 인터넷이 이토록 검열되는 이유의 일부는, 정치적으로 민감한 콘텐츠를 통제할 책임을 기업에 떠넘기기 때문입니다(they put the onus on companies to control their content so it's not politically sensitive)[주18]." 동시에 딩은 중국 규제의 다른 측면도 지적했다. "어떤 경우에는 기업이 먼저 실험하게 놔둔 다음 사후적으로 규제를 도입하려는 의지가 있습니다[주19]." 중국의 규제는 하향식 명령과 사후적 대응이 교차하는 혼합체였다.

이것은 법적 불확실성의 극단적 형태다.

그 불확실성의 대가를 가장 극적으로 보여준 사건이 있다. 2020년 10월 24일, 마윈(马云, Jack Ma)이 상하이 외탄금융서밋(第二届外滩金融峰会)에서 연설했다. 앤트그룹의 370억 달러 IPO — 세계 역사상 최대 규모의 상장 — 가 열흘 앞이었다. 마윈은 연단에서 규제자들을 겨냥했다. "오늘날의 은행은 여전히 전당포 사고방식을 이어가고 있습니다. 담보와 보증이 곧 전당포입니다(今天的银行延续的还是当铺思想,抵押和担保就是当铺)." 바젤 협약을 "노인 클럽(老年人俱乐部)"이라 불렀다. "기차역을 관리하는 방식으로 공항을 관리할 수 없고, 어제의 방법으로 미래를 관리할 수 없습니다(不能用管理火车站的办法管机场,不能用昨天的办法来管未来)." 그리고 한 마디를 더 던졌다. "중국 금융 분야에는 근본적으로 시스템이 없습니다. 리스크라는 것은 사실 '금융 시스템의 부재'입니다(中国的金融基本上没有体系,其风险实际上是"缺乏金融体系"的风险)[주20]." 청중석에 앉은 금융 규제 당국 관계자들의 표정이 굳었다.

열흘 뒤인 11월 3일, 상하이 증권거래소가 앤트그룹 IPO를 중단시켰다. 공식 발표는 "규제 환경의 중대한 문제"로 인해 "상장 자격 요건 또는 정보 공시 요건을 충족하지 못할 수 있다"는 것이었다[주21] — 구체적 이유는 밝히지 않았다. 공식 문서의 의도된 모호함 자체가 권력의 행사였다. 규제 당국은 마윈과 앤트그룹 경영진 징징(井贤栋), 후샤오밍(胡晓明)을 "감독 약담(监管约谈)"에 소환했다[주22]. 공식적 용어는 '면담'이었지만, 중국 기업인에게 그것은 소환장이었다. 마윈은 이후 수개월간 공개석상에서 사라졌다.

이 연설과 IPO 중단 사이의 직접적 인과관계는 공식적으로 확인된 바 없다. 중국 정치적 의사결정의 내부 메커니즘은 본질적으로 불투명하다. 그러나 시기적 연관성은 부정하기 어려우며, 카이신(财新) 등 주요 매체와 대다수 분석가들은 이 연설이 IPO 중단의 촉발점이었다고 해석한다.

ByteDance는 선을 읽고 미리 굴복한 것으로 보인다. 마윈은 선을 넘었고 대가를 치렀다. 중국 AI 생태계의 모든 기업이 이 교훈을 지켜보고 있었다.


4. 바이두의 딜레마

2023년 3월 27일, 바이두가 어니봇(文心一言, Ernie Bot)을 공개했다.

ChatGPT 출시 4개월 뒤였다. 기자회견장에서 리옌훙 창업자가 데모를 진행했다. 영상이 공개됐을 때 바이두 주가가 떨어졌다. 시장은 제품 완성도에 실망했다.

그러나 리옌훙이 우선으로 완료한 것이 있었다. CAC 파일링이었다. 어니봇은 중국에서 가장 먼저 공식 등록을 마친 대형 언어모델 중 하나가 됐다. 규제 준수 면에서 모범이 됐다. 리옌훙은 2023년 5월 애널리스트 콜에서 솔직하게 말했다. "우리는 규제 당국의 초기 단계 적극 개입이 진입 장벽을 높일 것이라고 믿습니다. 그리고 우리는 그에 대해 유리한 위치에 있습니다(We believe that regulators' active engagement in generative AI in the early stage will raise the bar to entry, and we are well positioned for that)[주23]." 규제를 경쟁 무기로 전환한 것이었다.

8월 15일 규제가 발효되자, 리옌훙은 이 규정이 "규제보다 친혁신적(more pro-innovation than regulation)"이라고까지 평가했다[주24]. 3주 이내에 바이두를 포함한 11개 기업이 생성형 AI 서비스 공개 승인을 획득했다. 그러나 1년 뒤 TIME 인터뷰에서 리옌훙의 어조에는 미묘한 이중성이 드러났다. "규제는 기술 지도보다 한 걸음이나 반 걸음 앞서 있으면 안 됩니다 — 그것은 혁신의 과속방지턱이 될 테니까요(You don't want to be one step or a half-step ahead of the technology map — because that will be a speed bump for innovation)[주25]." 동시에 그는 인정했다. "중국 정부는 친혁신적입니다. 그들은 항상 '우리는 여러분의 혁신 노력을 지지합니다'라고 말합니다. 그러나 동시에 이해관계자들의 온갖 우려도 신경 써야 합니다[주26]." 규제를 칭찬하면서도 속도를 조심해달라고 말하는 — 중국 테크 기업 수장의 이중 언어였다.

제품은 뒤졌다. 규제 준수는 앞섰다. 중국 시장에서 어느 것이 더 중요한지에 대한 바이두의 판단이었다.

2025년 3월 말 기준(4월 발표), 346개 이상의 생성형 AI 서비스가 CAC에 공식 파일링을 완료했다[주27]. 이들은 허가된 기업이다. 파일링을 하지 않은 서비스는 중국에서 운영할 수 없다. 허가받은 생태계가 만들어지는 것이다.

이 구조의 논리는 단순하다. 규제가 진입 장벽이 되면, 이미 허가받은 기업이 유리해진다. 바이두는 어니봇의 완성도보다 파일링 완료가 더 중요하다는 것을 알았다.

모든 기업이 같은 선택을 한 것은 아니었다. 2023년 7월에 설립된 DeepSeek의 창업자 량원펑(梁文锋)은 다른 길을 택했다. 소비자 서비스가 아닌 연구 프로젝트로 포지셔닝하여 생성형 AI 잠정조치의 적용 대상에서 사실상 벗어났다[주28]. 그는 2024년 7월 《안용(暗涌)》 인터뷰에서 말했다. "우리는 의도적으로 메기가 되려 한 것이 아닙니다. 그냥 어쩌다 보니 메기가 된 것입니다(我们不是有意成为一条鲶鱼,只是不小心成了一条鲶鱼)[주29]." 규제를 우회하는 것 자체가 혁신의 조건이 된 생태계였다. 량원펑은 중국 AI 업계의 구조적 문제를 정면으로 진단했다. "중국 AI가 영원히 추종자 위치에 있을 수는 없습니다. 우리는 중국 AI와 미국이 1~2년 차이난다고 자주 말하지만, 실제 격차는 창조와 모방의 차이입니다(真实的gap是原创和模仿之差)." 그리고 덧붙였다. "대부분의 중국 기업들은 혁신이 아닌 팔로우에 익숙합니다(大部分中国公司习惯follow,而不是创新)[주30]."


5. 속도의 구조적 원인

왜 중국은 8개월 만에 규제를 만들 수 있는가.

입법 경로가 생략되기 때문이다. CAC가 발행하는 것은 부처 규정(部门规章)이다. 전인대(의회) 심의가 필요 없다. 30일 공개 의견 수렴이 있지만, 야당의 체계적 반박, 독립 언론의 비판, 시민단체의 조직적 압력이 없다. 집행 권한이 CAC에 집중되어 있어 — 면허 발급, 콘텐츠 삭제, 영업 정지, 과징금 부과를 단일 기관이 모두 처리한다 — 복수 기관이 조율할 필요도 없다.

빠른 규제를 만드는 다섯 가지 조건이 있다고 한다면:

중국은 다섯 가지를 모두 갖추고 있다. 그리고 바로 그 다섯 가지가 빠른 규제와 함께 자의적 집행을 만든다.

이 속도가 실질적 결과를 낸 영역도 있다. 중국에서는 2021년에 이미 더우인 14세 미만 사용자 시간 제한이 시행됐고, 같은 해 개정 미성년자보호법이 발효됐다[주31]. 미국은 2026년 현재도 연방 차원의 포괄적 청소년 보호 법안이 없다 — 미국식 논의-지연과 중국식 명령-시행 사이에서 실제 피해를 입는 것은 10대들이다.


6. 속도와 정당성의 트레이드오프

1장에서 우리는 아우구스투스를 보았다. 그라쿠스의 느린 정의가 좌절된 자리에 아우구스투스의 빠른 질서가 왔다. 팍스 로마나 206년. 그러나 자기 교정 능력이 사라졌고, 폭군이 등장했다.

중국 AI 규제는 빠른 질서의 현대판이다. 세계 최초의 알고리즘 규제, 최초의 딥페이크 규제, 8개월의 생성형 AI 규제. 속도는 실재한다. 청소년 보호처럼 실질적 효과도 있다.

그러나 같은 구조가 "사회주의 가치관"이라는 무한 재량 조항을 만들었다. 어떤 AI 출력물이 위험한지를 국가가 단독으로 결정한다. 기업들은 선의 위치를 추측하며 행동한다. 스탠퍼드대 제니퍼 판과 프린스턴대 쉬쉬의 2026년 연구(PNAS Nexus 게재)에 따르면, 바이촨(BaiChuan), ChatGLM, 어니봇, 딥시크 등 중국산 LLM과 GPT-3.5, GPT-4, Llama2 등 비중국산 모델을 145개 정치적 질문으로 비교한 결과, 바이촨은 정치적 질문의 60.23%를 거부했고, 딥시크도 약 36%를 거부했다. 미국산 모델의 거부율 0~2.8%와 극명하게 대비되는 수치다[주32].

검열은 단순히 특정 출력을 차단하는 것이 아니다. 시카고대학의 야추 왕(전 Human Rights Watch 중국 연구원)은 이 구조적 차이를 짚었다. "정치적 검열은 모델이 '민감한' 정치적 콘텐츠를 생성하지 않는 것만의 문제가 아닙니다 — 모델의 기저 훈련 데이터 분포 자체를 왜곡합니다[주33]." 모델이 학습하는 세계 자체가 편향되면, 출력의 편향은 필연적이다. 왕은 미국과 중국 모델 제한의 핵심적 차이도 지적했다. "핵심적 구분은 의도입니다. 미국 모델의 제한은 일반적으로 안전 목적이며, 적어도 원칙적으로는 공개 토론에 열려 있습니다. 중국의 모델은 국가 주도이며, 이의 제기의 경로가 없습니다(no avenue for appeal)[주34]."

노골적 검열보다 더 만연한 것은 '연성 검열(soft censorship)' — 직접 거부 대신 화제를 전환하거나 정부 관점을 자연스럽게 삽입하는 방식이다[주35]. 검열이 보이지 않을수록, 그것은 더 효과적이다.

카네기 국제평화재단의 매트 시핸은 이 구조의 본질을 짚었다. "이 규제들은 중국 시민에게 중국 기업으로부터의 의미 있는 보호를 제공합니다. 그러나 당-국가의 행위로부터 같은 수준의 보호를 제공하지는 않습니다(The regulations provide Chinese citizens with meaningful protection from Chinese companies, but they do not provide that same protection from the actions of the party-state)[주36]." 시민을 기업의 알고리즘으로부터 보호하면서, 국가의 알고리즘적 통제에는 면역을 부여하는 비대칭.

그러나 시핸 자신이 지적했듯이, 중국의 AI 거버넌스 체제가 단순히 공산당 지도부의 하향식 명령으로만 만들어진 것은 아니다. "이 규정들은 당-국가 내외부의 다양한 행위자들이 참여하는 역동적이고 반복적인 정책 결정 과정의 산물[주37]"이라는 분석이다. 알고리즘 투명성 규정은 EU의 DSA보다 앞섰고, 2021년 테크 단속에서 알리바바 독점금지 과징금(28억 달러)과 연 이자율이 수천 퍼센트에 달했던 약탈적 P2P 대출 구조 해체는 서구가 논의만 하던 수준의 소비자 보호였다[주38]. "권위주의 = 나쁜 규제"라는 이분법은 이 복합적 현실을 담지 못한다. 문제는 같은 속도와 같은 집행력이 시민 보호와 국가 통제를 동시에 가능케 한다는 데 있다 — 한 가닥만 검토해서는 그물 전체를 평가할 수 없다.

2030년에 EU AI Act와 중국 AI 규제를 나란히 놓으면, 어느 쪽이 더 나은 규제였는지 판단할 수 있을 것이다. 지금은 아직 모른다.

다음 장에서 우리는 워싱턴으로 간다. EU의 3년도, 중국의 8개월도 아닌 세 번째 답이 있다. 규제하지 않는 것이다.