도입부: 월요일 아침의 충격파
2025년 1월 27일, 월요일 오전 9시 30분.
뉴욕 증권거래소(New York Stock Exchange, NYSE) 개장 종이 울렸다. 3분이 지나지 않아 NVIDIA 주가가 하락하기 시작했다. 처음에는 완만했다. 5%. 7%. 그리고 가속됐다.
오후 4시 폐장. 최종 낙폭 -17%.
하루 만에 사라진 시가총액은 약 6,000억 달러였다. 사우디아라비아의 국내총생산(GDP)에 맞먹는 금액이 하루 만에 증발했다. 역사상 단일 종목 최대 시가총액 증발 기록이었다.
원인은 미국 기업이 아니었다. 중국 저장성(浙江省) 항저우(杭州)의 스타트업이 주말에 조용히 공개한 오픈소스 AI 모델 하나였다. 딥시크-R1(DeepSeek-R1).
수치는 단순했다. 미국 오픈에이아이(OpenAI)의 최신 추론 모델 o1과 벤치마크 성능은 동등했다. 그런데 API 비용은 20배에서 50배 더 쌌다. 훈련에 사용한 GPU 수는 미국 선두 AI 연구소의 10분의 1도 되지 않았다.
월스트리트 트레이더들이 자문했다. "우리가 수천 억 달러를 GPU 구매에 쏟아부은 전략이 맞는 것이었나?"
빅테크 4사의 2026년 AI 설비투자(Capital Expenditure, CapEx) 합산 전망은 6,350억 달러에서 6,650억 달러 사이였다. NVIDIA 혼자 그 공급망 가운데 앉아 있었다. 딥시크는 그 전제를 흔들었다.
그러나 딥시크 쇼크를 한 기업의 성공 이야기로 읽으면 핵심을 놓친다.
더 근본적인 질문이 있다. 미국이 수출 규제로 중국 AI를 봉쇄하려 했는데, 그 규제가 오히려 다른 종류의 혁신을 강제한 것은 아닌가. 제약이 혁신을 억제하는가, 아니면 촉진하는가. 1권의 언어로 말하면 — 제재 속에서 중국의 '읽은 자들'은 어떤 시스템을 만들어내고 있는가.
이 챕터에서 독자는 네 가지 유형의 중국 읽은 자를 만난다.
딥시크의 량원펑(梁文锋)은 GPU 결핍을 효율성 혁신의 연료로 바꿨다. 화웨이(华为)는 미국 제재에 대한 응답으로 자체 AI 칩 생태계를 구축하고 있다. 바이트댄스(字节跳动, ByteDance)의 장이밍(张一鸣)은 전 세계인의 주의(attention)를 포획하는 알고리즘을 설계했다. 핀둬둬(拼多多)의 황쩡(黄峥)은 중국 제조업과 전 세계 소비자를 직접 연결하는 시스템을 만들었다.
이들 각각의 시스템이 어떻게 작동하는지, 그리고 그 시스템에 어떤 한계가 내장되어 있는지를 본다.
섹션 A: 딥시크 — 제약이 설계한 혁신
량원펑의 2021년 결정
2021년 가을, 항저우 시내의 한 사무실. 량원펑(梁文锋)은 문서를 읽고 있었다.
저장대학교(浙江大学) 전기공학과를 졸업한 량원펑은 퀀트 헤지펀드 환팡(幻方, High-Flyer)을 공동 창업해 운영하고 있었다. 금융 알고리즘을 짜는 것이 본업이었다. 그런데 그 과정에서 대규모 GPU 클러스터를 운용하는 기술을 축적했다. 알고리즘과 하드웨어를 동시에 이해하는 드문 인물이었다.
그가 읽던 문서는 미국 상무부의 수출 규제 초안이었다. NVIDIA의 고성능 AI 칩이 중국으로 수출 금지될 것이라는 내용이었다.
량원펑은 규제가 발효되기 전에 움직였다. 환팡의 재원을 써서 NVIDIA GPU를 대량 매입했다. 정확한 수량은 공개되지 않았지만, 이후 딥시크가 보유한 GPU는 H100과 H800을 합쳐 약 2만 개로 추산됐다(SemiAnalysis).
2023년 5월, 그는 딥시크를 설립했다. 벤처캐피털(VC) 투자를 받지 않았다. 환팡의 자체 자금으로 운영했다. 직원은 수십 명이었다.
여기서 한 가지 주의가 필요하다. "VC 미수령"이 "국가 지원 제로"를 뜻하지는 않는다. 딥시크는 2023년 12월 저장성(浙江省) 당국으로부터 "국가 고신기술기업(国家高新技术企业)" 인정을 받았다. 세금 우대, 정부 보조금, 연구 지원금이 따라오는 지위다(Lawfare, 2025). 딥시크가 위치한 항저우 청시과기혁신주랑(杭州城西科创大走廊)은 중국판 실리콘밸리를 목표로 막대한 국가 보조금이 투입되는 구역이다. 저장성은 AI 스타트업에 기업당 최대 약 30만 달러 규모의 컴퓨팅 바우처를 배포해 클라우드 비용을 상쇄했다.
2024년 초에는 량원펑이 리창(李强) 총리에게 정책 자문을 제공하는 자리에 초대됐다. 딥시크의 핵심 R&D는 민간 자본으로 이루어졌지만, 그 민간 자본이 작동할 수 있었던 토양은 국가가 조성한 것이다. 삼각 구도의 전형이다.
그리고 2025년 1월, 딥시크-R1을 공개했다.
량원펑의 선택에서 주목할 점이 있다. 그는 AI 연구 커뮤니티에서 명성을 쌓아온 인물이 아니었다. 학계 스타도, 구글 브레인 출신도 아니었다. 그는 금융 알고리즘을 만들던 퀀트였다. 그 배경이 오히려 강점이 됐다.
퀀트 펀드의 세계에서는 비용 효율이 생존 조건이다. 더 적은 연산으로 더 정밀한 예측을 만드는 것이 경쟁력이다. 자원을 무제한으로 쓰는 것은 선택지가 아니다. 량원펑은 이 사고방식을 AI 훈련에 그대로 가져왔다. 실리콘밸리가 "더 크게"를 향해 달릴 때, 그는 "더 효율적으로"를 향해 달렸다.
36Kr 인터뷰(2024년 하반기)에서 그는 VC 투자를 거부한 이유를 이렇게 설명했다. "돈이 문제였던 적은 한 번도 없다. 문제는 고성능 칩 수출 금지다(Money has never been the problem for us; bans on shipments of advanced chips are the problem)." 투자 규모와 혁신의 관계에 대해서는 더 단호했다. "더 많은 투자가 더 많은 혁신을 만들지 않는다. 그랬다면 대기업들이 혁신을 독점했을 것이다." 채용 기준은 경력이 아니라 열정과 호기심이었다. "마법사 같은 사람은 없다. 우리는 대부분 최상위 대학의 신입 졸업생이나 박사과정생이다." 조직 구조도 위계적이지 않았다. "딥시크는 전적으로 상향식(bottom-up)이다. 역할을 미리 정하지 않고, 업무 분담은 자연스럽게 이루어진다." — 량원펑, 36Kr 인터뷰, 2024년(China Talk 영문 번역, 2025.01)
그리고 중국 AI 혁신의 근본적 한계에 대한 진단이 나왔다. "진짜 격차는 독창성과 모방 사이의 차이다. 이것이 바뀌지 않으면 중국은 영원히 추격자로 남는다." — 량원펑, 36Kr 인터뷰, 2024년 이 자기 진단이 량원펑을 다른 중국 테크 경영인들과 구별하는 지점이다. 그는 승리를 선언하는 대신 격차를 인정했다.
출발점이 달랐기 때문에 도착점도 달랐다.
결핍의 공학: MoE, MLA, FP8
딥시크의 혁신을 이해하려면 문제 설정부터 다시 봐야 한다.
미국의 AI 연구소들은 "더 많은 GPU로 더 큰 모델을"이라는 공식으로 경쟁해왔다. 메타(Meta)는 라마(Llama) 모델 훈련에 약 3,080만 GPU 시간을 썼다. 오픈에이아이와 구글은 공개하지 않지만 그보다 훨씬 많다.
딥시크에게 그 경로는 없었다. GPU가 부족했다.
제약이 설계를 바꿨다.
딥시크-V3 훈련에 사용한 GPU 컴퓨트 비용은 약 558만 달러(278만 GPU 시간)였다. 그 위에 강화학습을 적용한 딥시크-R1의 추가 훈련 비용은 이보다 훨씬 적었다. V3 훈련 비용만으로도 메타의 유사 모델(3,080만 GPU 시간) 대비 11분의 1 수준이다.
이 숫자를 "600만 달러로 GPT-4급 AI를 만들었다"고 프레이밍하면 정확하지 않다. 600만 달러는 사전훈련(pretraining) GPU 컴퓨트 비용만이다. 딥시크의 총 서버 CapEx는 반도체 리서치 기관 세미애널리시스(SemiAnalysis) 추정으로 약 16억 달러다. 그러나 16억 달러조차 미국 빅테크 4사의 2026년 합산 CapEx 6,350억~6,650억 달러와 비교하면 400분의 1 수준이다.
효율성의 격차는 실재한다. 그 핵심은 세 가지 기술 혁신이었다.
첫 번째는 혼합 전문가 아키텍처(Mixture of Experts, MoE)다. 기존 거대언어모델(Large Language Model, LLM)은 입력이 들어올 때마다 수십억 개 파라미터 전체를 활성화한다. MoE는 전문화된 소규모 네트워크(전문가) 여러 개를 만들고, 각 입력에 필요한 전문가만 선택적으로 활성화한다. 에너지 소비와 연산 비용이 대폭 줄어든다.
두 번째는 멀티헤드 레이턴트 어텐션(Multi-head Latent Attention, MLA)이다. 기존 어텐션 메커니즘은 각 처리 단계에서 방대한 키-밸류(Key-Value) 캐시를 메모리에 유지해야 한다. MLA는 이 캐시를 압축된 잠재 벡터로 축소했다. GPU 메모리 사용량이 줄고, 처리 속도가 빨라졌다.
세 번째는 FP8 훈련이다. AI 모델 훈련의 표준은 32비트(FP32) 또는 16비트(BF16) 부동소수점 연산이었다. 딥시크는 8비트(FP8) 훈련을 실용화했다. 정밀도를 낮추면 계산이 빨라지지만 오차가 쌓인다는 문제가 있었다. 딥시크 팀은 오차를 보정하는 세밀한 수치 안정화 기법을 개발해 FP8의 실용화에 성공했다.
이 세 가지는 단순한 비용 절감이 아니다. 새로운 훈련 아키텍처의 설계다. 자원 제약이 설계 원칙을 바꿨다.
비용 격차가 의미하는 것
딥시크-R1 API 비용은 입력 1백만 토큰당 0.55달러, 출력 1백만 토큰당 2.19달러다. 오픈에이아이 o1은 입력 15달러, 출력 60달러다. 입력 기준 27배, 출력 기준 27배 차이다. 가장 얇은 용례에서는 50배 가까이 벌어진다.
이 가격 격차는 단순히 한 기업의 마진 전략이 아니다. 미국 AI 산업 전체의 비용 구조에 대한 질문이다.
빅테크 4사가 2026년에만 AI 인프라에 6,350억~6,650억 달러를 쓴다. 이 투자의 전제는 "더 많은 컴퓨트가 더 나은 AI를 만든다"는 확신이다. 그 확신이 맞다면 딥시크는 일시적 효율 최적화에 불과하다. 그 확신이 틀렸다면 빅테크 4사는 역사상 가장 규모가 큰 오투자(overinvestment)의 한가운데에 서 있다.
젠슨 황 NVIDIA 최고경영자(CEO)는 빠르게 대응했다. 딥시크는 NVIDIA GPU를 사용했고, 효율적인 알고리즘이 오히려 AI 수요를 늘린다는 '제번스 역설(Jevons Paradox)' 논리를 폈다. 가격이 내려가면 사용량이 늘고, 그러면 GPU 수요도 늘어난다는 것이다.
오픈에이아이 CEO 샘 알트만(Sam Altman)은 딥시크를 "인상적인 모델"이라고 인정했다. 그러면서도 "미국은 더 나은 모델을 계속 만들 것"이라고 덧붙였다. 구글 딥마인드(DeepMind) CEO 데미스 하사비스(Demis Hassabis)는 두 회사의 격차가 "수개월" 수준이라고 평가했다.
수개월. 한때 수년이라고 했던 격차가 수개월이 됐다.
아직 어느 쪽이 맞는지 결론이 나지 않았다. 딥시크는 경쟁의 지형을 바꿨다. 그것만은 확실하다.
역사적 패턴: 결핍이 만드는 설계
역사에서 이 패턴은 반복됐다.
1969년 아폴로 11호의 탑재 컴퓨터는 메모리가 4킬로바이트였다. 제약 속에서 소프트웨어 엔지니어들은 달 착륙 알고리즘을 4킬로바이트에 구겨 넣는 기술을 만들어냈다. 1980년대 RISC(Reduced Instruction Set Computer) 아키텍처는 프로세서 명령어를 단순화했다. 단순화가 오히려 성능을 높였다.
제약이 설계를 단순화하고, 단순화가 효율을 높이고, 효율이 새로운 가능성을 연다.
량원펑은 이 패턴을 GPU 결핍 속에서 다시 실현했다. 미국이 부과한 제약이 중국 AI 팀에게 미국 AI 산업이 돌아보지 않은 질문을 강제했다. "더 적게 쓰고 같은 것을 만들 수 있는가."
그 질문의 답이 딥시크-R1이었다.
섹션 B: 화웨이의 반격 — Ascend 칩 생태계
SMIC 상하이 공장의 밤
상하이(上海) 외곽, 중신국제(中芯国际, SMIC) 파운드리 공장. 밤새 진공 챔버가 회전한다.
같은 회로를 만들기 위해 이 공장은 4번에서 8번 노광(露光)과 식각(蝕刻)을 반복한다. 네덜란드 반도체 장비 기업 ASML의 극자외선(EUV) 노광기가 한 번에 새기는 회로를 DUV(Deep Ultraviolet) 장비로 여러 번에 나눠서 새긴다. 공정 이름은 다중 패터닝(multi-patterning)이다.
비용은 3배에서 5배가 더 든다. 수율은 절반이다. 같은 칩을 만드는 데 TSMC(台积电, Taiwan Semiconductor Manufacturing Company)의 2배 이상 웨이퍼가 필요하다.
그래도 멈추지 않는다.
이 공정으로 SMIC는 7나노미터(nm) 회로를 구현한다. 2019년 미국이 화웨이에 EUV 장비 접근을 차단한 이후 중국이 개발한 대안이다. EUV 없이 7nm를 만드는 것은 불가능하다고 여겨졌다. SMIC는 불가능한 것을 느리게 만드는 방법을 택했다.
Ascend 생태계의 구조
화웨이가 만들고자 하는 것은 칩 하나가 아니다. 생태계다.
NVIDIA의 AI 지배력은 GPU 하드웨어 하나에서 나오지 않는다. 쿠다(CUDA)라는 소프트웨어 플랫폼에서 나온다. AI 연구자들이 10년 넘게 CUDA로 코드를 작성해왔다. 2025년 기준 세계 AI 개발자의 약 50%가 중국 안에 있지만, 그들이 쓰는 코드는 CUDA 위에서 돌아간다. 미국이 하드웨어를 막아도 소프트웨어 생태계의 관성은 남아 있다.
화웨이의 목표는 이 생태계를 대체하는 것이다.
세 층위로 구성된다. 하드웨어는 Ascend 910C 칩이다. 소프트웨어 프레임워크는 마인드스포어(MindSpore)다. 컴퓨팅 아키텍처 계층은 CANN(Compute Architecture for Neural Networks)이다. NVIDIA의 GPU + CUDA + cuDNN 스택에 정확히 대응하는 구조다.
생산 숫자를 보면 야망의 스케일이 보인다. 2025년 Ascend 910C 생산 목표는 약 60만 개다. 2026년에는 160만 다이를 목표로 한다. 화웨이와 캠브리콘(Cambricon)을 합산한 중국 국산 AI 가속기는 2026년 100만 개를 넘을 것으로 추산된다.
현실적 한계: 수율 40%의 의미
그러나 한계는 숨겨지지 않는다.
SMIC 7nm 공정에서 Ascend 칩의 수율은 40% 수준이다. TSMC 같은 노드의 수율이 90% 이상인 것과 비교된다. 웨이퍼 100장을 만들면 40장만 팔 수 있는 수준의 칩이 나온다는 의미다. 나머지 60장은 결함품이다. 원가 구조가 근본적으로 불리하다.
개발자 생태계 문제도 더 크다. CUDA와 호환되지 않는다. 기존 AI 코드를 Ascend에서 돌리려면 대규모 재작성이 필요하다. 전 세계 AI 연구자들이 쌓아온 CUDA 기반 라이브러리와 코드는 NVIDIA GPU 없이 작동하지 않는다. 화웨이는 이 소프트웨어 관성과 싸우고 있다. 그러나 싸움의 궤적은 바뀌기 시작했다. 2024년 말 기준 쿤펑(Kunpeng)·Ascend 생태계에 참여한 파트너는 8,500개 이상, 개발자는 665만 명에 달한다(화웨이 2024 연간보고서). 같은 해 화웨이는 Ascend 이종 컴퓨트 아키텍처 CANN 8.0을 출시하고, openMind 응용 지원 키트를 공개해 생태계 확장을 가속했다.
그럼에도 두 가지 힘이 Ascend 생태계를 밀어붙인다.
하나는 중국 정부의 "국산 AI 칩 우선 조달" 정책이다. 국가가 보장하는 시장이 있다. 바이두(百度), 알리바바(阿里巴巴), 텐센트(腾讯) 같은 대형 인터넷 기업들이 정부 조달 요건을 맞추기 위해 Ascend를 채택하기 시작했다. 기술적 우위가 아닌 제도적 강제로 만들어지는 시장이다.
다른 하나는 딥시크 V4다. 딥시크의 차세대 모델은 NVIDIA 칩뿐 아니라 화웨이와 캠브리콘 칩에도 최적화되어 출시됐다. 중국의 AI 알고리즘이 중국산 하드웨어에 맞춰 최적화되기 시작한 것이다. 소프트웨어가 하드웨어를 끌어당기는 흡인력이 생겼다.
가속하는 로드맵
화웨이의 Ascend 로드맵은 계속된다.
2026년 1분기, Ascend 950PR이 출시됐다. 프리필(prefill)과 추천(recommendation) 워크로드에 특화된 설계다. 2026년 4분기에는 디코딩과 훈련용 Ascend 950DT가 나온다. 2027년 4분기에는 Ascend 960이 예정돼 있다. 950 대비 컴퓨트·메모리·인터커넥트 성능을 2배로 높이는 것이 목표다.
TSMC 수율 90%에 도달하는 것은 가까운 미래에 불가능할 것이다. 그러나 TSMC가 없어도 나름의 생태계를 만드는 것은 다른 문제다. 중국 안에서, 중국 기업들 사이에서 작동하는 생태계라면 수율 40%도 감당 가능한 조건이다.
SMIC의 생산 램프업(ramp-up) 수치를 보면 궤도가 보인다. 2025년 첨단 노드 월 생산량은 4만 5,000장이었다. 2026년에는 6만 장, 2027년에는 8만 장으로 확대하는 것이 계획이다. 느리지만 방향은 정해져 있다.
미국이 2019년 화웨이 제재를 결정했을 때, 목표는 중국의 첨단 반도체 역량을 봉쇄하는 것이었다. 6년이 지난 지금 중국은 EUV 없이 7nm를 만들고 있다. 제재가 실패한 것인가, 아니면 예상보다 느리게 성공하고 있는 것인가. 미국 내에서도 이 질문에 대한 답이 엇갈린다.
미국의 목표는 중국 AI를 멈추는 것이었다. 중국의 목표는 미국 없이 작동하는 AI를 만드는 것이다. 두 목표는 충돌하지 않는다.
섹션 C: 바이트댄스와 핀둬둬 — 글로벌 AI 응용의 승리
의회 청문회, 2025년
2025년, 워싱턴 D.C. 의회 청문회.
미국 의원들이 질문했다. 틱톡(TikTok)을 운영하는 바이트댄스(字节跳动, ByteDance)는 중국 기업이다. 중국 정부가 미국 사용자 데이터에 접근할 수 있는가. 알고리즘이 미국인의 정보 환경을 조작하고 있는가.
바이트댄스 측 변호인단은 준비가 되어 있었다. 알고리즘의 소유권 분리를 제안했다. 미국 법인 오라클(Oracle)과 합작법인(Joint Venture, JV)을 구성해 미국 사용자 데이터를 미국 서버에서만 처리하겠다는 구조였다. 중국 모회사의 알고리즘 접근을 기술적으로 차단하는 방안도 포함됐다.
협상은 길게 이어졌다.
미국 정부가 "중국 알고리즘"을 추방하려 했을 때 발견한 것은 하나였다. 1억 7,000만 명의 미국 사용자의 습관은 추방할 수 없었다. 알고리즘보다 사용자가 더 강한 현실이었다.
주의(Attention)를 자원으로 채굴하다
1권의 '읽은 자' 프레임을 장이밍(张一鸣)에게 적용해보자.
1권에서 읽은 자는 다른 사람이 "쓸 수밖에 없는" 시스템을 만드는 사람이었다. 아크라이트(Richard Arkwright)가 수력방적기를 만들었을 때 수직공들은 그 기계 앞에 설 수밖에 없었다. 젠슨 황이 CUDA를 만들었을 때 AI 연구자들은 그 플랫폼 없이 작업할 수 없게 됐다.
장이밍이 만든 것은 틱톡 추천 알고리즘이다. 이 알고리즘은 인간의 도파민 시스템을 가장 정교하게 공략하는 AI 응용이다. 사용자가 무엇을 보고 싶은지 스스로 알기 전에 알고리즘이 먼저 안다. 영상 하나를 보는 0.5초 동안의 눈 움직임, 스크롤 속도, 반복 재생 여부 — 이 신호들이 실시간으로 다음 영상을 결정한다.
결과는 숫자로 나타난다. 2025년 틱톡은 미국 앱스토어에서 다운로드 기준 2위였다. 미국 정부의 "매각 또는 퇴출" 압력 속에서도 사용자는 늘었다. 1억 7,000만 명이 쓰는 앱은 그 자체로 시스템이 됐다.
1권의 언어로 비유하자면, 장이밍이 만든 것은 18세기의 공장 시스템과 닮아 있다. 아크라이트의 공장이 면사 생산을 표준화했듯, 틱톡 알고리즘은 인간의 주의 소비를 표준화했다. 방직기 앞의 수직공이 기계의 리듬에 몸을 맞춰야 했듯, 틱톡 사용자는 알고리즘의 리듬에 뇌를 맞춘다. 차이는 하나다. 수직공은 공장에 가야 했다. 틱톡은 스마트폰을 통해 사용자의 침실로 들어온다.
바이트댄스의 기업가치는 3,000억 달러 이상으로 추산된다. 상장되지 않은 기업이지만 세계 최대 규모의 비상장 테크 기업이다. 규모는 계속 커지고 있다. 국내 AI 챗봇 더우바오(豆包)의 일일 활성 이용자(DAU)는 2025년 1억 명을 넘었다(QuestMobile). 2025년 AI 관련 자본지출은 1,600억 위안(약 220억 달러)으로, 중국 민간 기업 중 단일 최대 규모다(The Information/로이터). 장이밍은 2021년 CEO 자리에서 물러났다. 36세였다. 회사가 너무 커졌고, 그 크기가 만드는 정치적 압력을 관리하는 것이 그가 원하는 일이 아니었다고 했다.
핀둬둬: 공급망을 해킹하다
황쩡(黄峥)의 시스템은 다른 방식으로 작동한다.
핀둬둬(拼多多)의 해외 플랫폼 테무(Temu)는 2022년 9월 미국에서 서비스를 시작했다. 2025년 기준 글로벌 이커머스 점유율 24%다. 아마존과 동률이다. 3년 만에 세계 최대 이커머스 기업과 어깨를 나란히 했다.
테무의 작동 원리는 단순하다. 중국 제조업체와 전 세계 소비자를 중간 유통 단계 없이 직접 연결한다. 가격이 왜 그렇게 낮은지 이해하려면 구조를 봐야 한다.
아마존에서 물건이 팔리는 경로: 중국 제조업체 → 수출상 → 아마존 창고 → 소비자. 이 경로에서 각 단계가 마진을 가져간다.
테무의 경로: 중국 제조업체 → 소비자. 중간이 없다. AI 가격 최적화 알고리즘이 수요 예측, 재고 조정, 배송 경로를 실시간으로 최적화한다.
소비자들이 묻는다. "왜 이렇게 싸지?" 그 답은 유통 구조를 제거하고 AI로 대체했기 때문이다.
디지털 서비스 흑자 330억 달러
이 두 시스템의 합산 효과가 수치로 드러난다.
2025년 중국의 디지털 서비스 무역 흑자는 330억 달러였다. 사상 최대다. 10년 전까지 중국은 디지털 서비스에서 대규모 적자를 기록했다. 구글, 아마존, 메타의 서비스를 사용하면서 광고비와 수수료가 미국으로 흘러나갔다. 지금은 역방향이다. 미국인들이 틱톡을 보고, 테무에서 물건을 사면서 중국 기업에 돈을 낸다.
미국에서는 기반 기술과 플랫폼이 만들어진다. 젠슨 황의 CUDA, 앤트로픽의 클로드(Claude), 오픈에이아이의 GPT. 중국에서는 응용 최적화와 사용자 규모로 시스템이 만들어진다. 장이밍의 추천 알고리즘, 황쩡의 공급망 AI.
두 전략 중 어느 쪽이 장기적으로 더 가치 있는가. 1권의 용어로 말하면, 미국은 설계 레이어(architecture layer)를 장악하고, 중국은 실행 레이어(execution layer)에서 규모를 만들고 있다.
그 경계가 어디서 만나는지는 아직 모른다.
섹션 D: 특허 양 대 질 — 혁신의 경계
허깅페이스 리더보드의 화면
2025년 말, 한 미국 AI 연구자가 허깅페이스(HuggingFace) 글로벌 모델 리더보드를 열었다.
상위 10개 오픈 가중치(open-weight) AI 모델 가운데 9개가 중국산이었다. 딥시크-R1, 알리바바의 치엔원(通义千问, Qwen) 시리즈, 바이트댄스의 더우바오(豆包), 베이징의 지아이(智谱AI, Zhipu AI) GLM 시리즈.
연구자가 자문했다. 이것이 정말 실제 코드와 가중치(weights)인가. 이 모델들은 실제로 다운로드되고, 실제 벤치마크에서 실제 성능을 보여주고 있었다.
특허 수치보다 훨씬 강력한 증거였다.
양적 압도, 질적 격차
숫자부터 본다.
중국의 생성형 AI(Generative AI) 특허는 3만 8,210건이다. 글로벌 60% 이상을 차지한다. 미국의 AI 특허는 6,276건이다. 양적으로는 6배 차이다.
그런데 두 가지 다른 수치가 그 그림을 복잡하게 만든다. 중국 AI 특허의 국제 출원 비율은 7.3%다. 미국의 AI 특허와 비교한 피인용(citation) 횟수는 7배 적다. 많이 출원하지만 국제 시장에서 참조되지 않는다.
양적 과잉의 원인은 세 가지로 설명된다.
첫째, 정부 보조금 구조다. 중국의 대학과 연구소는 특허 수를 연구 성과로 평가받는다. 특허 수가 많을수록 보조금이 늘어난다. 사용 가능성보다 신청 가능성이 기준이 됐다.
둘째, 방어적 특허 관행이다. 특허를 실제로 사용하기 위해 출원하는 것이 아니라 소송 방어 목적으로 쌓는다. 분쟁이 생겼을 때 협상 카드가 된다.
셋째, 기초 연구보다 응용 연구 집중이다. 기초 논문에서 나오는 특허는 인용이 많다. 특정 응용에 특화된 특허는 인용이 적다. 중국 AI 특허의 다수는 후자다.
DeepSeek가 흐리는 경계
"중국에는 기초 혁신 능력이 없다"는 단정은 더 이상 유효하지 않다.
딥시크의 MoE + MLA + FP8 혁신은 응용 레이어가 아니다. 훈련 아키텍처 자체의 재설계다. 이것은 기초 수준의 혁신이다. 딥시크 R1 논문은 공개 후 AI 연구 공동체에서 가장 빠르게 인용된 논문 가운데 하나가 됐다.
2026년 초 중국의 프런티어 AI 모델 상황을 보면 격차가 더 명확하게 줄어든 것이 보인다. 알리바바의 치엔원(Qwen) 3.5는 3D 게임, 브라우저, 웹사이트 생성을 처리했다. 전작 대비 비용은 60% 낮아졌다. 바이트댄스의 더우바오(豆包) 2.0은 복합 추론과 멀티스텝 작업에서 챗GPT(ChatGPT), 제미나이(Gemini)와 동급 평가를 받았다.
세계적인 AI 리서치 기관 에포크 AI(Epoch AI)의 분석에 따르면 중국 AI 모델과 미국 프런티어 모델의 성능 격차는 2025년 기준 3~6개월이다. 2년 전까지만 해도 1~2년 격차로 보는 시각이 지배적이었다.
중국 오픈소스 AI의 글로벌 시장 점유율은 2024년 말 1.2%에서 2025년 8월 30%로 뛰었다.
특허 수치의 역설
여기서 하나의 역설이 드러난다.
특허 수치는 과거를 측정한다. 실제로 작동하는 모델 코드와 가중치는 현재를 측정한다. 중국의 특허 수치는 과거의 방어적 축적이지만, 허깅페이스 리더보드의 모델 9개는 현재의 실력이다.
측정 지표가 바뀌어야 할 때, 이미 현실은 그 다음 단계에 와 있다.
딥시크가 증명한 것은 단순한 효율 혁신이 아니다. 중국의 AI 기초 연구 역량이 성숙 단계에 진입하고 있다는 신호다. 양적 특허 지표와 질적 실력 사이의 간극이 좁아지는 중이다.
글로벌 AI 연구자 가운데 중국 출신 비율은 47%에 달한다. 이들 중 상당수는 미국 대학에서 훈련받고 중국으로 귀국했거나, 중국 내 연구소에 남아 있다. 연구자 풀의 규모는 미국보다 크다. 자원 제약이 완화되고 연구 역량이 축적될수록 특허 질과 논문 피인용 격차는 계속 줄어들 조건이 갖춰져 있다.
이것이 중국 AI를 단순히 "추격자"로 프레이밍하는 것의 한계다. 어떤 지표에서는 이미 선두이고, 어떤 지표에서는 여전히 뒤처진다. 특허 수에서는 선두, 피인용에서는 후위, 오픈소스 모델에서는 선두, 첨단 반도체에서는 후위. 추격자와 선도자의 경계가 지표마다 다른 위치에 있다.
1권 연결점: 읽은 자의 시스템, 그 천장
1권에서 읽은 자를 정의했다. 새로운 기술 문법을 읽고, 다른 사람들이 그 기술을 쓸 수밖에 없는 시스템을 만드는 사람이다. 크라수스(Marcus Licinius Crassus)는 로마의 화재와 부동산을 시스템화했다. 아크라이트는 공장 노동을 시스템화했다. 젠슨 황은 CUDA로 AI 개발을 시스템화했다.
중국에도 읽은 자들이 있다. 량원펑은 결핍을 효율의 연료로 전환하는 알고리즘을 만들었다. 장이밍은 인간의 주의를 수익으로 전환하는 시스템을 만들었다. 황쩡은 공급망 마찰을 제거하는 AI를 만들었다.
중국의 읽은 자가 만드는 시스템에는 천장이 있다.
마윈(马云)의 사례가 가장 선명하게 보여준다.
알리바바(阿里巴巴)의 창업자 마윈은 2000년대와 2010년대에 중국 최대의 읽은 자였다. 전자상거래, 결제 시스템, 금융 서비스 — 그가 만든 시스템 없이는 중국 인터넷 경제가 작동하지 않을 것처럼 보였다. 앤트파이낸셜(蚂蚁集团)은 세계 최대 규모의 기업공개(Initial Public Offering, IPO)를 앞두고 있었다. 예정 기업가치는 3,000억 달러를 넘었다.
2020년 10월, 마윈이 상하이에서 연설을 했다. 중국 금융 규제 시스템을 전당포(典当铺)에 비유하며 비판했다.
사흘 뒤 앤트파이낸셜의 IPO는 강제로 중단됐다. 이후 마윈은 공개 석상에서 사라졌다. 해외에 체류하다가 몇 달 뒤 조용히 귀국했다. 알리바바에 대한 대규모 반독점 조사가 이어졌다. 벌금은 182억 위안(元/CNY)이었다. 2022년 3월 기준 알리바바의 정규직은 25만 4,941명에서 2025년 3월 12만 4,320명으로 절반이 됐다.
마윈이 실수를 한 것인가. 아니면 시스템을 만든 자가 국가보다 더 큰 시스템이 되는 것을 국가가 용납하지 않은 것인가.
중국의 읽은 자들은 두 가지 조건 안에서 작동한다.
첫 번째 조건: 국가의 전략적 목표와 정렬되어야 한다. 딥시크가 반도체 자립의 서사와 맞아떨어졌을 때 국가 지원을 받았다. 화웨이의 Ascend가 NVIDIA 의존 탈피의 서사와 맞아떨어졌을 때 정부 조달이 뒤따랐다.
두 번째 조건: 국가보다 큰 시스템이 되지 않아야 한다. 마윈이 그 선을 넘었다.
미국의 읽은 자들은 다른 조건 안에서 작동한다. 젠슨 황은 CUDA 생태계를 만들었고, AI 개발자들은 그것 없이 작업할 수 없게 됐다. 그 의존성이 NVIDIA의 92% GPU 시장 점유율을 만들었다. 미국 정부는 반독점 논의를 시작했지만 그것은 시장 내 경쟁의 문제였지, 창업자의 물리적 신변 안전을 위협하는 것이 아니었다.
시스템을 만들 수 있는 자유의 범위가 다르다. 그 범위의 차이가 장기적으로 어떤 결과를 낳는지는 이 책의 후반부에서 다룬다.
전환부: 추격자의 방정식
중국의 읽은 자들이 만들어낸 것을 짚어본다.
량원펑은 GPU 결핍을 알고리즘 효율로 변환했다. 화웨이는 느리지만 멈추지 않는 칩 생태계를 구축하고 있다. 장이밍과 황쩡은 AI 응용에서 전 세계 사용자를 끌어당기는 시스템을 완성했다. 디지털 서비스 흑자 330억 달러가 그 성과다.
그러나 두 가지 한계가 이 시스템 위에 겹쳐 있다. 하나는 기초 기술 의존이다. 딥시크는 훈련 아키텍처를 혁신했지만 GPU는 여전히 NVIDIA 제품이었다. 반도체 장비 자급률은 13.6%에 머물렀다. 다른 하나는 제도적 천장이다. 마윈의 사례가 보여주듯, 국가보다 큰 시스템을 만드는 것은 가능하지 않다.
읽은 자들의 혁신이 작동하는 지반 아래 네 개의 벽이 동시에 세워지고 있다. 반도체 차단, 부채의 벽, 자본 통제의 역설, 인구 절벽. 추격자가 넘어야 할 벽은 하나가 아니다.
그 벽들을 하나씩 본다.
다음 챕터: Ch.12 — 네 개의 벽: 반도체·부채·자본·인구가 동시에 압박하는 구조