← 두 제국의 알고리즘 Vol. 2 8 / 18 English
Vol. 2 — 두 제국의 알고리즘

제7장. 제도의 경직: 미국은 왜 느린가


도입부: 같은 날, 다른 방

2025년 9월, 워싱턴 DC.

오전 열 시, 디르크슨 상원 사무동(Dirksen Senate Office Building) 226호실. 상원 법사위원회 산하 AI 소위원회 청문회장이다. 회의실 천장이 높고, 벽은 대리석이며, 방청석은 절반쯤 찼다. 의원들 앞에는 이름 팻말이 놓여 있고, 각자의 보좌관이 뒤에 서 있다. 카메라들이 증인석을 향하고 있다.

증인석에 무스타파 술레이만(Mustafa Suleyman)이 앉는다. Microsoft의 AI 부문 총괄이다. 그는 영국 태생의 기업인으로, 딥마인드(DeepMind) 공동 창업자 출신이다. AI 분야에서 그의 이름은 기술자보다는 비전가로 더 알려져 있다. 의원들의 질문은 정제되어 있고, 경쟁적으로 날카롭지 않다. AI의 위험에 대해 어떻게 생각하느냐. 어떤 규제가 필요하다고 보느냐. 빅테크는 자율 규제를 할 의지가 있느냐.

술레이만은 유창하고 자신 있게 답한다. 그리고 그날 청문회에서 가장 많이 인용될 문장을 내놓는다.

"18개월 내에 모든 화이트칼라 업무가 자동화될 것입니다."

청문회실에 짧은 침묵이 흘렀다. 수십 개의 카메라 셔터가 연속으로 눌렸다. 일부 의원은 메모를 적었다. 일부는 보좌관을 뒤돌아봤다. 그리고 다음 질문이 이어졌다. "그렇다면 그 전환 과정에서 노동자들을 보호하기 위한 기업의 책임은 무엇이라고 생각하십니까?" 술레이만은 답했다. 재교육 투자, 기술 전환 지원, 사회적 안전망 강화의 필요성. 명쾌하고 일반적인 답변이었다.

그 순간 술레이만의 발언은 이미 소셜 미디어에서 퍼지고 있었다. "18개월." 이 두 글자가 추출되어 X(구 트위터), 링크드인, 유튜브 쇼트에 올라갔다. 파라리걸, 회계사, 콘텐츠 마케터, 주니어 소프트웨어 개발자들이 각자의 화면 앞에서 이 클립을 봤다. 댓글은 두 종류였다. 두려움과 분노.


오후 한 시, 워싱턴 DC K스트리트. 도심의 식당 중 하나에서, Microsoft 소속 로비스트 두 명이 상원 보좌관 세 명과 점심을 먹고 있었다. 이것은 워싱턴에서 매일, 수십 개의 테이블에서 일어나는 일이다. 워싱턴 DC의 K스트리트는 미국 로비 산업의 상징적 주소다. 로펌, 로비 에이전시, 정책 컨설팅 회사들이 밀집해 있다. 이 거리에서 오가는 말들이 의회의 법안 내용을 바꾼다.

그 오찬의 안건은 오전 청문회와 관계없어 보였다. 의제는 "AI 관련 주(州) 규제의 연방 선점(federal preemption) 가능성"이었다. 내용은 이렇다. 캘리포니아, 텍사스, 일리노이 같은 주들이 각자 AI 규제를 만들기 시작했다. 기업 입장에서는 50개 주의 다른 규칙을 각각 따라야 한다면 엄청난 부담이다. 연방 차원의 단일 규칙이 훨씬 효율적이지 않겠느냐. 그 연방 규칙은, 물론, 아직 존재하지 않는다. 그러므로 그것이 만들어질 때까지 주 규제는 잠시 멈추는 것이 바람직하지 않겠느냐.

보좌관들은 질문을 했고, 로비스트들은 답했다. 메모가 오갔다. 명함이 교환됐다. 식사가 끝났다.


저녁 여섯 시, 술레이만의 발언 영상이 X에서 바이럴됐다. 두 시간 만에 조회 수는 300만을 넘었다. "18개월 내 모든 화이트칼라 업무가 자동화." 전국의 수십만 명의 중간 관리자, 분석가, 법률 보조원, 카피라이터들이 이 숫자를 읽었다. 링크드인에는 "나는 괜찮을까요?"라는 게시물들이 올라왔다. 포럼에서는 논쟁이 벌어졌다. 어떤 직업이 살아남는가. 어떤 기술을 배워야 하는가. 술레이만이 과장하는 것인가, 아니면 이미 일어나고 있는 일인가.

같은 저녁, 워싱턴 DC의 빅테크 로비 사무소들에서는 보통의 저녁이 지나갔다. 별다른 일이 없었다. 그것이 정상이었다.


세 개의 장면은 모두 같은 날 일어났다.

이 세 장면이 압축하는 것은 미국 AI 거버넌스의 구조적 모순이다. 오전에는 의회에서 AI의 위험을 증언한다. 오후에는 AI 규제를 막는 로비가 진행된다. 저녁에는 수십만 명의 노동자가 그 증언의 클립을 읽으며 자신의 미래를 걱정한다. 그리고 이 세 장면 사이에는 아무런 제도적 연결고리가 없다. 증언은 구속력이 없다. 로비는 합법이다. 두려움은 투표로 쉽게 전환되지 않는다.

2026년 초 현재, 세계 최대 AI 국가인 미국에는 연방 AI 포괄 법안이 단 한 건도 통과되지 않았다.

국민의 79%가 AI 규제를 원한다. 공화당 지지자의 84%, 민주당 지지자의 81%가 찬성한다. 메릴랜드대학교 CISSM(국제안보연구센터)이 실시한 이 여론조사의 수치는 미국 정치에서 보기 드물게 높다. 낙태 권리, 총기 규제, 이민 정책 — 미국 정치를 쪼개는 어떤 이슈도 이 수준의 초당적 지지를 받지 못했다. 그런데 의회는 행동하지 않는다.

이 챕터는 그 이유를 해부한다.

빅테크의 로비는 어떻게 작동하는가. 1권에서 우리가 만난 크라수스의 21세기 버전으로서 빅테크 CEO들은 어떤 방식으로 권력과 거래하는가. "79%의 찬성"이 왜 "0건의 법안"으로 전환되는가. 그리고 1권에서 우리가 확인한 제도 적응의 역사적 밴드 — 14년에서 64년 — 가 AI 시대에 어떻게 적용되는가.

미국이 느린 이유는 기술이 없어서가 아니다. 기술은 세계 최고 수준이다. 미국이 느린 이유는 제도가 경직되어 있기 때문이다. 그리고 그 경직은 민주주의의 본질적 실패가 아니라, 민주주의 안에서 돈이 작동하는 구체적 방식의 결과다.


섹션 A. 로비라는 방패 — 빅테크는 어떻게 규제를 막는가

담배 산업의 재림

미국 역사에서 로비가 특정 산업의 생존 수단으로 작동한 사례는 풍부하다.

담배 산업은 1950년대부터 1990년대까지 수십 년에 걸쳐 흡연과 암의 인과관계에 의문을 제기하는 연구를 후원하고, 규제 입법을 지연시켰다. 석유·가스 산업은 기후변화 과학이 확립된 이후에도 파리 협정 탈퇴와 환경 규제 완화를 위해 수십억 달러를 로비에 지출했다. 전미총기협회(NRA)는 2012년 샌디훅 총기 참사 이후에도 연방 총기 규제를 20년 넘게 막아냈다. 이 사례들의 공통 구조는 단순하다. 거대한 경제적 이익을 가진 소수가 집중적으로 자원을 투입하고, 다수의 공익은 분산되어 있어 조직화되지 않는다.

2025년, 이 목록에 새로운 이름이 올라왔다. 빅테크.

그런데 이번에는 규모가 다르다. 산업혁명이 증기기관의 힘으로 물리적 생산을 재편했듯이, AI는 인지노동의 생산성을 재편하고 있다. 그 재편의 경제적 가치는 담배 산업이나 석유·가스 산업보다 훨씬 크다. 2026년 빅테크 4사의 AI 자본 지출 합산은 6,350억~6,650억 달러 사이가 될 것으로 전망된다. 이 투자들의 수익성이 어떤 규제 환경에서 실현되느냐는 수조 달러의 문제다.

그러므로 로비 규모도 다르다.

숫자의 해부

2025년 1월부터 9월까지 9개월간, 7대 테크 기업의 로비 지출 합산은 5,000만 달러였다. 의회 개회일 기준으로 환산하면 하루에 약 40만 달러다. 오하이오주의 평균 가구 소득이 연간 약 5만 5,000달러라면, 빅테크는 매일 오하이오 가구 7가구의 연 수입을 로비에 지출하는 셈이다.

같은 기간 AI 관련 전체 로비 수입은 9,200만 달러에 달했다. 7대 테크 기업의 지출이 그 일부다. 나머지는 AI 관련 스타트업, 반도체 기업, 클라우드 기업, 그리고 AI가 새로운 생존 조건이 된 금융·의료·법률 업계의 로비 자금이다.

2022년에서 2025년 사이, AI 이슈를 담당하는 로비스트 수는 168% 증가했다. 2025년 현재, 워싱턴 DC에 등록된 전체 로비스트 중 26%인 3,570명이 AI 관련 이슈를 담당한다. 4명 중 1명이다. 이 수치는 AI가 단순히 테크 섹터의 이슈가 아니라, 워싱턴 전체 정책 환경의 구심점이 되었다는 것을 보여준다.

기업별로 들어가면 더 선명해진다.

Meta의 2025년 1~3분기 로비 지출은 1,970만 달러였다. 역대 최고치다. 그리고 Meta는 이 기간 87명의 로비스트를 운영했다. 미국 하원 의원이 435명이므로, Meta는 하원 의원 6명당 로비스트 1명을 배치한 셈이다. 이 밀도는 1970~80년대 담배 산업 전성기, 1990년대 석유·가스 산업에서 볼 수 있던 수준이다. 당시 역사를 기록한 사람들은 그 밀도를 미국 민주주의에 대한 위협으로 묘사했다. 지금 같은 수치가 AI 분야에서 재현되고 있다.

Alphabet(Google)은 같은 기간 1,220만 달러를 지출했다. 전년 대비 11% 증가다. OpenAI는 210만 달러로, 전년 대비 68% 증가다. OpenAI의 증가율이 눈에 띈다. OpenAI는 비영리에서 출발한 회사다. 창립 선언문에는 "인류 전체를 위한 AI"라는 문구가 들어있다. 그 회사의 로비 지출이 한 해에 68% 증가했다. 규제 환경이 자신들의 사업 모델과 직결되는 순간, 이 회사들은 어김없이 K스트리트로 향한다. 그것이 인센티브의 논리다.

슈퍼PAC(Super PAC)도 새로 생겼다. 2025년 3분기에만 빅테크 자금이 들어간 슈퍼PAC 3개가 신설됐다. 2010년 대법원의 시민연합(Citizens United) 판결이 선거 자금 규제를 풀어놓은 이후, 슈퍼PAC은 직접 기부의 상한선을 우회하는 가장 효과적인 경로가 됐다. 로비는 현역 의원에게 영향을 미친다. 슈퍼PAC은 선거에서 누가 의원이 될 것인지에 영향을 미친다. 이 두 채널을 동시에 운용하면, 규제를 지연시키는 정치적 생태계 전체를 설계할 수 있다.

로비의 4중 전략

빅테크의 AI 로비는 무작위가 아니다. 정교한 4중 전략으로 구성된다.

첫째, 연방 선점(federal preemption) 추진. 이것이 핵심 전략이다. 캘리포니아, 텍사스, 일리노이, 콜로라도 등의 주들이 각자 AI 규제를 만들기 시작했다. 빅테크는 이 주 규제들을 직접 막는 대신 — 그 방법은 너무 노골적이다 — 연방 차원에서 "통일된 규제"를 요구한다. 명분은 설득력 있다. 50개 주마다 다른 규제를 따르면 기업 부담이 크다. 일관된 연방 규제가 기업에도 소비자에게도 더 낫다. 그런데 그 연방 규제는, 물론, 아직 없다. 연방 규제가 만들어지기 전까지 주 규제를 무력화하는 것이 이 전략의 실질적 효과다. "통일된 규제를 원한다"는 말은 "현재의 무규제 상태를 유지하겠다"는 말과 기능적으로 같다.

둘째, 자율 규제(self-regulation) 프레임 구축. AI 안전 서약, 투명성 보고서, 내부 AI 윤리 위원회. 빅테크 기업들은 이것들을 적극적으로 발표한다. 이것들은 모두 구속력이 없다. 법적 의무가 없으므로 위반해도 처벌이 없다. 실제 기능은 다른 곳에 있다. "우리는 이미 스스로 규제하고 있다"는 내러티브를 형성하는 데 유용하다. 외부 규제의 필요성에 의문을 품게 만드는 것이 이 전략의 목적이다.

셋째, 기술적 복잡성 활용. 국회의원들의 AI 이해도는 평균적으로 낮다. 2023년 상원 청문회에서 한 의원이 구글 CEO에게 "내 딸의 전화기에 광고가 뜨는 것은 왜냐"고 물었던 일화는 이 격차를 상징한다. AI 로비스트들은 이 격차를 전략적으로 활용한다. "AI는 너무 복잡한 기술이므로 규제를 만들기 전에 먼저 충분히 이해해야 한다." 이해가 완성될 때까지 규제는 유예된다. 그런데 기술은 이해보다 항상 빠르게 변한다. 이 논리는 본질적으로 영구적 유예를 위한 논리다.

넷째, 슈퍼PAC을 통한 선거 영향. 이미 설명했듯이, 로비와 슈퍼PAC의 조합은 입법 환경 전체를 설계하는 수단이 된다. 법안을 막는 것에서 한 발 더 나아가, 법안을 막을 의원들을 당선시키는 것이다.

SB-1047의 운명

이 전략들이 어떻게 작동하는지를 하나의 사례가 명확하게 보여준다.

2024년 8월, 캘리포니아주 의회는 SB-1047이라는 이름의 AI 안전 법안을 통과시켰다. 이 법안은 일정 규모 이상의 AI 모델을 개발하는 기업에 안전 테스트 실시, 긴급 중지 메커니즘 구축, 제3자 감사 수용을 의무화하는 내용을 담고 있었다. 미국에서 가장 야심찬 주 수준의 AI 규제 시도였다. 주 의회 양원을 통과한 이 법안은 개빈 뉴섬(Gavin Newsom) 주지사의 서명만 남겨두고 있었다.

뉴섬은 거부권을 행사했다.

거부권 행사 직전 몇 주 동안, Meta와 Google의 로비팀은 새크라멘토와 샌프란시스코를 수차례 오갔다. 주지사실에는 이 법안이 AI 혁신을 저해하고, 캘리포니아의 AI 스타트업 생태계를 다른 주로 몰아낼 것이라는 주장이 전달됐다. OpenAI의 샘 알트만(Sam Altman)은 공개적으로 이 법안에 반대한다는 입장을 밝혔다. Anthropic은 조용하게 반대 의견을 냈다. 학계에서는 찬반이 엇갈렸다.

뉴섬의 거부권 행사 성명문은 이렇게 끝났다. "우리는 AI 혁신을 제한하는 것이 아니라 안전하고 책임 있는 AI 발전을 위한 환경을 만들어야 한다." 번역하면 이렇다. 지금은 아니다.

세계에서 가장 진보적이라고 불리는 주에서, 가장 강력한 AI 기업들의 본거지에서, AI 규제가 이렇게 막혔다. 이것이 연방 차원에서 무엇을 의미하는지는 설명이 필요 없다.

담배 산업 전성기에, 담배 기업들이 가장 집중적으로 로비한 것은 흡연의 위험성에 관한 보고서가 나오는 주와 연방 기관이었다. 그들이 끝내 막으려 했던 것은 그 보고서가 법의 기반이 되는 순간이었다. AI 로비도 같은 논리로 움직인다. 막아야 할 것은 규제 자체가 아니라 규제가 자라날 토양이다. SB-1047은 그 토양이었다.


섹션 B. 크라수스의 21세기 — 빅테크 CEO와 권력의 재편

원형: 크라수스의 메커니즘

1권에서 우리는 마르쿠스 리키니우스 크라수스(Marcus Licinius Crassus)를 만났다.

BC 1세기 로마의 최부자. 그의 부는 화재에서 왔다. 로마의 목조 인슐라에서 불이 나면, 그의 사설 소방대가 가장 먼저 도착했다. 그러나 소방대는 물을 뿌리기 전에 가격을 흥정했다. 집주인이 헐값에 건물을 팔겠다고 할 때까지 소방대는 대기했다. 가격이 합의되면 그때서야 불을 껐다. 크라수스는 그렇게 매입한 건물을 재건해 임대했다. 로마의 주택 수요는 끝이 없었다.

하지만 크라수스의 진짜 혁신은 부동산 투기가 아니었다. 플루타르코스는 이렇게 썼다. "크라수스보다 부유한 사람은 로마에 없었다." 그리고 그 부는 단순히 더 많은 재산을 사는 데 쓰이지 않았다. 그것은 정치적 권력을 구매하는 메커니즘을 만드는 데 쓰였다.

크라수스는 로마 원로원 의원들의 부채를 사들였다. 빚진 원로원 의원은 크라수스의 이익을 거스를 수 없었다. 카이사르가 갈리아 원정 자금이 필요할 때 크라수스가 댔다. 폼페이우스가 동방 원정을 위한 정치적 지지가 필요할 때 크라수스가 지원했다. 제1차 삼두정치는 그렇게 탄생했다. 로마를 지배한 것은 형식적으로는 원로원과 민회였다. 실질적으로는 세 사람의 비공식 동맹이었다. 그리고 그 동맹의 재정 기반은 크라수스였다.

형식이 다를 뿐, 메커니즘은 같다. 부가 권력에 투자되고, 권력이 제도를 설계하고, 제도가 부를 보호하고, 그 보호 속에서 부가 더 커진다. 이것이 1권이 "크라수스의 공식"이라고 명명한 것이었다.

머스크: 정부 안으로 들어간 크라수스

2025년의 크라수스 버전들 가운데 가장 극단적인 사례는 일론 머스크(Elon Musk)다.

크라수스는 원로원에 직접 들어가지 않았다. 원로원 의원들의 부채를 샀을 뿐이다. 머스크는 다른 방식을 택했다. 그는 정부 안으로 직접 들어갔다.

2024년 대선에서 머스크는 트럼프 캠페인에 2억 5,000만 달러 이상을 지원했다고 알려졌다(FEC 공시 및 NYT/WaPo 보도 종합). 그 결과는 정부 효율화부(DOGE, Department of Government Efficiency) 수장직이었다. 공식 명칭은 "자문 위원회" 성격이었지만, 연방 기관 인력 감축과 예산 삭감에 실질적 권한을 행사했다.

구조를 추적해보면 경로가 선명해진다.

DOGE가 연방 정부 인력을 감축한다. 감축된 업무는 AI로 대체된다. AI 도입이 가속화되면 Tesla의 자율주행 소프트웨어와 xAI의 Grok 모델이 직접적인 수혜를 받는다. Tesla는 자율주행 시스템이 연방 규제에서 자유로울수록 유리하다. xAI는 경쟁 AI 기업들인 Anthropic, OpenAI가 강한 규제를 받을수록 상대적으로 유리하다.

2025년 1월 20일, 트럼프가 바이든의 AI 안전 행정명령(EO 14110)을 폐기했다. 같은 달, 안전 테스트 요건과 보고 의무를 삭제한 새 AI 행정명령(EO 14179)이 서명됐다. 이 명령들이 누구에게 유리한지는 선택의 문제가 아니라 산술의 문제다. 규제가 없으면 빠르게 움직이는 쪽이 이긴다. 빠르게 움직이는 쪽은 이미 자원이 집중된 빅테크다.

Anthropic-Pentagon 분쟁의 사례가 이 구조를 다른 각도에서 보여준다. 2026년 2월, Anthropic은 국방부와의 계약 관계를 6개월 내에 단계적으로 종료하겠다고 발표했다. 이유는 분명했다. Anthropic이 설정한 레드라인 — 자율무기 사용 금지, 미국 시민 대규모 감시 금지 — 을 군사 계약이 위협한다는 판단이었다. 국방부는 이에 대응해 Anthropic을 "공급망 위험"으로 지정했다. 국방부 장관 명령이었다. 바로 다음 날, OpenAI가 동일한 레드라인을 포함한 계약서를 Pentagon과 체결했다고 발표됐다. Anthropic이 배제된 자리에 OpenAI가 들어갔다.

이 연쇄를 유심히 보면, 기업이 윤리적 경계를 설정할 때 국가 권력이 어떻게 반응하는지의 패턴이 보인다. 그리고 그 패턴 속에서 어떤 AI 기업이 국가와의 관계에서 유리한 위치에 놓이는지도 보인다.

크라수스가 로마의 공공 인프라(소방서)를 사유화한 것처럼, DOGE는 연방 인프라의 민간화와 효율화를 추진한다. 차이가 있다면, 크라수스는 부를 통해 권력에 접근했고, 머스크는 권력을 통해 부의 생태계를 설계하고 있다는 것이다. 방향이 반대처럼 보이지만, 결과는 같다. 제도가 특정 경제적 이익을 위해 재구성된다.

저커버그: 전술적 전환의 교과서

마크 저커버그(Mark Zuckerberg)의 2025년 행보는 더 노골적인 방식으로 크라수스의 공식을 따른다.

2024년까지 Meta는 공식 입장에서 "책임 AI(responsible AI)"를 말했다. AI 안전 연구에 투자를 발표했고, 플랫폼의 콘텐츠 사실 확인 시스템을 유지했다. 저커버그는 공개 인터뷰에서 AI의 위험성에 대해 경고하는 발언을 했다.

2025년이 되면서 Meta는 방향을 바꿨다.

사실 확인 시스템이 폐지됐다. DEI(다양성·형평성·포용성) 프로그램이 대폭 축소됐다. 저커버그는 트럼프 취임식에 참석한 몇 안 되는 실리콘밸리 CEO 중 하나였다. 그리고 Meta의 로비 지출은 역대 최고치인 1,970만 달러를 기록했다.

저커버그의 계산은 이렇다. 트럼프 행정부와의 관계를 개선해 Meta의 AI 사업에 대한 규제 압력을 줄이는 것이다. 특히 두 개의 전선이 중요했다. 첫째, Meta AI에 대한 연방 규제를 막는 것. 둘째, Meta가 강력한 조항으로 피해를 볼 수 있는 주 수준 AI 규제들을 연방 선점으로 무력화하는 것.

크라수스가 카이사르의 원정 자금을 댔을 때, 그것은 순수한 카이사르에 대한 지지가 아니었다. 카이사르의 성공이 크라수스에게 유리한 정치 환경을 만들 것이라는 계산이었다. 저커버그의 트럼프 접근도 마찬가지다. 이념적 전환이 아니라 생존 전략이다.

이 지점에서 중요한 구분을 해야 한다. 이것을 개인의 도덕 문제로 축소하는 것은 분석의 함정이다. 머스크와 저커버그를 개인적으로 비난하는 것은 쉽지만, 그 서술은 구조를 보지 못하게 만든다.

이들은 미국 정치 시스템이 만들어놓은 인센티브 구조에 최적화된 행위자들이다. 슈퍼PAC이 합법이고, 로비가 합법이며, 행정부 직위를 민간인에게 부여하는 것이 합법인 나라에서, 이 경로를 활용하지 않는 것이 오히려 비합리적이다. 주주에게 최대 이익을 제공해야 하는 상장 기업의 CEO로서, 로비를 통해 규제를 막는 것은 이사회의 기대에 부응하는 행동이다.

크라수스가 나쁜 사람이어서 로마의 공화정이 위기에 처한 것이 아니다. 크라수스를 가능하게 만든 제도적 취약성이 공화정을 위기에 빠뜨렸다. 1권의 교훈이 그것이었다. 그리고 그 교훈은 2026년에도 유효하다. 문제는 개인이 아니라 시스템이다.

권력의 비대칭 테이블

이 맥락에서 AI 정책 결정에 영향을 미치는 각 주체들이 가진 도구를 비교해보면, 왜 79%의 여론이 0건의 법안으로 귀결되는지가 선명하게 보인다.

빅테크 CEO들에게는 로비 자금, 슈퍼PAC, 행정부 직접 참여, 미디어 접근성, 전문 법무팀이 있다. 이 도구들은 실시간으로, 집중적으로, 반복적으로 작동한다. AI 규제 법안이 발의되는 순간부터 폐기되는 순간까지 한 번도 쉬지 않는다.

중산층 화이트칼라 노동자들에게는 투표권이 있다. 이것은 2년에 한 번, 간접적으로, 장기적으로만 작동한다. 더 중요한 것은, AI 규제가 투표 결정의 핵심 이슈가 되지 않는 한, 이 도구는 아무런 힘이 없다는 것이다. 경기, 인플레이션, 이민, 낙태 — 이 이슈들이 선거를 가른다. "AI 법 만들어줘서 고맙다"고 투표를 바꾸는 유권자는 거의 없다.

노동조합에게는 단체 협상권이 있다. 다만 AI 업계에는 노조가 거의 없다. 실리콘밸리 테크 기업들의 노조 조직률은 전통 제조업에 비해 극히 낮다. 전통 제조업 노조들은 AI 협상 테이블에 앉으려 하고 있지만, AI 업계 자체의 노동 조직화는 아직 초기 단계다.

시민단체에게는 여론 형성 능력이 있다. 다만 자금 규모에서 빅테크와 비교가 되지 않는다. AI 윤리 연구자들이 의회에서 증언한다. 보고서를 쓴다. 다만 이것들은 구속력이 없다. 로비스트들은 의원들에게 직접 접근할 수 있지만, 시민단체 연구자들의 의회 접근성은 그보다 낮다.

학계에게는 연구와 증언이 있다. 마찬가지로 구속력이 없다.

이 비대칭이 "79%의 국민이 AI 규제를 원하는데 법이 0건인" 메커니즘이다. 여론은 존재한다. 그러나 여론은 선거에서 표가 되지 않는 한, 입법 과정에서 무게를 갖지 못한다. 그리고 AI 규제는 아직 선거를 가르는 이슈가 아니다.


섹션 C. 79%의 찬성, 0건의 법안 — 관심의 비대칭이 만드는 역설

숫자의 역설

메릴랜드대학교 CISSM의 조사 결과를 다시 가져온다.

AI 규제에 찬성하는 미국 국민: 79%. 공화당 지지자 중: 84%. 민주당 지지자 중: 81%.

이 숫자의 의미를 체감하려면 비교가 필요하다.

총기 규제에 대해 미국 국민의 초당적 지지가 몇 퍼센트인가? 갤럽의 장기 추적 조사에 따르면 "더 엄격한 총기 법이 필요하다"는 응답은 통상 57~60% 수준이다. 낙태에 대한 초당적 입장? 존재하지 않는다. 이민 개혁에 대한 초당적 합의? 수십 년째 불가능하다. 의료보험 개혁? 오바마케어를 둘러싼 갈등이 그 한계를 보여줬다.

오직 AI 규제만이 공화당 84%와 민주당 81%를 동시에 달성했다.

그리고 연방 AI 포괄 법안 통과 건수: 0건.

의회가 통과시킨 유일한 AI 관련 연방 법은 2025년 5월 서명된 TAKE IT DOWN Act다. 이 법은 딥페이크 성착취물의 비동의 배포를 연방법상 범죄로 규정한다. 중요한 법이다. 그러나 이것은 AI 거버넌스의 핵심 이슈 — AI 안전, AI 투명성, AI와 고용, AI와 편향, AI와 데이터 프라이버시, AI 개발 기업의 책임 — 와는 주제상 멀리 떨어져 있다. "미국에 AI 법이 있다"고 말할 때 TAKE IT DOWN Act를 근거로 드는 것은 오해를 부른다. 이것은 AI 규제가 아니라 AI를 도구로 한 범죄에 대한 규제다.

관심의 비대칭

이 역설은 "관심의 비대칭(asymmetry of attention)"으로 설명된다. 개념은 단순하다. 규제의 영향을 받는 집단이 모두 같은 강도의 관심을 갖지는 않는다.

여론조사에서 79%가 AI 규제를 지지한다고 답한다. 그러나 이 79% 중 얼마나 많은 사람이 AI 규제를 기준으로 투표 결정을 바꿀 것인가? 선거 분석가들의 답은 비관적이다. 극소수다. 식료품 가격, 모기지 금리, 의료보험 비용, 국경 문제 — 이것들이 투표장에서 결정적이다. "AI 규제를 만들겠다"는 후보와 "AI 규제보다 일자리가 먼저"라는 후보 중 누가 이기느냐는 AI 입장이 아니라 경제 메시지로 결정된다.

반면 빅테크에게 AI 규제는 수조 달러가 걸린 문제다. Alphabet의 2026년 AI 자본 지출 전망은 1,750억~1,850억 달러다. Meta는 1,150억~1,350억 달러다. Microsoft는 연간 1,450억 달러다. 이 투자들의 수익성이 어떤 규제 환경에서 실현되느냐를 한 번만 계산해 봐도 로비 투자의 경제성이 나온다. 1,970만 달러의 로비 지출로 수천억 달러 규모의 AI 사업에 대한 규제 압력을 줄인다면, 그 투자 수익률은 어떤 사업도 따라올 수 없다.

이것이 관심의 비대칭이다. 다수의 관심은 분산되어 있고 강도가 낮다. 소수의 관심은 집중되어 있고 강도가 극히 높다. 민주주의 정치에서 이 비대칭은 반복적으로 소수의 승리로 귀결된다. 담배 산업, 석유·가스 산업, 금융업이 그랬다. 이제 AI가 그 자리를 차지하고 있다.

이것이 민주주의 자체의 결함인가? 반드시 그렇지는 않다. 이 비대칭은 교정될 수 있다. AI 피해가 가시화되고, AI가 일자리에 실질적 충격을 미치기 시작하고, 언론이 피해자 이야기를 반복적으로 다루고, AI 규제가 투표를 바꾸는 이슈가 될 때 — 정치 계산이 바뀐다. 공장법도 그 과정을 거쳤다. 그러나 그 과정에는 시간이 걸렸다. 64년이.

주 수준의 실험: 교착의 우회로

연방이 교착 상태에 있는 동안, 주(州) 차원에서는 다른 모습이 펼쳐지고 있다. 이것이 미국 연방 시스템의 또 다른 면이다.

2025년 기준, 50개 주 전체에서 AI 관련 법안이 발의됐다. 그 중 38개 주가 약 100개의 AI 관련 조치를 채택했다. 2026년 1월 1일, 캘리포니아, 텍사스, 일리노이 등의 주 AI 법률이 시행됐다. 연방 의회가 교착된 곳에서, 주 의회들이 먼저 움직이고 있다.

각 주의 접근은 다양하다. 콜로라도는 AI 고위험 시스템에 대한 영향 평가와 공지 의무를 도입했다. 텍사스는 AI 시스템 배포 기업에 편향 감사 요건을 부과했다. 일리노이는 채용 과정에서의 AI 사용에 대한 규제를 강화했다. 캘리포니아는 AI 생성 콘텐츠 라벨링을 의무화하고, 자율주행 차량 관련 AI 안전 기준을 높였다.

이것들은 불완전하다. 각 주마다 다른 기준이 실제로 기업 부담을 높인다는 비판도 타당한 면이 있다. 그러나 이 주 수준의 실험들은 두 가지를 증명한다. 첫째, 민주주의 제도가 AI를 규제할 의지와 능력이 있다. 연방이 막힌 것이지, 민주주의가 막힌 것이 아니다. 둘째, 이 실험들은 연방 규제가 만들어질 때 무엇이 효과적이고 무엇이 비현실적인지를 알려주는 데이터를 생산하고 있다.

그렇지만 이 주 수준 실험들에 대한 위협이 동시에 커지고 있다.

2025년 12월 11일, 트럼프의 "국가 AI 정책 프레임워크" 행정명령이 서명됐다. 이 명령은 AI 소송 태스크포스를 설치하고, 상무부에게 주 AI 규제가 연방 AI 정책과 충돌하는지 평가하도록 지시했다. 또한 연방 광대역 보조금 BEAD 자금 420억 달러의 수령 조건으로 주 AI 규제 폐지를 요구하는 조항도 포함됐다.

이것은 빅테크 로비의 핵심 요구 — 연방 선점을 통한 주 규제 무력화 — 가 행정명령으로 구현된 순간이었다. 규제를 직접 금지하는 것이 아니라, 규제를 만드는 주들에 경제적 불이익을 주는 방식으로.

38개 주의 100개 조치는 살아있다. 다만 그것들이 살아남기 위한 싸움이 시작됐다.


섹션 D. 14년에서 64년 — 제도는 기술보다 느리다

1권의 수치가 현재를 만날 때

1권에서 끌어낸 하나의 수치가 있다.

1769년, 리처드 아크라이트(Richard Arkwright)가 더웬트 강변에 최초의 수력 방적 공장을 열었다. 랭커셔의 면화가 기계의 힘으로 실로 변하기 시작했다. 산업혁명의 형식적 시작점이다. 그로부터 64년이 흐른 1833년, 영국에서 공장법(Factory Act)이 제정됐다. 9세 이하 아동의 공장 노동을 금지하고, 13세 이하의 노동시간을 하루 9시간으로 제한하며, 공장 감독관 제도를 도입한 법이었다.

64년. 1권에서 산업혁명의 제도 적응 사례로 제시한 수치다. 새로운 기술이 사회를 변형하기 시작한 시점부터, 그 변형으로 인한 피해를 제도가 공식적으로 다루기 시작하는 시점까지 걸리는 시간.

이 수치 하나를 '기저율'이라 부르기엔 사례가 하나다. 그러나 다른 범용 기술을 살펴보면 패턴이 보인다.

증기 철도가 1830년에 리버풀~맨체스터 구간을 상업 운행하기 시작했다. 영국에서 철도 규제법(Railway Regulation Act)이 통과된 것은 1844년이다. 14년이 걸렸다. 자동차가 1886년 카를 벤츠의 특허와 함께 등장했다. 면허 제도와 속도 제한이 법으로 확립된 것은 1903~1910년대다. 20~30년이 걸렸다. 라디오가 1920년대에 보급됐다. 미국에서 연방통신위원회(FCC)가 설립된 것은 1934년이다. 14년이 걸렸다. 인터넷이 1991년 상업화됐다. EU의 GDPR이 시행된 것은 2018년이다. 27년이 걸렸다. 미국에서는 연방 차원의 인터넷 프라이버시 법이 아직도 없다.

그리고 소셜미디어가 2004년 Facebook과 함께 본격화됐다. 2026년 현재, 미국에는 연방 소셜미디어 포괄 규제가 없다. 22년째 진행 중이다.

생성형 AI는 2022년 11월 ChatGPT와 함께 대중화됐다. 2026년 현재, 미국에는 연방 AI 포괄 법안이 0건이다. 3년이 지났다.

이 사례들이 보여주는 것은 하나의 숫자가 아니라 하나의 밴드다. 민간 기술의 제도 적응은 14년에서 64년 사이에서 움직였다. 군사적 긴급성이 있을 때 — 원자력(1942→원자력법 1946, 4년) — 이 밴드는 극적으로 압축됐으나, 민간 영역에서는 그런 압축이 관찰되지 않았다. 64년은 '기저율'이 아니라 이 밴드의 상한이다. AI의 제도 적응이 이 밴드의 어디에 놓일지가 이 섹션의 핵심 질문이다.

속도 논쟁: 이번에는 다를 것인가

밴드의 상한인 64년을 그대로 적용하면 AI 규제는 2086년에야 나온다는 계산이 된다. 이는 명백히 불합리하다. 기술 변화의 속도가 달라졌고, 피해의 가시화 속도가 달라졌으며, 글로벌 경쟁이 규제의 정치경제를 변화시키고 있다. 그러므로 이 밴드는 압축될 것이다. 문제는 얼마나 압축되느냐다.

더 빠를 것이라는 근거들이 있다.

첫째, 위험의 가시화가 이전보다 훨씬 빠르다. 딥페이크로 인한 피해, AI 기반 사기 전화, 채용 AI 알고리즘의 차별 — 이 피해들은 발생 즉시 언론에 보도된다. 1769년 공장이 문을 열었을 때 맨체스터 아동 노동의 피해는 수십 년이 지나서야 공론화됐다. 지금은 수일 내에 공론화된다.

둘째, 글로벌 압력이 존재한다. EU AI Act가 2024년 발효됐다. 중국이 2023년 생성형 AI 규제를 시행했다. 미국의 규제 공백이 외국 기업들에게 상대적 이점을 준다는 주장이 설득력을 얻기 시작했다. "규제 없이 혁신하라"는 구호가 "우리만 규제 없이 경쟁에서 불리해지는 것 아닌가"라는 의문과 충돌하기 시작했다.

셋째, 선거 이슈화 가능성이 높아지고 있다. 2025년 AI 직접 해고가 5만 5,000건, 2026년 1~2월에만 기술기업에서 3만 2,000명이 일자리를 잃었다. AI가 일자리에 가시적 충격을 미치기 시작하면, "AI 규제"가 "경제 문제"로 전환된다. 그 순간 투표 계산이 바뀐다.

그러나 더 느릴 것이라는 근거들도 있다.

첫째, 빅테크 로비 규모가 역대 최대다. 규제를 지연시키는 제도적 역량도 역대 최대다. 이전의 어떤 기술 혁명도 이 수준의 자금력과 정치적 접근성을 가진 산업에 의해 주도된 적이 없다.

둘째, AI 기술 변화 속도가 규제 설계 속도보다 훨씬 빠르다. 규제를 만들어도 법이 발효되는 시점에 이미 기술이 수 세대를 지나 있을 수 있다. 이것은 규제를 아예 안 하는 것의 논리로 오용되지만, 실제로는 규제 설계 방식의 문제 — 특정 기술보다 위험 범주를 기반으로 규제해야 한다는 논리로 EU가 활용한 방식 — 가 더 적절한 해법이다.

셋째, 트럼프 행정부의 탈규제 기조가 2028년 이전에 바뀔 가능성이 낮다. 연방 선점 전략이 계속 진행 중이다.

넷째, "AI 규제는 중국에 유리하다"는 지정학적 논리가 규제 반대의 새로운 명분이 됐다. 이 논리의 구조는 이렇다. 미국이 AI를 규제하면 미국 AI 기업의 혁신 속도가 떨어진다. 중국은 규제가 덜하므로 더 빠르게 발전한다. 따라서 AI 규제는 미국의 국가 안보를 위협한다. 이 논리는 절반만 맞다. 중국의 AI 규제는 단순히 "덜" 한 것이 아니라 "다른 목적"을 가지고 있다는 사실을 무시하기 때문이다.

중국의 9개월: 속도의 이면

2022년 11월 ChatGPT 출시. 2023년 8월 15일, 중국 국가인터넷정보판공처(CAC)는 생성형 AI 서비스 관리 잠정 조치(生成式人工智能服务管理暂行办法)를 시행했다. 세계 최초의 구속력 있는 생성형 AI 규제였다. ChatGPT 등장에서 9개월이 걸렸다.

이 수치는 인상적이다. 그리고 "중국은 9개월, 미국은 3년+ 0건"이라는 대비는 극적이다. 그러나 이 대비를 "중국의 AI 규제가 더 낫다"는 함의로 읽는 것은 절반의 사실만 보는 것이다.

중국의 생성형 AI 잠정 조치를 읽어보면 두 종류의 조항이 있다.

첫 번째 종류는 민주주의 국가에서도 기대할 수 있는 내용들이다. AI 생성 콘텐츠에 명확한 라벨 표시 의무화. 사용자 개인정보 보호. 알고리즘의 데이터 사용에 대한 투명성 요건. 미성년자 보호. 이것들은 진지한 AI 거버넌스의 요소들이다.

두 번째 종류가 다르다. "사회주의 핵심 가치관을 준수하는 내용만 생성할 것." "국가 정권 전복이나 사회주의 체제 전복을 선동하는 내용 금지." "민족적·종교적 차별을 조장하는 내용 금지" — 이 항목은 맥락에 따라 신장(新疆) 위구르족 상황에 대한 AI 생성 콘텐츠를 겨냥할 수 있다. "공산당의 권위에 도전하는 콘텐츠를 생성하는 AI 모델 금지."

중국의 생성형 AI 규제는 단순히 AI를 규제하는 것이 아니다. AI를 통해 가능해진 정치적 표현을 통제하는 수단으로 AI를 규제한다. 규제의 속도는 빠르다. 그러나 규제의 방향이 민주주의에서 상상하는 방향과 다르다.

2025년 이후 중국의 AI 규제 조치들도 같은 구조를 갖는다. 2024년 11월 "청랑(清朗, 맑고 밝음)" 알고리즘 거버넌스 캠페인은 플랫폼 알고리즘이 "올바른 가치관을 전파"하도록 요구한다. 2025년 9월 시행된 AI 생성 콘텐츠 라벨링 규칙은 명시적·암시적 라벨을 모두 의무화했다 — 여기서 "암시적 라벨"의 범위가 무엇을 포함하는지가 중요하다.

같은 구도를 대칭적으로 서술하면 이렇다.

미국 AI 규제의 부재: 빅테크가 우선이다. 규제가 없는 동안 빅테크는 자유롭게 시장을 장악하고 사회를 변형한다. 시민은 후순위다.

중국 AI 규제의 속도: 당(黨)이 우선이다. 규제가 빠르게 나왔지만, 그 규제는 당의 권위를 강화하는 방향으로 작동한다. 시민은 후순위다.

두 나라는 이유가 다르지만 같은 귀결점에 도달한다. 어느 쪽도 시민을 위한 AI 거버넌스를 만들고 있지 않다. 중국에서는 당이 기준이고, 미국에서는 자본이 기준이다. 이 대칭적 실패가 현재 글로벌 AI 거버넌스의 핵심 문제다. 그리고 이 두 거대한 실패 사이에서, EU가 불완전하지만 세 번째 경로를 시도하고 있다.

EU AI Act: 민주주의가 규제할 수 있다는 증거

EU AI Act는 2024년에 발효됐다. ChatGPT 등장에서 약 21개월이 걸렸다. 중국의 9개월보다 느리지만, 미국의 3년+보다 빠르다. 더 중요한 것은 내용이다.

EU AI Act는 위험 기반(risk-based) 규제 체계를 채택했다. AI 시스템을 위험 수준에 따라 4단계로 분류한다. 수용 불가(금지), 고위험, 제한적 위험, 최소 위험. 생체 인식 기반 원격 감시, 사회 신용 시스템, 무작위 딥페이크 생성 — 이것들은 원칙적으로 금지된다. 채용 결정, 교육 평가, 필수 서비스 접근, 법 집행에 활용되는 AI는 고위험으로 분류되어 엄격한 기준을 적용받는다. 2026년 8월 2일부터 고위험 AI 시스템 관련 규정이 시행된다. 위반 시 최대 3,500만 유로 또는 글로벌 매출의 7%를 벌금으로 부과한다. 미국 AI 기업들도 EU 시장에서 영업하는 한 이 규정을 따라야 한다.

EU의 접근이 완벽하지 않다는 비판은 타당하다. "고위험"의 정의가 너무 좁아서 많은 중요한 AI 응용들이 규제 범위 밖에 있다. 규제 준수 비용이 대기업보다 스타트업에 불균형적으로 부담된다. 혁신을 저해할 수 있다는 우려도 있다.

그러나 EU AI Act는 하나의 결정적인 사실을 증명한다. 민주주의 제도가 AI를 규제하는 것이 구조적으로 불가능하지 않다는 것이다. 문제는 민주주의가 아니라 미국 특유의 정치 구조 — 로비 시스템, 연방-주 갈등, 양극화된 의회 — 에 있다. "민주주의는 느리다"는 말은 미국의 현재 상태에 대한 서술로는 맞지만, 민주주의의 본질에 대한 서술로는 틀렸다.

64년이 반복된다면

공장법 제정까지의 64년 동안 무슨 일이 있었는지는 1권에서 상세히 추적했다.

맨체스터 방직 노동자의 평균 사망 연령은 17세였다. 농촌 노동자의 38세에 비해 21년이 짧았다. 랭커셔 수직공의 주급은 1805년 25실링에서 1835년 4.5실링으로 30년 만에 84% 붕괴됐다. 아동들은 새벽 다섯 시부터 밤 아홉 시까지 공장에서 일했고, 이를 막는 법이 없었다. 기술은 생산성을 높였고, 그 생산성의 과실은 공장주들에게 갔다. 노동자들에게는 더 긴 시간, 더 낮은 임금, 더 짧은 수명이 남았다.

공장법이 제정된 것은 기술이 성숙했을 때가 아니었다. 고통이 더 이상 무시할 수 없는 수준에 도달했을 때, 도시 노동자들의 상태가 중산층 개혁가들의 눈에 들어왔을 때, 차티스트 운동이 정치적 압력을 형성하기 시작했을 때였다. 고통이 정치가 됐을 때 제도가 움직였다.

AI 시대의 64년은 다를 것인가?

2025년, 미국에서는 AI와 관련된 직접 해고만 55,000건이 기록됐다. 2026년 1~2월에만 기술 기업에서 32,000명이 일자리를 잃었다. 파라리걸의 업무 중 69%는 이미 AI가 처리할 수 있는 것으로 분류된다. COBRA 보험료는 월 584달러이고, 학자금 대출 상환은 멈추지 않는다. WEF는 AI와 로봇으로 2030년까지 9,200만 개의 일자리가 대체될 것으로 전망한다. 동시에 1억 7,000만 개의 새 일자리가 생긴다는 예측도 있다. 그러나 이 두 숫자 사이의 전환 과정이 순탄하지 않다는 것이 문제의 본질이다.

해고된 파라리걸이 AI 트레이너나 프롬프트 엔지니어가 되기 위해서는 재교육이 필요하다. 재교육에는 시간이 필요하고, 그 시간 동안 생활비가 필요하다. COBRA 보험료, 학자금 대출, 모기지 — 이 채무들은 재교육을 기다려주지 않는다. 제도가 이 전환을 지원하지 않으면, 전환 과정에서 밀린 자들은 더 낮은 임금의 서비스업으로 이동하거나, 완전히 노동시장 밖으로 밀려난다.

1769년의 랭커셔 수직공과 2025년의 파라리걸을 나란히 놓으면, 표면적 조건은 다르다. 수직공은 가난했고, 파라리걸은 중산층이다. 그러나 고통의 구조는 같다. 기술 변화가 자신의 숙련을 코모디티화한다. 생산성은 오르는데 자신의 임금은 오르지 않거나 사라진다. 제도는 이 전환을 지원하지 않는다. 그리고 그 제도를 바꿀 정치적 힘이 자신에게는 없다.

64년이 반복된다면, 그 기간 동안 밀린 자들에게 무슨 일이 벌어질지는 이미 봤다.


1권 연결점: 제도는 기술보다 느리다

이 챕터의 테제는 1권에서 이미 역사적으로 확립됐다.

제도는 기술보다 느리다.

1권은 이 사실을 로마의 소농(BC 2~1세기), 랭커셔의 수직공(1805~1835), 그리고 두 경우 모두에서 등장하는 크라수스와 아크라이트라는 "읽은 자"들을 통해 서술했다. 기술이 사회를 변형하는 속도와 제도가 그 변형에 응답하는 속도 사이에는 항상 간극이 있었다. 그 간극에서 이익을 보는 자들이 있고, 그 간극 안에서 고통받는 자들이 있었다.

1권이 포착한 것은 이 간극의 존재만이 아니었다. 간극을 유지하는 구조도 포착했다. 크라수스는 원로원 의원들의 부채를 샀다. 아크라이트는 특허와 자본으로 공장 시스템을 독점했다. 이들은 간극을 줄이는 제도적 변화에 저항할 인센티브와 수단을 모두 가지고 있었다. 그리고 그들이 저항하는 동안, 밀린 자들의 고통은 계속됐다.

2026년의 빅테크는 이 구조의 21세기 버전이다. 로비, 슈퍼PAC, 행정부 직접 참여 — 이것들은 크라수스의 원로원 부채 매입과 아크라이트의 특허 독점의 현대적 등가물이다. 형식은 달라졌고, 규모는 훨씬 커졌다. 그러나 간극을 유지하는 인센티브와 수단이 읽은 자들에게 집중되어 있다는 구조는 동일하다.

2권 Ch.7은 이 테제를 현재형으로 적용한다.

1권이 "제도 적응의 존재"를 역사적으로 증명했다면, 2권 Ch.7은 "제도 적응의 장애물"을 현재 진행형으로 분석한다. 로비, 양극화, 연방-주 갈등, 미중 경쟁 프레임. 이 장애물들이 제도 적응 기간을 밴드의 상한 쪽으로 밀어올리고 있다.

독자를 위한 브리지: 1권에서 우리는 공장법이 64년 걸렸다는 것을 봤다. 그 64년 동안 맨체스터 노동자의 평균 사망 연령은 17세였다. 지금 미국에서 "64년"이 반복된다면, 그 기간 동안 밀린 자들에게 무슨 일이 벌어질지는 Ch.5에서 이미 봤다. COBRA 보험료, 학자금 대출, 안전망의 구멍들. 18세기의 고통과 21세기의 고통은 형태가 다르다. 그러나 제도가 기술을 따라잡는 데 걸리는 시간 동안 그 고통을 감내하는 것은 항상 같은 사람들이다.

단, 이 패턴은 영구적이지 않다. 공장법은 결국 제정됐다. 64년이 걸렸지만. GDPR은 결국 시행됐다. 27년이 걸렸지만. 고통이 가시화되고, 정치 계산이 바뀌고, 제도는 움직인다.

그 임계점이 언제인지는 지금 알 수 없다. 다만 5만 5,000건의 AI 직접 해고가 말해주는 것은 이것이다. 그 임계점은 가까워지고 있다.


전환부: Part 2의 마감, Part 3을 향하여

Part 2는 여기서 끝난다.

미국의 강점은 실재한다. 세계 AI VC 투자의 60%가 베이 에어리어에 집중되고, NVIDIA는 AI 칩 시장의 92%를 장악했으며, Stargate 프로젝트는 4년간 5,000억 달러를 AI 인프라에 쏟아붓겠다는 계획이다. 약점도 실재한다. 55,000명이 AI로 직접 해고됐지만 연방 재교육 시스템이 작동하지 않는다. 연방 AI 법은 3년이 지나도 0건이다. 빅테크 로비는 79%의 여론을 법안 0건으로 전환한다.

엄청난 강점과 엄청난 자기 모순이 공존하는 나라. 이것이 2026년 초 미국의 자화상이다.

거울을 뒤집는다.

Part 3에서는 같은 프레임으로 중국을 본다. "중국은 미국과 정확히 반대되는 강점과 약점을 가진다"는 말은 반만 맞다. 속도 있는 규제, 다만 그 목적이 시민이 아닌 당을 향한다. 방대한 데이터, 그 이면에서 정보 통제가 혁신에 보이지 않는 상한선을 부과한다. 국가 주도 전략의 선명함, 그러나 부동산 위기와 인구 절벽이 그 재정 기반을 흔든다.

그리고 중국의 밀린 자들이 있다. 35세 위기, 배달 라이더로 전락한 대학원 졸업생, 탕핑(躺平)을 선택하는 청년들. 이들은 미국의 밀린 자들과 같은 AI 혁명 앞에 서 있다. 다만 마주하는 안전망의 구조, 제도의 형태, 권력과의 거리가 다르다.

미국의 답은 아직 없다. 중국의 답은 있지만, 그 답은 다른 질문에 대한 답이다.

이 대칭과 비대칭을 동시에 보는 것. 그것이 Part 3에서 우리가 할 일이다.


미국의 AI 패권은 달러와 GPU와 이민자로 지탱된다. 그런데 달러 패권에 균열이 가고 있다. GPU 수출을 스스로 제한하고 있다. 이민의 문을 좁히고 있다. 이것은 자기 잠식인가, 전략적 조정인가. 중국이라는 거울에 비춰볼 차례다.


보론: 핵심 수치 일람

이 챕터에서 인용된 주요 수치를 한곳에 정리한다.

빅테크 로비 지출 (2025년 1~9월)

기업/항목 수치 출처
7대 테크기업 합산 $5,000만 Issue One
AI 관련 전체 로비 수입 $9,200만 BGOV
AI 로비스트 증가 (2022→2025) +168% Sludge
전체 로비스트 중 AI 담당 비율 26% (3,570명) Sludge
Meta 로비 지출 $1,970만 (역대 최고) Issue One
Meta 로비스트 수 87명 Issue One
Alphabet 로비 지출 $1,220만 (+11% YoY) Issue One
OpenAI 로비 지출 $210만 (+68% YoY) Issue One
빅테크 슈퍼PAC 신설 3개 (2025 Q3) Issue One
의회 개회일 기준 일일 로비 약 $40만 Issue One

AI 규제 여론 vs 입법 현황

항목 수치 출처
AI 규제 찬성 (전체 국민) 79% CISSM/메릴랜드대
공화당 지지자 찬성 84% CISSM
민주당 지지자 찬성 81% CISSM
연방 AI 포괄 법안 통과 0건 Baker Botts
통과된 AI 관련 연방 법 TAKE IT DOWN Act 1건 Baker Botts
주 AI 조치 채택 38개 주, 약 100개 Drata

미국 AI 규제 주요 타임라인

날짜 내용
2025.01.20 바이든 AI 안전 EO 14110 폐기
2025.01 EO 14179 — AI 혁신 촉진, 안전 테스트 요건 삭제
2025.05 TAKE IT DOWN Act 서명
2025.12.11 국가 AI 정책 프레임워크 EO — 주 규제 견제
2026.01.01 CA·TX·IL 등 주 AI 법률 시행

제도 적응의 역사적 밴드

기술 등장 제도 대응 소요 연수
최초 방적 공장 (1769) 공장법 (1833, 영국) 64년 (상한)
자동차 (1886) 면허·속도제한법 (1903~10년대) 20~30년
증기 철도 (1830) 철도 규제법 (1844, 영국) 14년
라디오 (1920년대) FCC 설립 (1934, 미국) ~14년
인터넷 (1991) GDPR (2018, EU) 27년
생성형 AI (2022) 잠정 조치 (2023.08, 중국) 9개월
생성형 AI (2022) AI Act (2024, EU) 21개월
생성형 AI (2022) 미국 연방 AI 법 3년+ 진행 중

Anthropic-Pentagon 분쟁 (2026.02)

항목 내용 출처
Anthropic 연방 계약 단계적 폐지 6개월 (2026.02.27 발표) CNN/CNBC
국방부 Anthropic 지정 "공급망 위험" Washington Post
Anthropic 레드라인 자율무기·미국 시민 대규모 감시 금지 CNN
OpenAI Pentagon 계약 Anthropic 배제 직후 체결 (동일 레드라인 포함) Fortune

Investor Lens: Part 2를 읽은 투자자에게

미국 편을 관통하는 투자 함의는 하나로 수렴한다: 혁신의 엔진은 건재하나, 제도의 변속기가 고장 나 있다.

실리콘밸리 생태계(Ch.3)는 여전히 세계 최강의 혁신 인프라다. VC 자금, 대학 연구, 이민 인재, 자본시장의 4중 순환은 단기간에 복제할 수 없다. 이것은 미국 테크 프리미엄의 구조적 근거다.

그러나 달러와 GPU의 이중 구조(Ch.4)는 집중 리스크를 만든다. 빅테크 5사의 CapEx가 반도체 산업 전체 매출과 맞먹는다는 것은, 이 기업군에 대한 노출이 곧 AI 사이클 전체에 대한 베팅이라는 뜻이다. 분산이 필요한 지점이다.

밀린 자의 확산(Ch.5)과 제도 교착(Ch.7)은 정치적 리스크로 번역된다. 화이트칼라 실업이 가시화되면 AI 규제 압력이 높아진다. 그러나 로비 구조가 포괄적 법안을 막고 있으므로, 규제는 "갑자기, 한꺼번에" 올 가능성이 높다. EU의 AI Act가 그 선례다. 규제 쇼크에 취약한 섹터(AI 채용 플랫폼, 감시 기술, 자율주행)와 수혜 섹터(컴플라이언스, AI 감사)를 미리 구분해두는 것이 Part 2의 실전적 교훈이다.

읽은 자 프로필(Ch.6)은 차세대 성장주의 지도다. 1인 기업이 100인의 산출을 내는 구조는 SaaS 플랫폼, AI 에이전트, 크리에이터 인프라 섹터에 투자 기회를 만든다. 이 섹터의 공통점은 고정비가 낮고 마진이 높다는 것이다.

Part 3에서는 같은 질문을 중국에 적용한다. 미국의 강점이 곧 중국의 약점인 것은 아니며, 그 역도 마찬가지다.


Ch.7 초고 완성: 2026-03-03 다음: Part 3 — 중국의 알고리즘 (Ch.8: 국가가 읽은 자가 될 때)