← 느린 정의, 빠른 질서 Vol. 4 6 / 12 English
Vol. 4 — 느린 정의, 빠른 질서

6장 — 워싱턴의 공백


1. 코미디와 비극이 교차하는 3시간

블루멘탈이 올트먼에게 물었다.

"당신이 만든 기술이 어떤 위험을 초래할 수 있습니까?"

올트먼이 답했다. "제가 가장 두려워하는 것은 우리가 — 이 분야가, 이 기술이, 이 산업이 — 세상에 심각한 해를 끼치는 것입니다. 이 기술이 잘못되면, 아주 크게 잘못될 수 있다고 생각합니다." 그리고 구체적으로 말했다. "점점 더 강력해지는 모델의 위험을 완화하기 위해 정부의 규제 개입이 매우 중요할 것이라고 생각합니다"[주3].

같은 청문회에서 뉴욕대 교수 게리 마커스는 더 직설적이었다. "우리는 도자기 가게에 들어간 황소 같은 기계를 만들어냈습니다 — 강력하고, 무모하고, 통제하기 어려운"[주4].

이 교환은 언론에 대서특필됐다. 그러나 같은 청문회에서 다른 상원의원들의 질문도 기록됐다. "ChatGPT가 무엇입니까." "AI와 인터넷의 차이가 무엇입니까." "당신이 만든 프로그램이 나쁜 일을 하면 꺼버릴 수 있습니까."

코미디의 순간이었다. 비극의 순간이기도 했다. 핵무기에 버금가는 위험을 논하는 청문회에서, 입법자들이 규제하려는 기술의 기초 개념을 몰랐다. 블루멘탈이 AI로 자신의 목소리를 사칭해 보인 것은, 기술이 이미 도달한 곳을 보여주기 위해서였다. 그러나 그 시연을 보고도 "AI를 끄면 되지 않습니까"라고 묻는 동료 의원이 있었다.

입법자들이 규제하려는 기술을 이해하지 못하고 있었다. 이것은 정보 비대칭의 미국판이었다. 1장에서 로마 원로원이 라티푼디움의 경제적 메커니즘을 몰랐던 것이 아니었다 — 몰랐던 척했다. 그러나 미국 상원의원들은 진짜로 몰랐다.

그러나 더 중요한 장면은 청문회 이후였다. 올트먼이 요청한 규제가 무엇이었는지 들여다보면.

그는 새로운 규제 기관 창설, AI 모델 라이선싱, 배포 전 독립 테스트를 요청했다. "일정 수준 이상의 역량을 가진 AI 모델의 개발과 출시에 라이선싱과 테스팅 요건의 조합을 고려할 수 있을 것"이라고 증언했다[주5]. 합리적으로 들렸다. 그러나 이 구조에서 누가 유리한가. 이미 대형 모델을 가진 기업이다. 라이선싱과 사전 테스트는 소규모 경쟁자와 오픈소스 커뮤니티에 더 큰 진입 장벽이 된다.

규제 대상이 규제를 설계하는 구조. 1장의 로마 원로원이 의자를 들고 달려온 것과 달리, 이번 기득권 포획은 의회 청문회장에서 정중하게 이루어졌다.


2. 세계에서 가장 비싼 거수

4개월 뒤인 2023년 9월 13일, 척 슈머 상원 민주당 대표는 더 야심찬 시도를 했다. 케네디 코커스 룸에서 비공개 AI 포럼을 열었다. U자형 좌석 배치. 한쪽 끝에 일론 머스크, 반대쪽 끝에 마크 저커버그. 그 사이에 빌 게이츠, 순다르 피차이, 사티아 나델라. 22명의 패널리스트와 주최 상원의원들이 한 방에 모인 것이었다.

슈머가 말했다. "이것은 진정으로 유례없는 자리이며, 유례없어야 합니다. AI에 대응하는 것은 유일무이한 과업이기 때문입니다." 포럼이 끝난 뒤 슈머가 기자들에게 전했다. "저는 회의장의 모든 사람에게 물었습니다 — 정부가 AI 규제에 역할을 해야 합니까? 모든 사람이 손을 들었습니다"[주6].

세계에서 가장 부유한 기술 기업가들이 정부 규제의 필요성에 만장일치로 손을 들었다. 머스크는 퇴장 후 기자들에게 말했다. "이것은 정말로 문명적 위험의 문제입니다. 한 집단 대 다른 집단의 문제가 아닙니다. 이것은 모든 곳의 모든 인류에게 잠재적으로 위험한 것입니다"[주7].

기자회견이 끝나자 저커버그는 기자를 피해 뒷계단으로 사라졌다. 문명의 위기를 논한 회의에서 나온 직후였다.

슈머는 이 포럼을 시리즈로 이어갔다. AI Insight Forum. 빅테크 CEO들을 불러 비공개 브리핑을 듣는 형식이었다. 포럼은 수차례 열렸다. 그리고 법안은 한 건도 나오지 않았다.

세계에서 가장 비싼 거수였다. 문명의 위기에 대해 전원이 동의한 뒤, 전원이 아무것도 하지 않았다.


3. 로비의 310%

그 사이 다른 종류의 행동은 활발했다.

2022년 AI 관련 로비에 참여한 단체는 158개였다. 2023년에 약 450개가 됐다(약 185% 증가). 2024년에 648개가 됐다(추가 41% 증가). 2년간 누적 약 310% 증가[주8]. CNBC 기자 메건 카셀라가 보도했다. "2023년에만 450개 이상의 단체가 AI 관련 정부 로비를 위해 등록했습니다." 그리고 덧붙였다. "이 분야 최대 기업들 상당수가 2023년에 처음으로 AI 로비 활동을 시작했습니다. AMD, NVIDIA, OpenAI, Qualcomm, Cisco — 이제 막 뛰어든 겁니다"[주9].

빅테크의 2024년 총 연방 로비 지출(AI 전용이 아닌 전체 로비)을 보면 규모가 드러난다:

주의할 점이 있다. 이 수치는 AI 전용 로비 지출이 아니라 각 기업의 총 연방 로비 금액이다. AI에 특화된 지출 내역은 공개되지 않는다. 그러나 OpenAI처럼 사업 자체가 AI인 기업의 7배 증가는 방향을 보여준다.

이 숫자들을 1장, 2장의 데이터와 나란히 놓아보자. 기원전 133년 원로원의 라티푼디움 소유자들이 농지 개혁에 저항한 것. 2장에서 공장주들이 로비로 공장법을 64년간 막은 것. 숫자는 달라졌다. 구조는 같다.

피규제자가 규제 논의의 전문가로 초청된다. 의원들이 기술을 몰라서 CEO를 부른다. CEO들이 원하는 규제의 형태가 논의의 출발점이 된다. 기득권 포획이 정중하게, 합법적으로 작동한다.


4. 모래 위의 성

2023년 10월 30일, 바이든 대통령이 AI 행정명령(Executive Order 14110, "Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence")에 서명했다[주12]. 정식 명칭이 보여주듯, 안전과 신뢰가 핵심이었다. 프론티어 AI 모델의 안전 테스트 결과 공개, 형평성 검토, 기관별 AI 거버넌스 프레임워크를 요구했다. 의회 입법 없이 행정부가 할 수 있는 최대치였다.

이것이 행정명령의 한계였다. 다음 행정부가 오면 하루 만에 사라진다.

2025년 1월 20일, 트럼프가 취임했다. 같은 날 서명한 별도 행정명령("Initial Rescissions of Harmful Executive Orders and Actions")으로 바이든의 AI 행정명령(EO 14110)이 즉시 폐기됐다. 3일 뒤인 1월 23일, 트럼프는 후속 행정명령(EO 14179, "Removing Barriers to American Leadership in Artificial Intelligence")에 서명했다. EO 14110 관련 후속 조치의 수정·폐기를 지시하고, 180일 내 미국 AI 패권 유지 행동계획 수립을 명령했다. "이념적 편향이나 사회적 의제"를 명시적으로 거부했다[주13].

2년간 각 부처가 준비해온 AI 안전 지침과 투명성 체계가 하루 만에 사라졌다. 입법이 아닌 행정명령은 모래 위의 성이다. 제도적 지속성이 없다.

같은 해 12월 11일, 트럼프가 또 다른 AI 행정명령에 서명했다. 이번에는 주(州) AI 규제를 무력화하는 내용이었다. 상무부에 "과도하게 부담스러운" 주 AI 법률 목록 작성을 지시했다. 법무부에 연방 정책과 불일치하는 주법을 법적으로 다툴 "AI 소송 태스크포스"를 설치했다. 그리고 기존에 배정된 BEAD 프로그램의 연방 광대역 인프라 자금 420억 달러를 "주 AI 규제 철폐"의 조건으로 연계했다[주14].

단, 법학자들은 이 행정명령의 법적 한계를 지적한다. 행정명령만으로는 기존 주법을 무효화할 수 없다 — 그것은 의회 또는 법원만 가능하다. 주법은 법적 도전이 있기 전까지 집행 가능하다[주15].

연방 규제가 없는 상태에서 주 차원의 대안도 막으려 했다. 규제 진공을 법으로 보호하려는 셈이었다.


5. 실리콘밸리가 실리콘밸리를 이긴 날

2024년 봄, 캘리포니아 주의회에서 법안 하나가 통과됐다. SB-1047, "Safe and Secure Innovation for Frontier Artificial Intelligence Models Act."

대형 AI 모델에 안전 테스트를 의무화하고, 심각한 피해를 초래할 경우 시스템을 중단할 수 있는 장치("킬 스위치")를 요구하는 내용이었다. 제프리 힌턴, 요슈아 벤지오 — AI 분야의 노벨상·튜링상 수상자들이 지지 서한에 서명했다. 이 법안의 필요성을 주장하는 AI 과학자들이 있었다.

반대편에 구글, 메타, OpenAI, 안드레센 호로위츠가 있었다. 그들의 논리: 법안이 혁신을 억제한다. 대형 모델만 규제하고 소형 모델은 규제하지 않는 구조가 불합리하다. 캘리포니아 기업이 다른 주 기업에 비해 불리해진다.

2024년 9월 29일, 새크라멘토. 개빈 뉴섬 주지사의 집무실 책상 위에, 튜링상 수상자들의 지지 서한과 빅테크 로비단체의 반대 의견서가 나란히 놓여 있었을 것이다. 뉴섬이 거부권을 행사했다. 거부 성명에서 "더 작고 특화된 모델이 SB-1047이 규제 대상으로 삼은 모델들만큼, 혹은 그 이상으로 위험해질 수 있다"며 대형 모델 한정 접근을 비판했다[주16].

비판자들은 다른 각도로 읽었다. 뉴섬의 선거 자금 기여자 목록에서 빅테크의 비중을 보라. 2장의 공장주들이 자유방임을 말하며 공장법을 막았을 때와 논리 구조가 같다. 이념과 이해관계가 같은 방향을 가리키면, 어느 것이 실제 동기인지 구분하기 어렵다.


6. 자율규제의 민낯

빅테크는 "우리를 규제하지 않아도 된다, 우리가 스스로 한다"는 논리를 내세웠다.

2023년 7월, 주요 AI 기업들이 백악관에 모여 "자발적 약속"을 발표했다. AI 안전 테스트, 투명성 보고서, 워터마킹. 강제 이행 메커니즘이 없는 약속이었다.

자율규제의 실제 결과를 보면:

2020년 12월의 어느 날, 구글 AI 윤리팀 공동 리더 티밋 게브루 박사의 사내 이메일 계정이 잠겼다. 대형 언어모델의 편향과 환경 비용을 다룬 논문 "확률적 앵무새의 위험(On the Dangers of Stochastic Parrots)"을 발표하려다 내부 검토에서 막힌 뒤였다. 경영진은 논문의 수정 또는 철회를 요구했다. 게브루가 항의 이메일을 보낸 당일, 구글은 해고를 통보했다.

게브루가 연구한 것은 무엇이었나. 대형 언어모델이 학습 데이터에 내재된 편향을 증폭시키며, 그 모델을 훈련하는 데 드는 환경 비용이 간과되고 있다는 분석이었다. 구글이 만들고 있는 바로 그 기술의 위험에 대한 연구였다. 동료 연구자 마거릿 미첼도 수개월 뒤 같은 팀에서 해고됐다. 자사 AI의 위험을 연구한 내부 연구자를 차례로 제거한 것이다. "AI 원칙"을 가장 먼저 발표한 기업이, "AI 원칙"을 연구한 직원을 해고했다. 이것이 자율규제의 실제 모습이었다.

2023년 마이크로소프트는 AI 윤리팀을 대폭 축소했다. AI에 가장 공격적으로 투자하는 시점에 윤리 감독 인력을 줄였다.

2023년 11월 OpenAI 이사회 사태. 안전을 중시하던 이사회가 올트먼 CEO를 해임했다. 5일 만에 번복됐다. 마이크로소프트와 투자자들의 압력, 직원 700명의 집단 서한이 이사회를 굴복시켰다. 거버넌스가 어떻게 작동하는지를 보여주는 사례였다. 안전보다 사업이 이겼다.


7. 공백인가, 비대칭인가

여기서 공정한 질문을 해야 한다. 미국의 규제 부재가 정말 순수한 "공백"인가.

반론이 있다. 미국이 AI 분야에서 세계를 선도하는 이유가 바로 이 규제 유연성일 수 있다. BCG(보스턴컨설팅그룹)의 2023년 혁신 기업 상위 25개 중 16개가 미국 기업이다. 2024년 상반기 미국의 AI 투자는 글로벌 벤처 캐피탈의 약 42%를 차지했고, EU는 약 6%에 그쳤다[주17]. EU는 인구 대비 더 많은 AI 연구자를 양성하지만, 그 연구자들이 규제가 낮고 자본이 풍부한 미국으로 이주한다. 유럽이 인재를 키우고 미국이 수확하는 구조다.

상관관계는 인정해야 한다. 그러나 인과관계는 구분해야 한다. 미국의 AI 패권에는 군사 R&D 투자, 이민 정책, 영어가 기본 연구 언어인 지위, 깊은 자본 시장 등 규제 유연성 외의 요인이 복합적으로 작용한다.

더 정밀한 진단이 있다. Science 저널의 분석에 따르면, 미국의 실제 AI 정책은 규제 부재가 아니라 "규제 비대칭"이다. 수출 통제(CHIPS Act, AI 칩 수출 규제), 이민 통제, AI 인프라 기업에 대한 연방 조달 우선 — 이것은 상당한 국가 개입이다. 다만 소비자 보호가 아닌 산업 보호 방향의 규제다[주18].

외국 경쟁으로부터 미국 AI 대기업을 보호하는 규제는 강력하다. 같은 대기업이 국내 사용자에게 미치는 영향에 대한 규제는 최소한이다. "워싱턴의 공백"이라는 제목이 정확한 것은, 공백이 전방위적이어서가 아니라 한쪽에만 존재하기 때문이다. 산업의 방패는 있지만, 시민의 방패는 없다.


8. 최 대표의 책상 위에서

서울 성수동, 2023년 7월.

최 대표의 책상 위에는 서류 세 묶음이 놓여 있었다. 각각 다른 법무법인의 로고가 찍힌 의견서였다. 변호사 비용 총 1,200만 원. 그리고 세 묶음은 서로 다른 말을 하고 있었다.

그는 2021년 AI 기반 의료 영상 진단 솔루션 스타트업을 공동창업했다. 2022년 시드 투자를 받았다. 2023년이 되자 하나의 질문이 사업의 생사를 좌우하게 됐다 — 자사 AI 솔루션이 "의료기기"인가, 아니면 "소프트웨어"인가. A 법무법인: 의료기기 인허가 필수. B 법무법인: 보조 도구로 해석 가능, 인허가 불필요. C 법무법인: 현행법으로는 판단 불가, 규제 샌드박스 신청 권유.

세 명의 변호사, 세 가지 답. 하나는 사업을 진행해도 된다고 했고, 다른 하나는 진행했다간 불법이 된다고 했고, 나머지 하나는 법 자체가 없다고 했다.

최 대표는 서류를 다시 폴더에 넣었다. 창밖으로 성수동의 붉은 벽돌 건물들이 보였다. 투자자들은 이미 물어보기 시작했다. "법적 리스크가 정리됐습니까?" 파트너사들도 주저했다. "나중에 규제가 생겼을 때 우리가 불법이 될 수도 있지 않나요?"

그는 나중에 이렇게 말했다. "법이 없으면 다 된다고 하는 사람들이 있어요. 그건 틀렸어요. 법이 없으면 아무것도 확실하지 않은 거예요. 법이 없는 게 자유가 아니에요. 무법이에요."

이 상황은 미국 AI 스타트업 생태계의 구조적 상황과 정확히 같다. 다만 규모가 다르다. 미국에서 전국적으로 사업을 하는 AI 기업은 50개 주의 서로 다른 법률을 동시에 준수해야 한다. 콜로라도의 영향평가 의무, 일리노이의 고용 AI 차별 금지, 캘리포니아의 자동의사결정시스템 규제. 최 대표가 법무법인 세 곳에서 서로 다른 의견을 받은 것처럼, 미국 스타트업은 50개의 서로 다른 법적 답변이 필요하다.

연방 규제가 없다는 것은 자유가 아니다. 50개의 불확실성이다.


9. 주(州)들의 패치워크

연방이 움직이지 않으면, 주가 움직인다.

2024년 5월 17일, 콜로라도 주지사가 SB 24-205에 서명했다 — 미국 최초의 포괄적 주(州) AI 법이다. 고용, 교육, 주거, 의료, 금융서비스에서 "중대한 결정"을 내리는 AI에 대해 영향평가, 위험관리 프로그램, 소비자 통지 의무를 부과한다. 위반 시 최대 2만 달러의 과태료. 원래 2026년 2월 1일 시행 예정이었으나, 2025년 8월 특별 입법 세션을 거쳐 2026년 6월 30일로 연기되었다[주19]. 일리노이 주의 HB 3773(고용 AI 차별 금지, 2026년 1월 시행), 캘리포니아의 FEHA 개정안(자동의사결정시스템 규제, 2025년 10월 시행)도 잇따랐다.

50개 주가 서로 다른 AI 법을 만들기 시작한 것이다. 트럼프의 2025년 12월 행정명령이 명시적으로 타겟한 것이 바로 이 콜로라도 법이다.

규제 진공을 채우려는 주와, 그 공백을 지키려는 연방 행정부. 이 긴장이 법원에서 해소될 때까지, 기업들은 어느 법이 살아있는지 알 수 없다.


10. 2장의 거울

영국이 공장법 없이 64년을 보낸 동안, 자유방임이 지배 이념이었다. "시장이 스스로 조절한다." "계약의 자유." "규제가 혁신을 죽인다."

이 책을 쓰는 시점에서 미국에서 같은 문장이 다른 단어로 반복된다. "혁신을 방해하지 말라." "자율규제로 충분하다." "규제가 경쟁력을 죽인다."

2장에서 우리는 이 이념이 어떻게 끝났는지 알고 있다. 새들러 위원회의 682페이지 증언록. 6세 아동이 하루 16시간을 일했다는 공식 기록. 이것이 이념을 무너뜨렸다.

미국 AI 규제를 무너뜨릴 새들러 위원회는 무엇인가. AI가 만들어낸 피해가 충분히 극적으로, 충분히 공개적으로, 충분히 공식적으로 기록될 때. 그때 의회가 움직일 것이다.

하나의 실마리가 이미 있다. 2025년 5월 16일, 캘리포니아 북부 연방법원(담당 Rita Lin 판사)이 Mobley v. Workday 사건에서 AI 채용 차별에 대한 집단소송 예비 인증(preliminary certification)을 최초로 승인했다. Workday의 AI 채용 알고리즘이 40세 이상 지원자를 체계적으로 걸러냈다는 주장이었다. 법원은 AI 알고리즘 자체를 "모든 집단 구성원에게 적용되는 통합 정책"으로 인정했고, Workday를 단순 소프트웨어 벤더가 아닌 채용 과정의 "적극적 참여자"로 판시했다[주20]. AI 벤더의 책임이 배포자에서 개발자로 이동하는 전환점이었다.

1833년 새들러의 682페이지가 아이들의 몸에 새겨진 증거였다면, AI 시대의 682페이지는 거부된 대출, 탈락한 이력서, 제한된 계정, 오판된 보석 점수에 기록되어 있다. 다만, 아직 아무도 그것을 한 권으로 엮지 않았을 뿐이다. Mobley v. Workday가 그 첫 장이 될 수 있다.

그것이 언제일지는 모른다. 그리고 그때까지 피해는 축적된다.


11. 규제 진공의 역설

미국이 규제를 안 하면 어떻게 되는가.

한 가지 예상 밖의 결과가 있다. 연방 규제가 없으니 50개 주가 각자 움직인다. 캘리포니아, 콜로라도, 뉴욕, 일리노이가 서로 다른 AI 규정을 만든다. 전국적으로 사업하는 기업은 여러 주의 규정을 모두 준수해야 한다. 규제하지 않은 결과가 오히려 더 큰 규제 부담이 된다.

그리고 EU의 "브뤼셀 효과"가 있다. GDPR이 전 세계 150개 이상 국가에 영향을 미쳤듯, EU AI Act는 유럽 시장에 진출하려는 미국 기업들에게 사실상 의무가 된다. 미국이 규제를 안 해도, 유럽 규제를 따라야 하는 기업이 그 기준을 미국 사업에도 적용한다. 규제하지 않은 나라가 외국 규제를 수입하는 역설이다.

다만 브뤼셀 효과 자체도 압력을 받고 있다. 브라질의 AI 규제 법안(PL 2338/2023)은 처음에는 EU 모델을 따랐지만, 결국 독일, 영국, 일본 모델을 혼합하는 방향으로 재설계됐다. 미국과 중국은 EU 규제의 전면 수입을 거부하고 있다. "브뤼셀 효과"가 글로벌 규제 수렴이 아닌 규제 파편화를 낳고 있다는 비판도 있다[주21].

2026년 현재, 미국 의회를 통과한 포괄적 AI 법안은 없다. EU AI Act가 발효됐고, 중국이 346개 AI 서비스를 등록했고, 한국 AI 기본법이 시행됐다. 세계가 규제 체계를 만드는 동안, 세계 최대 AI 강국에는 포괄적 연방 AI 법이 없다.

이것이 21세기의 자유방임이다.

4권의 첫 세 장에서 우리는 패턴을 보았다. 로마는 130년을 기다리다 공화정이 무너졌다. 영국은 64년을 기다리다 움직였다. 금융은 37년을 기다리다 위기를 겪었다. 미국 AI는 지금 기다리는 중이다.

12장에서 우리는 이 질문으로 돌아올 것이다 — 느린 정의가 좌절될 때, 빠른 질서가 그 자리를 대신한다. 아우구스투스가 그라쿠스 이후에 온 것처럼. 미국이 기다리는 동안, 무엇을 기다리는지는 다음 여섯 장에서 드러날 것이다.