← 느린 정의, 빠른 질서 Vol. 4 4 / 12 English
Vol. 4 — 느린 정의, 빠른 질서

4장 — 브뤼셀의 3년


1. 2021년 4월의 자신감

브뤼셀의 봄날이었다.

2021년 4월 21일, 유럽위원회는 세계 최초의 포괄적 AI 규제 법안을 공식 제출했다. 회견장에서 마르그레테 베스타거 수석부위원장이 법안을 설명했다. "유럽은 AI 규제의 글로벌 기준을 세울 것이다." 그녀의 원칙은 단순했다. "의미 있는 디지털 전환은 사람을 중심에 놓는 전환뿐이다." 베스타거는 이 원칙이 왜 필요한지 한 가지 장면으로 설명했다. "채용 면접에 한 번도 불리지 못한다고 상상해보십시오. 그 이유가 AI 시스템이 당신 같은 프로필을 한 번도 학습한 적이 없기 때문이라면 — 당신은 그 사실을 어떻게 알겠습니까."

법안의 설계는 정교했다. AI 시스템을 위험 수준에 따라 네 단계로 분류했다. 허용 불가(실시간 대규모 생체 인식 감시, 사회 신용 점수 등). 고위험(의료 진단, 법원 판결 지원, 채용 시스템 등). 제한적 위험(챗봇 — 사용자에게 AI임을 고지해야 함). 최소 위험(스팸 필터, 게임 AI 등). 고위험 시스템에는 투명성 의무와 사전 적합성 평가가 부과됐다.

2년이 넘는 준비였다. 유럽위원회 내부 AI 전문가 집단이 수십 개의 이해관계자 협의를 거쳐 다듬은 법안이었다. 2018년 GDPR(개인정보보호법)이 글로벌 스탠더드가 된 것처럼, 이 법도 "브뤼셀 효과"를 통해 세계로 퍼져나갈 것이라는 자신감이 있었다[주1].

7개월 뒤, ChatGPT가 출시됐다.


2. ChatGPT가 바꾼 것

AI 규제의 역사는 ChatGPT 이전과 이후로 나뉜다.

2021년 법안이 상정한 세계는 "특정 목적을 위한 AI"의 세계였다. X선 영상을 판독하는 의료 AI, 이력서를 분류하는 채용 AI, 신용을 평가하는 금융 AI. 각각의 AI는 특정 도메인에 국한되어 있었고, 그 도메인의 위험도를 기준으로 규제할 수 있었다.

ChatGPT는 다른 종류였다. 의료 질문에 답할 수 있었다. 채용 공고를 분석할 수 있었다. 신용 평가서를 쓸 수 있었다. 법률 자문을 제공했고, 코드를 짰고, 시를 썼다. 어떤 도메인에도 속하지 않으면서 모든 도메인에 침투할 수 있었다.

이것이 "범용 AI(General Purpose AI, GPAI)"의 문제였다. 법안 어디에도 없는 개념이었다.

베네페이와 투도라케는 사실상 처음부터 다시 시작했다. 기초 모델(foundation model) — GPT-4, Claude, Gemini 같은 대형 언어모델 — 에 대한 새로운 규제 체계를 설계해야 했다. 이 모델들은 어느 한 위험 범주에 넣을 수 없었다. 그 위에 세워지는 응용 프로그램의 위험도에 따라 규제가 달라져야 했다.

베네페이에게 그것은 개인적인 타격이기도 했다. 2년 가까이 85개 조항의 논리적 체계를 다듬어온 작업이었다. 이해관계자 수십 곳과 협의하고, 위원회 내부의 기술 전문가들과 밤을 새우며 완성한 법안이었다. 그 법안이 하룻밤 사이에 구멍이 뚫렸다. 그가 나중에 회고한 것처럼, "우리는 기술을 입법에 맞추는 것이 아니라, 입법을 기술에 맞추어야 했습니다." 그것이 민주적 제도의 자기 수정 능력이었다. 고통스럽지만 필요한 과정이었다.

재설계는 2023년 초부터 본격화됐다. 베네페이와 투도라케는 AI 기업의 엔지니어들, 학자들, 시민사회 단체들과 수십 차례 공청회를 열었다. "기초 모델이 무엇인가"에서부터 다시 시작해야 했다. 어떤 전문가는 GPT-4를 "제품"으로 보았고, 어떤 전문가는 "인프라"로 보았다. 제품이라면 개별 규제가 가능하다. 인프라라면 그 위에 세워지는 모든 응용 프로그램으로 규제 책임이 분산된다. 두 개념의 차이가 법안의 구조 전체를 바꿨다.

새로운 개념이 삽입되었다. "범용 AI(General Purpose AI, GPAI)." 특히 훈련 계산량이 일정 기준을 넘는 대형 모델에는 "시스템적 위험(systemic risk)"이라는 범주가 적용되었다. 투명성 의무, 저작권 준수, 안전 평가. 2023년 6월 14일, 유럽의회는 이 GPAI 조항이 포함된 수정 법안을 499 대 28 대 93으로 채택하여 삼자 협상 위임권을 확보했다[주2].

이것이 2023년 말 협상에서 가장 치열한 쟁점이 되었다.


3. 로비의 무게

법안이 재설계되는 동안 브뤼셀에는 로비스트들이 몰려들었다.

오픈AI, 구글, 메타, 마이크로소프트는 유럽 내 로비 인력을 늘렸다. "혁신을 규제가 죽인다"는 논리는 3장의 금융 로비, 2장의 공장주 로비와 같은 문법이었다. 유럽 기업들도 다르지 않았다. 프랑스의 Mistral AI, 독일의 Aleph Alpha는 "유럽 챔피언"을 키워야 한다는 논리로 GPAI 규제 완화를 요구했다.

프랑스, 독일, 이탈리아 정부가 가세했다. 세 나라 산업장관들이 공동 서한을 보냈다. "과도한 규제가 유럽 AI 경쟁력을 미국과 중국에 넘겨줄 것이다." 그 뒤에는 자국 기업들의 절박함이 있었다. 프랑스의 Mistral AI는 설립 1년 만에 유럽 최대의 AI 기업으로 부상했고, 독일의 Aleph Alpha는 유럽의 "소버린 AI"를 표방했다. 이 기업들이 태어나기도 전에 쓰여진 규제에 발목이 잡힐 수는 없다는 것이 세 정부의 논리였다.

2023년 11월 9일, 그 논리가 폭발했다. 통신작업반(Telecommunications Working Group) 회의에서 프랑스, 독일, 이탈리아가 돌연 기초 모델 규제 조항의 철회를 요구했다. 의회 대표단이 예정보다 2시간 일찍 회의실을 떠났다. EU 3대 경제대국이 마지막 순간에 법안의 핵심을 죽이려 한 것이었다. 3년간 총 600시간이 넘는 협상이 무로 돌아갈 뻔한 순간이었다[주3].

베네페이는 이 이탈에 맞서 입장을 굽히지 않았다. "시민의 기본권 보호를 제한하는 방향으로 너무 많이 이동하는 것을 우리는 받아들일 수 없습니다. 매우, 매우 민감한 사안에 대해 정부에게 너무 많은 자유재량을 주는 접근 방식도 받아들일 수 없습니다."

기득권 포획의 AI 시대 버전이었다. 1장의 원로원이 의자를 들고 달려온 것과 달리, 이번 저항은 정장 차림의 로비스트와 공식 서한의 형태를 취했다. 그러나 구조는 같았다. 규제 대상이 규제 설계에 영향력을 행사하는 것.

같은 시기, 지구 반대편에서는 정반대의 광경이 펼쳐지고 있었다. 2022년 3월 1일, 중국 국가인터넷정보판공실(CAC)은 세계 최초의 알고리즘 추천 규제인 「인터넷 정보서비스 알고리즘 추천 관리 규정」을 시행했다. 법안 공개에서 시행까지 불과 3개월이었다. 그리고 이 법은 단일 부처의 결정이 아니었다. CAC, 공업정보화부(MIIT), 공안부, 국가시장감독관리총국 — 4개 부처가 공동으로 발령한 규정이었다. 이해관계자 협의도 없었고, 로비도 없었고, 야당의 수정안도 없었다. 수천 킬로미터 서쪽 브뤼셀에서 3개국 로비가 기초 모델 조항을 뒤집으려 할 때, 베이징은 알고리즘 규제를 4개 부처 도장을 찍어 발효시켰다. 속도의 차이는 체제의 차이였다[주8].

베네페이는 이 논리를 일축했다. "이 규제가 유럽 기업의 혁신을 억누른다는 주장을 이해할 수 없습니다. 이 법은 유럽 기업에만 적용되는 게 아닙니다. 유럽 내부 시장에 AI 시스템을 출시하는 모든 기업에 적용됩니다." 규제가 불이익이 아니라 시장 접근의 조건이 되는 논리 — GDPR이 이미 증명한 바였다.

그러나 로비의 침투력은 깊었다. 베네페이는 나중에 회고했다. "어느 날 아침 사무실에 왔더니 전날 밤 로비스트들이 놓고 간 수정안이 책상에 있었다. 우리가 내부적으로 논의하던 미출시 초안 버전과 정확히 같은 내용이었다."

그가 로비스트의 문서를 손에 들고 있을 때, 브뤼셀에서 수천 킬로미터 떨어진 곳에서는 알고리즘이 이미 사람들의 삶을 재편하고 있었다. 서울의 한 콜센터에서는 240명의 상담사가 AI 시스템의 오류를 수정하는 작업에 동원되고 있었다 — 자신들이 학습시킨 그 AI가 자신들의 자리를 대체하리라는 사실을 모른 채. 베네페이가 "수용 불가능한 위험"의 정의를 놓고 협상할 때, 그 위험은 이미 누군가의 일상이었다.


4. 36시간

2023년 12월 8일 저녁, 브뤼셀 유스투스 립시우스 빌딩의 회의실에 세 집단이 모였다.

유럽위원회 대표단. 유럽의회 대표단. 각료이사회(27개국 장관 대표) 대표단. 삼자 협상(trilogue)이었다. 법안의 최종 형태를 결정하는 마지막 협상.

21개 핵심 쟁점이 테이블에 놓였다. 가장 첨예한 것은 두 가지였다.

첫 번째: 실시간 생체 인식 감시(real-time biometric surveillance). 군중 속에서 얼굴을 인식하여 특정인을 추적하는 기술. 베네페이는 이것을 "수용 불가능한 위험"이라 불렀다. "용도 자체가 너무 위험해서 아예 허용하지 않겠다는 영역입니다. 공공장소에서의 실시간 생체 인식, 예측적 치안, 직장과 학교에서의 감정 인식..." 시민사회는 전면 금지를 요구했다. 각국 정부는 보안과 테러 방지를 이유로 예외를 원했다.

두 번째: GPAI 규제의 강도. GPT-4 같은 기초 모델에 어느 수준의 투명성과 안전 요건을 부과할 것인가.

밤이 지나고 새벽이 됐다. 자정을 넘기자 일부 대표단이 회의실 밖 복도에 쪼그려 앉아 수도에서 온 지시문을 다시 읽었다. 협상 대표들은 공식 테이블에서는 할 수 없는 말을 복도에서 했다. "우리 장관이 이것만큼은 절대 안 된다고 했다." "의회 쪽은 그 조항 없으면 전체 법안을 날린다는 입장이다." 21개 쟁점 가운데 15개가 자정 전에 처리됐다. 남은 6개가 핵심이었다.

새벽 3시, 복도에서 비공식 협상이 벌어졌다. 형광등 불빛 아래 프랑스 대표단과 의회 대표단이 마주 섰다. 쟁점은 실시간 생체 인식 감시의 예외 범위였다. 프랑스는 테러 위협을 들어 법 집행 기관의 얼굴 인식 사용에 넓은 예외를 요구했다. "파리 올림픽이 8개월 앞이다. 군중 속에서 테러 용의자를 식별할 수 없다면 시민의 안전을 누가 보장하는가." 의회 대표단은 맞섰다. "감시 인프라는 한번 구축되면 철거되지 않는다. 올림픽이 끝난 뒤에도 카메라는 남는다." 시민사회 단체들은 회의실 밖에서 전면 금지를 촉구하는 성명을 발표했다. AlgorithmWatch와 EPIC은 어떤 예외도 남용의 문을 연다고 경고했다.

옆 방에서는 GPAI의 "시스템적 위험" 기준을 놓고 기술적 숫자들이 오갔다. 훈련 계산량(compute) 기준선을 어디에 둘 것인가. 그 숫자 하나에 GPT-4 같은 모델이 추가 규제 대상이 되느냐 마느냐가 걸려 있었다.

5시, 빈 커피잔이 테이블에 쌓이고, 대표단의 눈이 충혈됐다. 각국 수도와의 전화가 끊이지 않았다 — 양보의 범위를 확인하기 위해서였다. 어느 대표는 자국 장관과 통화하면서 한 손으로 피자를 먹었다.

오전 6시, 협상이 결렬 직전까지 갔다. GPAI의 "시스템적 위험" 기준 훈련 계산량 임계값을 놓고 각료이사회와 의회가 맞섰다. 이사회는 규제 기업 수를 줄이려 임계값을 높이길 원했고, 의회는 GPT-4 같은 현존 모델이 기준 밖으로 빠져나가는 것을 막으려 했다. 투도라케가 의회 대표단을 복도로 불러냈다. "지금 여기서 포기하면 5년 뒤 새 법을 쓸 때까지 아무것도 없다." 베네페이가 맞장구를 쳤다. "불완전한 합의가 완벽한 교착보다 낫다." 오전 7시 30분, 숫자가 잡혔다. 훈련 계산량 10의 25 플롭(FLOPs). 그 한 줄이 합의의 마지막 자물쇠를 열었다.

2023년 12월 9일 새벽, 잠정 합의가 발표됐다. 36시간이 넘는 마라톤이었다[주4]. 베네페이가 말했다. "길고 격렬했지만, 그 노력은 가치가 있었습니다[주4]." 투도라케가 이어서 말했다. "EU는 세계 최초로 AI에 대한 강건한 규제를 마련했습니다. 이 법은 대규모 AI 모델에 대한 규칙을 세워 체계적 위험이 EU에 미치지 않도록 하고, 공공 기관의 기술 남용으로부터 시민과 민주주의를 보호하는 강력한 안전장치를 제공합니다."

생체 인식 감시: 금지하되 테러 수사 등 엄격한 조건 하에 예외 허용. GPAI: 기초 모델 제공자에게 투명성 의무와 저작권 준수 의무 부과. 특히 시스템적 위험을 가진 대형 모델(훈련 계산량 기준)에는 추가 안전 요건.

이것이 민주적 합의의 모습이었다. 불완전했다. 모든 측이 원하는 것을 얻지 못했다. 그러나 27개국이, 699명의 의원이, 수십 개의 시민사회 단체가 참여한 과정이었다.


5. 523 대 46

2024년 3월 13일, 스트라스부르 유럽의회 본회의.

베네페이가 단상에 올랐다. 3년간의 작업이 이 표결로 완성되거나 무산될 순간이었다.

투표 결과: 찬성 523, 반대 46, 기권 49[주5].

회의장에 박수가 터졌다. 베네페이가 눈물을 닦는 장면이 카메라에 잡혔다. 3년이었다. ChatGPT 때문에 백지에서 다시 시작한 밤, 로비스트의 수정안을 발견한 아침, 36시간 마라톤의 새벽 — 그 모든 것이 이 숫자로 귀결됐다.

표결이 끝나자 AI 기업들의 반응은 엇갈렸다. 오픈AI는 성명을 냈다. "EU AI Act의 시행에 협력할 것이며, 책임감 있는 AI 개발의 중요성에 동의한다." 그러나 같은 회사가 규제 완화 로비에 쓴 금액은 2023년에만 수백만 유로에 달한 것으로 집계됐다. 박수 소리와 로비 영수증이 같은 날 존재했다. 베네페이는 그 아이러니를 알고 있었다. 법이 통과된 날, 집행이 시작된 것은 아니었다. 집행은 각 회원국 감독기관이 AI Office의 가이드라인에 따라 실제 위반 사례를 처음 적발하는 날 시작될 것이다.

한 해설자는 이 법안의 의미를 이렇게 요약했다. "'빠르게 움직이고 파괴하라(move fast and break things)'는 사고방식에서 완전한 180도 전환이다." 예전에는 규제가 파편적이고 반응적이었다. 문제가 터진 뒤에야 뒤따랐다. 이제는 조화되고 예측 가능한, 사전적 틀이 만들어졌다.

티에리 브르통 집행위원이 선언했다. "우리는 로비스트와 특수 이익집단의 압력을 견뎌냈다. 결과는 균형 잡히고, 위험 기반이며, 미래지향적인 규제다. 가능한 한 적게 규제하고, 필요한 만큼 규제한다."

523 대 46. 이 숫자가 중요하다.

2010년 도드-프랭크는 상원에서 60 대 39로 통과됐다. 간신히 필리버스터를 막을 수 있는 수준이었다. EU AI Act는 89%의 지지를 받았다. 이 차이는 법의 집행력에도 영향을 미친다. 누군가 법에 도전하려 할 때, 523 대 46의 민주적 정당성은 강력한 방패다.


6. 느림의 대가, 느림의 가치

3년. 이것을 어떻게 평가해야 하는가.

비판자들은 말한다. 2021년 법안이 제출될 때 이미 AI는 의료, 채용, 금융에서 사용되고 있었다. 그 3년 동안 규제 없이 배포된 AI 시스템들이 얼마나 많은 결정을 내렸는가. 알고리즘에 의해 대출이 거절된 박 사장, 배달 알고리즘에 계정이 제한된 이 기사 — 그들은 EU AI Act가 시행되기를 3년 동안 기다렸다.

옹호자들은 말한다. GDPR을 보라. 유럽이 2012년 제안해서 2018년 시행한 개인정보보호법은 지금 전 세계 120개국 이상이 유사 입법을 채택한 글로벌 스탠더드가 됐다[주6]. 느린 민주적 합의가 "브뤼셀 효과"를 통해 전 세계로 확산됐다. AI Act도 같은 경로를 밟을 수 있다.

2장에서 우리는 영국 공장법의 64년을 평가했다. 그 느림은 두 가지 측면을 가졌다. 수만 명의 아이들이 고통받은 시간이기도 했고, 사회적 학습과 증거 기반 입법이 이루어진 시간이기도 했다.

EU의 3년도 마찬가지다. ChatGPT의 등장으로 법안을 전면 재설계한 것은 실패가 아니었다. 기술 변화에 반응하는 민주적 제도의 자기 수정 능력이었다. 36시간 마라톤 협상은 비효율이 아니었다. 27개국의 서로 다른 이해관계를 하나의 합의로 수렴시키는 과정이었다.

그러나 의문은 남는다. 2027년 완전 시행 시점에 AI 기술은 어디에 있을 것인가. 지금 이 순간에도 새로운 모델이 6개월마다 등장한다. 3년짜리 규제가 시행될 때, 규제하려는 기술은 이미 세 번 세대가 바뀌어 있다.

그 의문은 서울에서도 유효했다. 최 대표가 창업 준비를 하던 2022~2024년, 국회에는 AI 관련 법안이 19개 병존하고 있었다. 과학기술정보통신부 소관, 방송통신위원회 소관, 금융위원회 소관 — 소관 부처도 달랐고, "AI 시스템"의 정의도 법안마다 달랐다. 어떤 법안은 알고리즘 투명성을 의무화했고, 어떤 법안은 자율 규제를 원칙으로 했다. 19개가 모두 통과되면 서로 충돌하는 19개의 규제가 생기는 구조였다. 한국은 EU의 3년 대신 19개의 법안 경쟁이라는 다른 형태의 혼란을 겪었다. 결국 2024년 12월 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법」 하나로 수렴했다. 찬성 260, 반대 0 — EU의 3년 협상이 아니라 여야 합의라는 다른 방식으로 도달한 숫자였다. 그러나 그 합의가 무엇을 담고 무엇을 담지 않았는지는, 법이 시행되는 2026년 1월부터 드러나기 시작했다[주9].


7. 브뤼셀 효과의 조건

EU AI Act가 GDPR처럼 글로벌 스탠더드가 될 것인지는 아직 모른다.

GDPR이 성공한 조건이 있었다. 데이터 보호라는 단일하고 명확한 의제. 위반 시 전 세계 매출의 4%라는 강력한 과징금. 유럽 시장 접근이 필요한 기업들에게 준수 유인을 만든 경제적 논리.

AI Act의 조건은 더 복잡하다. AI는 데이터보다 훨씬 광범위하고 변화가 빠르다. 고위험 AI에 대한 정의가 기술 발전에 따라 계속 재해석될 수 있다. 집행을 담당할 AI Office의 역량이 충분한지, 각 회원국이 일관되게 집행할 것인지는 미지수다.

2026년 현재, AI Act는 시행 중이다. 단계적으로 적용되고 있다[주7].

2025년 2월 2일, 금지된 AI 관행 조항이 발효됐다(Art. 5). 사회적 점수 매기기, 공공장소 실시간 원격 생체 인식, 직장과 교육기관에서의 감정 인식, 프로파일링 기반 예측적 치안이 EU 전역에서 불법이 되었다. 2025년 8월 2일부터 GPAI 모델 의무가 적용되고, AI Office의 집행 권한이 본격 활성화되었다(AI Office는 2024년 1월 24일 유럽위원회 결정으로 설립). 2026년 8월 2일에는 고위험 AI 시스템 전면 규제가 시작된다.

과징금은 위반 유형에 따라 세분화되어 있다(Art. 99). 금지 관행 위반 시 최대 3,500만 유로 또는 전 세계 연매출의 7%. 기타 의무 위반 시 최대 1,500만 유로 또는 3%. 규제 기관에 허위 정보를 제출할 경우 최대 750만 유로 또는 1%다.

그러나 GDPR과 같은 궤적을 밟을 수 있을지는 아직 불확실하다. GDPR이 글로벌 스탠더드가 된 것은 단일하고 명확한 의제(데이터 보호)와 EU 시장 5억 명의 경제적 유인이 결합한 결과였다. AI Act의 의제는 훨씬 광범위하고 기술적으로 복잡하다. 브라질은 디지털시장법 법안을 처음에 EU 모델로 설계했다가 독일, 영국, 일본 모델로 재설계했다. 미국과 중국은 EU 규칙의 전면 도입을 명시적으로 거부하고 있다. "브뤼셀 효과"는 자동이 아니다. 그것은 집행력과 시장 접근의 조건화가 만들어내는 것이다.

법은 나왔다. 집행이 남았다. 1833년 영국 공장법도 법 자체보다 레너드 호너라는 집행자가 더 중요했다.

브뤼셀의 3년이 스트라스부르의 표결로 끝난 것이 아니라, 각 회원국 감독기관 사무실에서 첫 번째 집행 결정이 내려지는 날 비로소 시작된다. 그날이 언제인지, 그리고 그 결정이 어떤 AI 시스템을 향할 것인지 — 그것이 523 대 46의 숫자가 실제 의미를 갖는 순간이다.


523 대 46의 표결이 전광판에 뜬 그날 밤, 지구 반대편 서울 성수동의 한 공유 오피스에서 최 대표가 노트북 화면을 들여다보고 있었다. AI 기반 의료 영상 진단 솔루션을 만드는 32세의 스타트업 창업자. 그는 EU AI Act 통과 뉴스를 읽으면서 두 가지를 동시에 느꼈다. 기회와 공포.

기회: 유럽 시장에 진출하려면 EU AI Act를 준수해야 한다. 준수할 수 있는 기업은 글로벌 신뢰를 얻는다. 한국에서 먼저 EU 기준에 맞추면 경쟁력이 된다. 공포: 고위험 AI 연간 준수 비용이 단위당 약 29,000유로, 인증 비용이 별도로 17,000~23,000유로. 시드 투자 5억 원으로 버티는 스타트업에게 그 숫자는 생사의 문제였다.

화면을 응시하면서 그는 창업 전날 밤을 떠올렸다. 의대를 나와 인턴 과정을 마친 뒤, 흉부 CT 영상 수천 장을 직접 판독하면서 "이 일을 AI가 더 잘할 수 있다"고 확신한 순간. 그 확신이 지금 이 공유 오피스 의자 위에서 규제 비용 숫자 앞에 멈춰 있었다. 브뤼셀의 협상가들이 3년을 싸워 만든 법이, 서울 성수동의 32세에게는 이렇게 도착했다.

그는 슬랙 메시지를 공동 창업자에게 보냈다. "EU AI Act 통과됐다. 우리한테 기회일 수도, 사형선고일 수도." 그때는 몰랐다. 한국의 AI 기본법이 그로부터 9개월 뒤 통과되리라는 것을, 그리고 그 법의 과징금 상한이 3,000만 원 — EU의 3,500만 유로와는 비교할 수 없는 금액 — 이 되리라는 것을.


다음 장에서 우리는 베이징으로 간다.

브뤼셀이 36시간의 마라톤 협상과 523 대 46의 표결로 결론에 도달한 반면, 베이징은 같은 결론을 8.5개월 만에 냈다. 중국의 AI 규제는 어떻게 만들어졌는가. 그리고 그 빠름은 무엇을 잃었는가.

두 체제의 비교는 속도와 정당성 사이의 트레이드오프를 가장 선명하게 보여준다.