신산업 규제시스템 Upgrade

주요국 신산업 분야
규제·정책 시스템과 우리의 방향

글로벌 규제가 단순 억제를 넘어 혁신과 안전을 아우르는 ‘종합 시스템’으로 진화하고 있다. 주요국이 앞다투어 AI 안전연구소(AISI)를 출범하며 표준 선점에 나선 가운데, 본고에서는 미국·영국·EU 등 세계 각국의 신산업 규제 관련 ‘국가 정책 시스템’ 동향을 집중 분석한다. 이를 바탕으로 대한민국의 현주소를 진단하고, 실효성 있는 통합 규제 시스템 구축을 위한 정책 방향을 모색해 본다.

안성원 소프트웨어정책연구소 AI정책연구실장

1. 논의 배경

피지컬 AI(Physical AI)와 데이터 기반 산업은 기술 발전 속도가 빠르고 산업 융합 파급력이 매우 커서, 전통적인 규제 중심 체계로는 대응이 어렵다. 로봇, 자율주행, 드론 등의 피지컬 AI는 날로 전 산업에 융합되면서 산업의 생태계를 바꾸고 있으며, AI 학습데이터, 클라우드, 데이터거래, 개인정보 등의 데이터 기반 산업들은 과거보다 더 다양한 형태의 복잡성을 야기한다.
이러한 신산업들은 기술 및 서비스가 빠르게 진화하고, 위험이 새롭게 나타나며, 글로벌 공급망 및 플랫폼을 통해 국경을 넘나든다는 특징이 있다. 따라서 규제의 목표도 단순 ‘억제’가 아니라, ‘혁신 촉진’과 ‘공공 가치 확보’를 동시 달성하는 것으로 재정의되고 있다.
최근 생성형 AI를 비롯하여 에이전틱 AI(Agentic AI) 등 고도화된 AI의 등장으로 AI 안전·신뢰성(Trustworthy AI)이 정책 의제의 전면에 부상했다. 이에 따라 주요국은 기존의 산업 규제에 더해 AI 모델과 데이터, 알고리즘에 대한 국가 차원의 전담 거버넌스를 구축하고 있다. AI 안전 연구소(AISI: AI Safety Institute)를 설립하면서 AI에 대한 평가와 시험, 검증, 표준체계 수립 등을 수행 중이다.
이에 따라 오늘날의 규제는 단순 법령뿐만 아니라 표준 제정, 모델의 평가와 인증 등을 위한 인프라, 공공 테스트베드, 사고 조사 및 책임 체계까지 포함하는 ‘규제 시스템’으로 확장되는 추세다.

2. 주요국 신산업 규제·정책 시스템 동향

2.1 미국

미국은 전통적으로 혁신을 시장 경쟁에 맡기는 경향이 강하다. 신산업 분야에서도 연방정부의 원칙 및 가이드라인 제시와 주(州)정부 및 개별 기관의 집행이라는 분권형 구조가 두드러진다. 특히 자율주행은 연방 교통안전 기준과 주(州) 단위 운행 허가가 결합되며, 지역 단위의 실증이 활발하게 전개되는 특징이 있다.
미국은 AI에 대해 포괄적인 단일 기본법보다는 리스크 관리 프레임워크 및 표준, 조달 요건을 통해 시장을 유도해 왔다. 이 흐름은 지난 ’23년 AI 안전 및 신뢰성에 관한 행정명령(EO 14110)1으로 강화된 바 있으나, 해당 행정명령이 ’25년 1월 20일 자로 폐기되면서 행정부 정책 변동과 ‘정책 연속성의 불확실함’이 나타나기도 했다.
그럼에도 미국은 NIST(미국표준기술연구소)를 중심으로 AI 신뢰성 및 안전성 평가 역량을 축적하고 있으며, ’23년 11월 NIST 내 AI Safety Institute(AISI)를 출범시켜 ‘프런티어 AI 모델의 평가·시험’ 및 안전 연구를 국가 차원에서 수행하는 구조를 갖추었다2.
데이터 규제 측면에서, 개인정보 보호는 연방의 포괄법보다는 개별적인 주법 중심으로 발전해, 기업 입장에서는 규제 준수 환경이 복잡해질 수 있다. 반면, 이 구조는 실험적 제도 혁신을 촉진하는 측면도 있어, 기업은 특정 주를 테스트베드로 삼아 사업화를 추진하고, 정책은 주별 경쟁을 통해 진화할 수 있다.

  • 1.안전하고 신뢰할 수 있는 인공지능 개발 및 사용 행정명령(’23.10.30.): The White House, 「Executive Order 14110: Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence」
  • 2.트럼프 정부 출범이후 美 AISI는 ‘AI표준 및 혁신센터(CAISI)’로 개편(’25.6.5.)


2.2 영국

영국은 단일 AI 기본법보다 기존 규제기관(경쟁, 개인정보, 안전 등)의 권한 범위 내에서 AI 이슈를 다루는 분산형 모델을 선호해 왔다. 핵심은 안전·책임·투명·공정성 등과 같은 원칙의 제시, 규제기관의 기술 역량 강화, 기업과의 지속적 소통을 통해 ‘예측 가능한 유연성(Predictable Flexibility)3’을 확보하는 것이다.
지난 ’23년 11월 AI Safety Summit4 이후 UK AISI를 출범시켜 프런티어 AI 모델의 평가 및 시험 역량을 국가 차원에서 구축했다. 이후 대외협력 강화 과정에서 안전(AI Safety)에서 보안(AI Security)으로 기능을 확장하는 흐름도 나타나고 있다.
또한 「Automated Vehicles Act 20245」를 제정하면서 자율주행 상용화를 위한 규제 틀을 명확히 했다. 영국 정부는 이 법을 통해 ‘안전 기준 충족’과 ‘책임 체계 정립’을 전제로, ’26년부터 영국 도로에서 자율주행 차량 운행이 가능할 수 있음을 시사했다. 또한 영국 정부는 자율주행 산업이 ’35년까지 3만 8천 개 일자리 창출과 약 420억 파운드(한화 약 81조 원) 규모의 경제효과를 낼 수 있다는 전망을 제시하며 정책 추진의 경제적 명분을 강화하고 있다.

  • 3.△금융, 의료 등 분야별 특화 규제, △5가지 원칙 중심(안전·보안에 대한 탄력성, 투명성 및 설명가능성, 공정성, 책임성, 피해구제 등), △혁신 기술에 대한 샌드박스 및 규제 유예, △투명한 가이드라인 제공 등
  • 4.영국 블레츨리(Bletchley)에서 개최하고 28개국이 참여, AI가 안전하고 인간중심적이며 신뢰할 수 있고 책임감 있는 방식으로 설계 및 개발·배포 되어야 한다는 블레츨리 선언을 발표하고 합의
  • 5.2024 자율주행차 법(’24.5.20.)


2.3 프랑스

프랑스는 EU 회원국으로서 EU 「AI Act6」의 단계적 시행 일정과 규제 사항에 직접적으로 영향을 받는다. EU는 「AI Act」를 단계적으로 적용하며 완전 시행을 ’27년 8월 2일 전후로 예고하고, 초기 적용 조항(금지 영역7 등)은 ’25년 2월부터 일부 발효되는 등 점진적 이행 로드맵을 추진하고 있다.
프랑스는 ’25년 1월 정부 발표를 통해 AI 평가 및 보안 국가기관인 INESIA8를 출범했다. INESIA는 평가와 보안, 안전을 주 임무로 하며, 국가 차원의 평가 및 거버넌스 역량을 결집해 EU 규제 이행과 산업 혁신을 동시에 지원하려는 구조를 갖춘 것으로 해석할 수 있다.
프랑스의 특징은 법·제도 등 규범적 접근이 강한 EU의 틀을 기반으로 하면서, INESIA를 통해 모델의 평가 및 검증 역량을 제도적인 실행으로 연결하려 한다는 점이다. 이는 규정 중심 규제의 경직성을 평가 인프라와 표준으로 보완하여 실효성을 높이려는 시도라 할 수 있다.

  • 6.유럽연합(EU)이 AI 기술의 급속한 발전과 광범위한 적용에 따른 윤리적, 법적, 사회적 영향에 대응하기 위해 마련된 최초의 포괄적인 AI 규제 법안(최종승인:’24.5.21. 발효:’24.8.1.)
  • 7.인간의 존엄성을 해치거나 기본권을 침해하는 ‘허용 불가능한 위험’의 AI 시스템 사용 금지 (예: 사회적 점수제, 실시간 원격 생체 인식 등)
  • 8.Institut National pour l'Évaluation et la Sécurité de l'Intelligence Artificielle(’25.1.31.)


2.4 캐나다

캐나다는 CAISI9를 통해 안전 연구를 국가 차원에서 제도화하고, 이를 AI 연구 및 인재 생태계와 결합해 신산업 신뢰 기반을 마련하는 전략을 취하고 있다.
캐나다는 지난 ’24년 5월 캐나다 AI 안전연구소인 CAISI 설립 계획과, 초기 예산으로 5년간 5천만 캐나다 달러(한화 약 528억 원)를 투자할 것을 발표했다. 이후 ’24년 11월 CAISI를 공식 출범함으로써 기관 설립과 예산 투입이 결합된 정책 패키지 형태로 국가 차원의 AI 안전 연구 및 조정 기능을 안정적으로 구축했다.
CAISI는 프런티어 AI(Frontier AI)10에 대한 위험 이해, 부작용 완화 조치 개발, 분야별 적용 연구 지원 등을 목표로 하는 기관이다. 또한 타국 AISI와 협력 등 국제 공조를 바탕으로 시험 및 평가 역량을 축적하는 방향을 취한다.

  • 9.Canadian Artificial Intelligence Safety Institute(’24.11.12. 출범)
  • 10.현존하는 가장 발전된 AI 모델들의 성능을 능가하거나 그에 준하는, 매우 고도화된 범용 인공지능 모델


2.5 독일

독일은 프랑스와 마찬가지로 EU 「AI Act」의 직접 적용을 받으면서, 국내 집행(감독기관 지정, 절차 및 권한, 벌칙 등을 설정)을 위한 국가 차원의 이행 법제(implementation act)를 정비하는 단계에 있다. 즉, EU 「AI Act」를 이행하는 체계를 구축하는 한편, DLR(독일항공우주센터) 등 공공 연구 기관을 중심으로 AI 안전 및 보안 기술 역량을 축적하면서, 규제 실효성과 산업 적용을 연결할 수 있는 시스템을 구축 중이다.
DLR 산하의 AI 안전·보안 연구소11는 AI 기반 솔루션에 대한 운영 안전 및 공격에 대한 안전, 보안 등을 포함하여 연구 역량을 축적해 왔다. 이 연구소는 운송, 에너지, 항공우주 분야 및 Industry 4.0과 연계된 디지털화 혁신 분야 등을 포함하여 신뢰할 수 있는 AI 생태계를 구축하는 것을 목표로 한다. 독일은 이를 통해 EU 규제 준수와 모빌리티, 에너지, 보안 등과 같은 산업 적용을 연결 짓는 전략을 추진 중이다.

  • 11.Institute for AI Safety and Security(’22.11.21. 출범)


2.6 일본

일본은 전통적으로 기술 혁신 영역에서 가이드라인, 표준 및 산업협력을 활용하는 경향이 강하다. AI에 대해서도 법률 중심의 일괄 규제보다는, AI 안전 및 신뢰를 위한 평가, 표준과 민관 협력을 통해 산업 적용을 촉진하는 접근이 두드러진다.
일본은 지난 ’24년 2월 경제산업성(METI) 발표를 통해 AISI 출범을 공표했다. 일본의 AISI는 AI 안전 평가 방법론 연구, 관련 부처 협력, 국제 이니셔티브 참여 등을 수행하는 허브로 설계되었고, 일본의 통합 혁신 전략에서도 AI 안전의 중심 기관으로 위치 부여가 이루어지고 있다. AISI를 평가 및 시험의 중앙 허브로 구축하고, 가이드라인 및 표준 제정, 국제 협력 기반으로 AI 안전 신뢰를 강화하는 전략을 추진 중이다.



2.7 싱가포르

싱가포르는 강력한 행정 조정력과 도시형 테스트베드를 기반으로 신산업 실증을 촉진해 왔다. ’24년에는 IMDA(정보통신미디어개발청)가 DTC(Digital Trust Centre)12를 싱가포르 AISI로 지정해, 안전한 AI 개발과 배포를 위한 평가 및 거버넌스 기능을 수행하도록 했다. 또한 세계 최초로 AI 신뢰성을 입증하는 공식 시험도구인 AI Verify13를 개발(’22.5.)하여 실제 활용하고 있다.
싱가포르의 전략은 실증 인프라와 샌드박스를 통한 제도적 실험을 안전·신뢰 프레임과 결합해 빠른 사업화와 체계적 위험관리를 동시에 추구하는 것으로 볼 수 있다.

  • 12.싱가포르의 스마트국가(Smart Nation) 전략의 일환으로 ’22년 6월 난양공대(NTU)내에 설립, 현재 신뢰 기술(Trust Technologies) 및 AI 안전(AI Safety) 연구 개발을 주도하는 국가기관
  • 13.기업이 AI를 책임있게 운영할 수 있도록 테스트하는 툴킷으로, 테스트-프로세스점검-증빙의 단계로 구성되어 통과시 국가가 인증한 ‘믿음직한 AI’로 간주, 파일럿 버전 출시(’22.5.) 후 오픈소스화(’23.6.)
3. 국내 신산업 규제 시스템의 현황과 과제

우리 정부는 그동안 규제샌드박스, 규제자유특구 및 실증특례 등을 활용해 신산업 실증을 지원해 왔다14. 다만 생성형 AI 등과 같은 프런티어 AI의 확산으로, 단순한 실증 지원을 넘어 안전·신뢰 및 책임 체계를 제도적으로 정교화해야 한다는 요구가 점차 커지고 있다. 이에 따라 규제 시스템은 실증 및 사업화 속도, 안전·윤리·보안성 확보, 국제적 정합성 등을 동시에 고려해야 한다.
지난 ’24년 11월 우리 정부는 AI 안전연구소(AISI)를 출범시키며, 주요국 AISI와의 협력을 전제로 평가와 연구, 국제 네트워크를 강화하겠다는 방향을 제시했다. 이는 규제(법령)만으로는 부족한 영역을 평가 및 검증 역량으로 보완하고자 하는 전략이다.
또한 우리는 「AI 기본법15」을 수립하고, 총괄 컨트롤 타워인 국가AI전략위원회의 역할 지정, AISI의 역할 정의, AI 활용 확산을 위한 다양한 지원책, AI 안전 및 신뢰성 확보관련 의무조항, 고영향 AI의 정의 및 평가 등 종합적인 방안을 제시하고 시행령을 통해 구체화했다. 이는 EU 「AI Act」와 함께 글로벌 제도적 흐름에 합류한다는 의미가 있다.
추후 AI 기본법에 입각한 제도의 설계 및 시행과정에서 과도한 규제 비용을 줄이면서 고영향 AI 영역에 대한 책임성과 산업 촉진 실효성을 담보하는 것이 쟁점이 될 것이다. 특히 AI 규제 시스템의 고도화를 위해서는 평가, 시험, 표준, 정책연계 측면에서의 기능 강화가 필요하다.
평가 측면에서는 프론티어 AI 및 범용 AI의 위험 평가에 대한 방법론을 축적하고, 시험 측면에서는 실력있는 레드팀을 구축하고 모델과 알고리즘에 대한 보안성 및 견고성을 테스트하는 인프라를 갖추는 것이 필요하다. 표준 측면에서는 국제 AISI 네트워크에 지속적이고 주도적으로 참여하면서 국내외 표준을 연계해야 한다. 정책 연계 측면에서는 가이드라인, 인증제도, 조달요건 등의 연관성이 높은 제도를 설계하는 것이 중요하다.
현재 우리는 피지컬 AI, 자율주행, 드론, 데이터 경제 활성화 등 측면에서 부처별 정책이 병렬로 추진되는 경향이 있다. 앞으로는 시스템 통합이 필요하다. 안전과 책임 체계를 통합하여 AI 모델의 안전, 물리적인 안전, 사고책임 등을 연결하는 체계를 구축해야 한다. 또한 규제 샌드박스 및 특구의 실증 결과가 표준 및 인증으로 상시 반영되는 구조를 갖추어야 한다. 개인정보, 산업데이터, 공공데이터 등의 결합과 활용을 위한 신뢰 기반의 데이터 거버넌스를 정교화하는 작업도 병행해야 한다.

  • 14.국무조정실 규제 샌드박스 도입 확정(’17.12.)이후 법류 제·개정(’18.3.) 및 시행(’19.1.)을 진행 중(규제샌드박스 포털: https://www.sandbox.go.kr/sandbox.Main)
  • 15.「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법」(제정: ’25.1.21., 시행: ’26.1.22.)
4. 제언

먼저, 기존 ‘법령 중심’에서 표준, 평가 및 시험, 책임을 아우르는 ‘규제 시스템’으로 확장이 필요하다. 특히 AI 영역에서 평가와 시험 그리고 검증역량은 곧 규제의 실행력과 연결된다. AISI와 같은 전담 기관을 단순 연구기관이 아닌 시험 인프라를 갖추고 표준 인증 및 연계, 사고대응 체계 구축 등으로 연결하는 규제 시스템의 핵심 축이 될 수 있도록 할 필요가 있다.
다음으로, 실증 특례를 학습 매커니즘으로 고도화해야 한다. 예를 들어, 싱가포르식 전략은 규제 샌드박스를 예외에 대한 허용이 아닌 제도 개선을 위한 학습과 데이터 축적 장치로 활용한다. 우리도 실증 결과를 체계적으로 축적하고 표준화하여 상시 규정으로 환류시키는 구조가 필요하다.
또한, 고영향 영역에 대한 책임 및 투명성을 강화하고 비용을 최소화하는 균형점을 찾아야 한다. EU나 영국 등 주요국의 흐름을 종합하면, 규제의 핵심은 모든 AI를 동일하게 규제하는 것이 아니라 고영향 영역을 중심으로 위험 기반(Risk-Based) 의무를 부과하는 것이다. 다만, 스타트업이나 중소기업의 의무 준수 비용을 최소화하여, 부담을 줄여줄 필요가 있다. 표준 템플릿 제공, 공동 시험 인프라, 정부 지원형 인증 및 평가 바우처 등 보완책이 함께 설계되어야 한다.
마지막으로, 글로벌 공조 및 실무화를 강화해야 한다. 국제 협력은 공동 벤치마크, 레드팀 결과 공유, 안전 보고서 포맷 표준화 등 실무 협력으로 구체화 될 필요가 있다. 전담 기관을 통해 아시아-태평양 허브로서 역량을 강화하고, EU 「AI Act」 및 주요국 규제와의 상호운용성을 높이는 방향으로 공조 체계를 추진해야 한다.