AI 핵심 요약
beta- 박정인 교수가 가상자산 프로젝트의 AI 알고리즘 책임 사각을 지적했다.
- 특금법 중심 사후 규제 한계를 넘어 발행·STO·AI 책임 규율을 도입했다.
- 유럽 MiCA처럼 구성적 규제와 국제 표준으로 시장 신뢰를 담보해야 한다.
!AI가 자동 생성한 요약으로 정확하지 않을 수 있어요.
"AI가 운용하는 무결점 알고리즘입니다." 테라·루나 사건부터 최근의 MTI, MTFE 사태에 이르기까지 글로벌 가상자산 프로젝트들이 투자자를 유혹한 공통된 미끼다. 하지만 시장이 붕괴된 순간, 돌아온 대답은 차가웠다. 개발자는 "코드가 자율적으로 작동했을 뿐"이라며 뒤로 숨었고, 플랫폼은 "단순 중개자"라며 발을 뺐다. 알고리즘이라는 '비인간 행위 주체'가 법적 책임의 사각지대이자 방패가 된 셈이다.
이제 가상자산은 단순한 투자 대상을 넘어 금융과 데이터, 인공지능이 결합된 디지털 경제 인프라로 진화했다. 하지만 우리의 법 체계는 여전히 '특정금융정보법(특금법)' 기반의 자금세탁방지 수준에 머물러 있다. 사행성을 방치하는 이중적 잣대 속에 사후 규제에만 치중하다 보니, 정작 사고가 터진 뒤 이용자의 눈물을 닦아줄 통합적 규율은 보이지 않는다.

반면 유럽연합은 미카(MiCA)를 통해 발행자부터 서비스 제공자까지 아우르는 포괄적 틀을 구축하며 예측 가능성을 높였다. 우리 역시 위험을 억제하는 '방어적 규제'를 넘어, 시장의 구조를 설계하는 '구성적 규제'로 체질을 바꿔야 한다. 그 핵심은 세 가지다.
첫째, 발행 단계의 규율 도입이다. 거래소 중심 규제만으로는 백서의 허위 기재나 유동성 조작을 사전에 막을 수 없다. 둘째, 토큰 증권(STO)에 대한 명확한 법적 정비다. 본질이 증권이라면 자본시장법과의 정합성을 확보해 시장의 불확실성을 제거해야 한다. 셋째, AI 결합에 대한 책임 귀속이다. 자동화된 투자가 손실로 이어졌을 때, 이를 운용하는 사업자에게 명확한 책임을 묻는 법적 근거가 마련되어야 한다.
기술적 신뢰를 보장하는 국제 표준(ISO/TC 307)과의 결합도 필수적이다. 법은 인간의 행위를 규율하지만, 표준은 시스템의 무결성을 보장하기 때문이다.
가상자산 시장을 위험으로만 볼 것인가, 미래 산업의 토대로 볼 것인가. 시장을 인정한 이상, 투명성과 안전성을 담보할 규칙을 만드는 것은 국가의 책무다. 이제 인공지능기본법과 특금법의 적극적인 해석을 통해 기술의 그늘에 가려진 이용자들의 고통을 끝내야 할 때다. 디지털 경제의 신뢰는 알고리즘의 화려한 미사여구가 아닌, 정교하고 단단한 법의 테두리 위에서만 꽃필 수 있다.
박정인 교수(법학박사)는 대통령 국가지식재산위원회 본위원회 위원, 문체부 저작권보호심의위원회 심의위원, 문체부 여론집중도조사위원회 상임위원, 인터넷주소분과위원회, 웹콘텐츠 활성화위원회 자문위원, 강동구 공직자윤리위원회 심의위원, 경찰청 사이버범죄 강사 등 여러 국가 위원을 역임했다. 공공기관 대상 법령입안강의를 하며, 대학에서 특허법, 저작권법, 산업보안법, 과학기술법, 정보보안법, 디지털증거법, ICT트러스트공학, 일반 산업안전, 중대재해법 등을 강의한다. 한국인터넷진흥원, 한국콘텐츠진흥원, 인텔리콘 메타연구소, 해인예술법연구소, 숙명여대 초빙교수, 단국대 연구교수 등을 역임했다.












