AI 확산에 접근성·일자리·환경·보안 우려 제기
플랫폼 독점·일자리 재편·환경 비용까지 복합 과제로 부상
"기술 경쟁 넘어 사회적 기준 마련해야"
[서울=뉴스핌] 양태훈 기자 = 최근 인공지능(AI) 기술이 전기·통신·금융처럼 사회 전반에 스며드는 인프라로 자리 잡아가고 있는 가운데, 전문가들은 국가와 기업이 접근성·일자리·환경 비용·신뢰·공정성을 포괄하는 '설계의 문제'로 AI 시대를 준비해야 한다고 강조했다.
김정호 한국과학기술원(KAIST) 교수는 17일 국회 의원회관에서 열린 'AI 소셜 임팩트 포럼' 기조연설에서 "대규모언어모델(LLM) 중심의 시대는 지나 멀티모달과 추론 능력을 갖춘 에이전트 AI로 빠르게 이동하고 있다"며 "AI는 소프트웨어가 아니라 GPU·데이터센터·전력·냉각을 둘러싼 'AI 팩토리'이자 인프라·경제 시스템"이라고 강조했다.
김 교수는 에이전트 AI 확산이 플랫폼 독점을 심화시킬 가능성을 경고했다. 그는 "개인마다 전용 AI 에이전트를 두고 의료·교육·여행·쇼핑 등의 기능을 구독 형태로 사용하는 시대가 올 것"이라며 "에이전트 간 연결이 가능한 표준과 프로토콜을 누가 설계하느냐에 따라 생태계의 주도권이 결정된다"고 말했다. 이어 "구글과 같은 글로벌 플랫폼이 이 구조를 장악할 경우 한국은 콘텐츠 공급자나 하청 구조로 밀려날 위험이 있다"고 우려했다.

이어 "AI 인프라와 모델, 자본을 가진 소수의 국가·기업이 생태계를 지배할 경우 사회적 위기가 초래될 수 있다"며 "국가가 AI 인프라를 구축해 국민이 최소한의 AI를 활용할 수 있도록 하고, 전기료 등 사용 비용 부담과 함께 AI 리터러시 교육, 국민이 공동으로 사용할 수 있는 국가 파운데이션 모델을 제공해야 한다"고 제안했다.
이기민 KAIST 교수는 성능 중심 개발에서 벗어난 '사람 중심(human-centered) AI'로의 전환 필요성을 강조했다.
이 교수는 "똑똑한 AI가 항상 인간에게 유용한 것은 아니다"라며 "수학·코딩 등 특정 영역에서는 AI가 이미 인간 수준을 넘어섰지만, AI 모델이 똑똑해질수록 사람이 그 답변이 맞는지 틀린지를 판단하기는 오히려 더 어려워지는 역설이 나타난다"고 지적했다. 이어 "현재 기업들은 수학·코딩·과학 지식 벤치마크에서의 성능 향상에만 집중하고 있지만, 실제 사람들은 AI를 상담·일상 관리 등 다양한 목적으로 사용하고 있다"며 "이 영역에서는 단순히 똑똑한 AI가 오히려 문제가 될 수 있다"고 말했다.
이어 "AI의 가치가 반드시 고성능 문제풀이 능력에만 있는 것은 아니다"라며 "사람이 이해하고 신뢰하며 실제 삶에 도움을 받을 수 있는 방향으로 AI를 설계하는 것이 앞으로 더 중요해질 것"이라고 강조했다. 그는 "'의도적인 삶(Intentional living)'을 돕는 AI 연구에서 AI가 작업을 대신 수행하는 대신, 사용자가 스스로 세운 목표를 지킬 수 있도록 관찰과 피드백만 제공했는데, AI가 코딩이나 문제풀이를 해주지 않아도 칭찬과 격려 같은 최소한의 상호작용만으로도 사용자의 집중력과 몰입도가 눈에 띄게 향상됐다"고 연구사례를 소개했다.

홍대의 몬드리안 AI 대표는 AI 확산이 전력 수요를 급증시키는 만큼, AI를 단순 기술이 아닌 국가 인프라 관점에서 바라봐야 한다고 주장했다.
홍 대표는 "AI는 대규모 모델 학습과 운영이 초대형 데이터센터와 GPU 클러스터를 필요로 하는 에너지 집약적 구조"라며 "빅테크가 원전 재가동이나 소형모듈원자로(SMR) 투자 등 전력 자산 확보에 나서는 것은 AI 시대가 기술 경쟁을 넘어 에너지 패권 경쟁으로 이동하고 있음을 보여준다"고 말했다. 이어 "물론 AI가 전력망 최적화, 신소재·배터리 혁신 등 기후위기 대응의 도구가 될 가능성도 있다"며 "하지만 AI 혜택은 소수가 독점하는 반면, 환경 비용은 전 지구가 부담하는 불균형이 심화될 수 있다"고 우려했다.
또한 "AI가 더 이상 개별 기업의 기술이 아니라 전기·도로·통신과 같은 국가적 인프라로 전환되고 있는 만큼, AI 인프라와 에너지 시설이 사적 자산인지 공공재인지, 환경 비용과 인프라 구축 비용을 누가 부담해야 하는지에 대한 사회적 논의가 필요하다"며 "AI 기술의 경제적 이익은 소수의 글로벌 기업과 선진국에 집중되는 반면, 환경 비용과 탄소 부담은 전 지구가 나눠 지고 있다"고 지적했다. 그는 "이 과정에서 데이터와 부가가치가 특정 국가로 빨려 들어가는 디지털 식민주의가 심화될 수 있다"고 덧붙였다.
이날 포럼에서는 기업 현장의 고민도 공유됐다. 김세웅 카카오 AI시너지 부사장은 "AI 도입은 이미 현실이다"라며 "잘 쓰는 사람과 안 쓰는 사람의 격차가 커지고, 결과를 과신하는 문제도 나타나고 있다"고 말했다. 이어 "AI를 잘 쓰는 사람들은 업무 효율이 크게 높아지지만, 그 결과 사회 전체의 일자리가 모두 유지될 수 있을지는 불확실하다"며 "AI 도입은 결국 일자리 재편 문제와 직결될 수밖에 없다"고 말했다.

이어 "AI 툴은 비용이 높고 교육 없이는 활용이 어렵다"며 "젊은 세대와 고령층, 대기업과 소상공인 간 활용 격차가 그대로 사회적 격차로 확대될 수 있다"고 우려했다. 그는 "공공적 지원 없이 시장에만 맡길 경우 소득 수준에 따라 AI 접근이 갈리는 '소득 기반 AI 격차'가 발생할 수 있다"고 덧붙였다.
신뢰성과 보안 문제 역시 중요한 과제로 꼽혔다. 김 부사장은 "기업이 해외 AI 툴을 사용할 때 내부 정보가 외부로 유출되는 것이 과연 안전한지에 대한 고민이 크다"며 "개인 역시 민감한 정보를 외부 AI 서비스에 맡기는 것이 적절한지 사회적 논의가 필요하다"고 말했다. 이어 "AI 모델은 구조적으로 블랙박스에 가까워 결과를 완전히 설명하기 어려운 만큼 지속적인 관리와 보호 체계가 필요하다"며 "AI는 칼과 같은 도구로, 업무 효율을 높일 수 있지만 잘못 사용하면 피해를 낳을 수 있다"고 강조했다. 그는 "업무 목적을 넘어 개인적 용도로 사용하는 문제 등 윤리적 기준 정립이 필요하다"고 덧붙였다.
dconnect@newspim.com












