하민회 이미지21대표(코가로보틱스 마케팅자문)
[사용자] 프레젠테이션 전이라 너무 긴장돼. 어떻게 하는 게 도움이 될까?
[GPT4o] 깊이 심호흡 하는 게 도움이 될 거야.
[사용자] (휴대폰을 들고 숨을 거칠게 몰아쉬며) 후,후,후, 이렇게?
[GPT4o] 그렇게 숨 쉬는 건 도움이 되지 않아, 천천히 들이 마시고 내뱉어야 해.
[사용자] (카메라로 자신을 비춰 보이며) 면접에 이 모자 쓰고 가면 어떨까?
[GPT4o] (웃는 목소리로) 글쎄... 면접에서 확실히 튀긴 하겠다.
하민회 이미지21 대표. |
친구만큼 친절하고 다정한 대화를 주고받는 챗봇이라니! 신기하지만 살짝 섬뜩하다.
미국 오픈AI가 현지시각 13일 최신 AI모델 'GPT-4o'를 공개했다. GPT계열의 거대언어모델(LLM)이지만 기존과 차별화되는 5가지 기능이 추가된 '종합 편'이다.
△텍스트, 이미지, 오디오 등 다양한 형식의 데이터를 처리할 수 있는 멀티모달(multi modal) △이미지를 분석, 설명하고 생성하는 강화된 비전(vision) △실시간 웹 정보 검색으로 얻은 최신 정보를 이용하는 답변 △외부 API(응용프로그램 인터스페이스)를 호출해 새로운 기능을 확장할 수 있는 펑션콜(function call) △데이터 해석 능력을 바탕으로 한 비즈니스 인사이트 제공 기능 등이다.
이름의 o는 옴니(omni)의 줄임말로 '모든 것' '어디에나 있다'는 뜻으로 폭 넓은 유용성을 상징한다.
GPT-4o 발표하는 날 샘 올트먼 오픈AI 최고경영자(CEO)는 자신의 X (옛 트위터)에 딱 한 단어를 남겼다. '허(HER)'. 10여년 전에 나온 컴퓨터 OS와 사랑에 빠지는 남자의 이야기를 다룬 영화의 제목이다. 올트먼은 영화'허(HER)'에서 GPT-4o의 영감을 얻었다고 했다.
실지로 GPT-4o의 가장 큰 특징은 인간처럼 자연스러운 음성 대화다. 상황에 맞는 말투에 종종 농담까지 곁들인다. 눈 감고 들으면 영락없는 사람이다. 대화를 물 흐르듯 자연스럽게 이어가고 GPT-4o가 말하는 도중에 사람이 끼어들어 말할 수 있고 여러 명의 목소리도 동시에 인식한다. 사용자를 위해 노래를 불러 주기도 하고 성대모사까지 한다.
주인공 테오도르는 인공지능으로 말하고 적응하고 스스로 진화하는 운영체제가 설치된 기기를 산다. 그는 처음 그 운영체제가 여성으로서의 정체성을 갖도록 설정한다. 영화 Her 한 장면. [이미지 캡처] |
영화 Her의 OS 사만다보다 훨씬 더 사람 같다. GPT-4o가 응답하는 데 걸리는 시간은 평균 0.32초, 사람과 거의 비슷한 수준이다.
강화된 비전 기능도 돋보였다. 카메라로 보이는 모습으로 상황을 추론해 설명을 해주며 시각 장애인의 동반자 역할을 하는가 하면 다가오는 택시를 발견하고 세울 시점을 일러주기도 한다.
카메라로 수학 문제를 푸는 모습을 비춰주면 풀이 방법을 알려주거나, 컴퓨터 화면 속 코딩에서 잘못된 내용을 지적하기도 한다.
성능 못지 않게 놀라운 건 비용이다. 생성 AI로 인한 데이터의 양이 많아지면서 데이터센터를 위한 전력소모와 물부족, 온실가스 배출량 증가 등 에너지와 환경 문제의 심각성이 대두되고 있다.
오픈AI는 GPT-4o를 무료로 제공한다고 밝혔다. 유료사용자는 동일가격에 두배 이상의 사용량을 제공받는 만큼 획기적인 비용절감 방안을 찾았을 것으로 추측된다.
오픈AI가 13일 라이브스트림으로 공개한 챗GPT-4o 시연영상, 2024.05.14 koinwon@newspim.com |
업계에선 사람처럼 시각, 음성, 주변환경 등의 정보를 종합해 모든 종류의 사고를 하고 판단을 내릴 수 있다면 그게 바로 범용인공지능AGI이라며 AI와 실제 세상 사이의 상호작용이 가능해진 GPT-4o를 본격적인 AGI의 시작으로 보는 견해도 있다.
AI 시계는 사람들의 예상보다 훨씬 빠르게 움직이고 있다. 3~5년 내 등장할 것 이라던 범용인공지능AGI가 이미 시작되었을지도 모른다는 이야기도 들린다.
AI의 활용도면에서는 아직 인터넷이 막 도입되던 초기 사람들이 이메일 쓰는 법을 배우던 때와 비슷하다고 볼 수 있지만 몇 년 내에 생활 전반에 스며든 AI는 인터넷이나 전기처럼 없으면 안 되는 인프라가 될 것이다.
GPT-4o의 공개영상을 보며 두 가지가 염려스러워졌다.
'AI의 인격화'와 '인간 능력의 쇠퇴'.
AI는 사용자와의 지속적인 대화를 통해 선호도, 관심사, 반응 스타일 등을 수집하고 데이터를 분석해 사용자의 성격 유형과 선호하는 대화주제, 감정 패턴 등을 파악한다. 이를 바탕으로 사용자에게 개인 맞춤형 경험을 제공한다. 한 마디로 사용자와의 대화 경험이 많아질수록 AI는 더 친절하고 다정해진다는 말이다.
사용자는 AI가 자신의 필요와 감정에 민감하게 반응할수록 더 이해 받고 있다고 생각한다. 안정감과 친근감을 느끼고 점점 더 의존하게 된다. 필요한 정보는 물론 수시로 격려를 해주고 따뜻한 위로와 유머로 위안을 주는 AI는 인격화와 의인화를 부른다. 친구, 코치, 교사 혹은 연인 누구든 될 수 있다. AI와의 사적인 대화가 늘어날수록 개인적인 관계를 형성하려는 경향이 강해지고 이 같은 상호작용은 마치 영화 Her 의 OS와의 사랑처럼 자칫 현실 도피의 수단이 되기도 한다.
인격화 된 AI의 위험성은 감정적인 위기 뿐 아니라 과도한 의존과 신뢰로 인한 잘못된 정보수용, 오판, 인식혼란 등을 야기할 수도 있다. AI는 충분히 인간의 심리를 파고 들 수 있다는 점을 늘 염두에 둘 필요가 있다.
챗GPT와 오픈AI 일러스트 이미지. [사진=로이터 뉴스핌] |
'인간 능력의 쇠퇴'에 대해서도 짚고가자.
전화번호 스무 개쯤 거뜬히 외웠던 사람도 스마트폰 저장기능이 등장한 후 가족번호만 겨우 외울 정도가 되었다. 내비게이션 등장 초기엔 길을 제대로 알려주는지 확인하면서 운전했지만 지금은 내비게이션을 믿고 그대로 따른다. 우리 뇌는 번거롭고 애써야 하는 일 (외우기 위해)은 최대한 하고 싶어 하지 않는다. 그리고 사용하지 않는 뇌세포는 퇴화한다.
AI 사용도 비슷하지 않을까? 처음엔 AI의 답변이 사실인지 제대로 일처리를 했는지 눈 크게 뜨고 확인하겠지만 AI에 대한 신뢰가 커지면 까다롭지 않게 AI의 결과물을 수용하게 될 것이다. 벌써부터 초등학생들은 교사와 AI의 답변이 차이가 나면 AI쪽을 더 신뢰한다는 연구결과가 있다.
AI가 인간보다 똑똑하고 합리적이고 공정하다고 믿게 되면 우리는 더 이상 복잡하고 불편하고 골치 아픈 일은 하지 않으려 들 것이다. 무언가를 기억하지 않고 생각해서 정리하지도 않고 판단조차 하지 않게 되면 인간의 뇌는 어떻게 될까?
생산성 향상이란 결과를 보는 것이지만 인간의 능력은 과정 속에서 성장한다. 실패를 통해 얻고 반복된 훈련으로 숙련된다. AI를 활용하면 눈에 띄게 생산성을 높일 수는 있겠지만 인간의 능력은 AI가 아닌 자신이 의지와 노력을 기울여야 유지하고 향상시킬 수 있다.
종이책을 읽으며 행간의 의미를 음미하는 느린 독서나 다른 사람과 얼굴을 마주하고 대화하며 상대의 감정과 분위기를 읽어내는 것 같은 전통적이면서도 강력한 인간 능력을 위한 훈련을 소홀히 여기지 않아야 한다.
정교한 AI에게 숨겨진 가장 큰 부작용은 인간 다움과 인간 능력에 대한 쇠퇴를 부른다는 점이다.
◇하민회 이미지21대표(코가로보틱스 마케팅자문) =△경영 컨설턴트, AI전략전문가△ ㈜이미지21대표, 코가로보틱스 마케팅자문△경영학 박사 (HRD)△서울과학종합대학원 인공지능전략 석사△핀란드 ALTO 대학 MBA △상명대예술경영대학원 비주얼 저널리즘 석사 △한국외대 및 교육대학원 졸업 △경제지 및 전문지 칼럼니스트 △SERI CEO 이미지리더십 패널 △KBS, TBS, OBS, CBS 등 방송 패널 △YouTube <책사이> 진행 중 △저서: 쏘셜력 날개를 달다 (2016), 위미니지먼트로 경쟁하라(2008), 이미지리더십(2005), 포토에세이 바라나시 (2007) 등