전체기사 최신뉴스 GAM
KYD 디데이
산업 생활경제

속보

더보기

[김정호의 4차혁명 오딧세이] 인공지능과 GPU

기사입력 : 2019년09월09일 08:00

최종수정 : 2019년09월09일 08:00

김정호 교수.

엔비디아 스토리

컴퓨터 구조에서 대표적으로 사용되는 반도체로는 계산 장치인 프로세서(Processor)와 메모리(Memory)가 있다. 그중에서 프로세서로는 개인용 컴퓨터에 많이 사용되는 CPU(Central Processing Unit)가 있고, 스마트폰에는 주로 AP(Application Processor)가 사용되고, 컴퓨터 그래픽 카드에는 GPU(Graphic Process Unit)가 사용된다.

이러한 프로세서 중에서 인공지능 계산을 위한 병렬처리에는 GPU가 가장 많이 사용된다. GPU 내부에는 계산기(Arithmetic Logic Unit, ALU) 코어의 개수가 수천 개 혹은 수만 개에 이른다. 그래서 동시 병렬 계산이 용이하다. 이러한 이유로 인공지능 계산에 GPU가 가장 유용한 프로세서가 된다.

이러한 배경으로 대표적인 GPU 회사인 엔비디아(NVidia)의 성장이 두드러진다. 최근에 GPU는 가상화폐 채굴에 쓰이기도 해서 한때 품절이 나기도 했다. 여기에 그치지 않고 자율주행 자동차의 인공지능 처리에도 GPU가 사용될 전망이다. 그 때문에 지난 10년간 엔비디아의 주가는 꾸준히 상승하고 있다. 이래저래 CPU, AP보다 GPU의 계속된 성장이 기대된다.

2019년 방문한 실리콘밸리의 엔비디아 신사옥 내부. [출처=KAIST]

필자의 연구실에서는 지난 10여년간 GPU와 디램이 3차원적으로 결합한 HBM(High Bandwidth Memory) 모듈을 설계하는 연구를 진행해왔다. 그 과정에서 국내의 삼성전자, SK하이닉스뿐만 아니라 엔비디아와 협력을 지속해 왔다.

HBM에서는 기존의 모듈과는 달리 실리콘 기판을 배선으로 사용해 GPU와 디램 사이의 연결선 개수를 대폭으로 늘린다. 더 빨리 많은 수의 병저렬 계산을 하기 위해서 고안됐다. 이 HBM 모듈은 주로 인공지능 서버에 사용하고 있으며, 그 가격은 1000만원에 가깝다.

이렇게 비용이 많이 드는 것이 단점이지만, 인공지능 시대를 맞아 수요는 계속 증가할 것으로 생각한다. 이러한 이유로 필자의 연구실 졸업생이 엔비디아에 여러 명 진출했다. 대학원 학생들이 인턴으로도 엔비니아에 파견 나가기도 한다.

2019년 방문한 엔비디아에서의 기술 교류 미팅. [출처=KAIST]

인공지능의 기본은 행렬 수학

인공지능에서 지능신경망인 DNN(Deep Neural Network)의 입력은 디지털 데이터이다. 그리고 데이터 입력은 일정 수의 데이터 묶음 형태로 표현된다. 이러한 디지털 데이터의 묶음을 수학 용어로 벡터(Vector)라고 한다.

예를 들어 카메라 이미지 화소점인 픽셀(Pixel) 하나에는 RGB(Red, Green, Blue) 세 가지 색깔의 배합과 밝기가 표현된다. 그러면 이미 4가지 요소를 갖는 벡터가 된다. 거기에 더해 화면 속의 위치 정보가 x, y로 들어가면 6열 벡터가 된다. 언어를 입력 벡터로 쓴다면 그 벡터 크기가 수백만개도 된다. 단어의 개수가 그만큼 많다.

이러한 입력 벡터를 다른 형태로 변환할 필요가 생긴다. 이때 벡터와 행렬(Matrix) 곱셈이 필요하다. 예를 들어 그래픽 처리에서 위치 정보가 포함된 벡터의 좌표를 변환하려고 한다면, 이 벡터에 행렬을 곱하면 된다.

보는 관찰자의 위치를 3차원으로 바꾼다면 새로운 좌표에서 다시 위치를 잡기 위해서 데이터 벡터에 좌표 변환을 하게 되는데, 이때 벡터에 좌표 변환 3x3 행렬을 곱하게 된다.

마찬가지로 인공지능 판단이나 예측에도 벡터와 행렬 계산이 사용된다. DNN에서는 입력이 데이터 벡터가 되고, 그 벡터 신호에 입력층(Input layer), 은닉층(Hidden layer), 출력층(Output layer)으로 지나가면서 계속 행렬 곱셈이 일어난다. 이러한 과정을 전전파 학습(Forward Propagation Training)이라고 한다.

거꾸로 최종 정답과의 차이를 확인하고 반대 방향으로 행렬을 곱해가면서 네트워크를 교정해 가는 과정을 역전파 학습(Backward Propagation Training)이라고 한다.

이처럼 학습과정에서 행렬계산이 수없이 일어난다. 그래서 인공지능 계산에서 가장 빈번히 일어나는 컴퓨터 계산이 행렬 곱셈과 덧셈이다. 그리고 이러한 병렬 계산에 GPU가 가장 적합한 프로세서 구조이다.

인공지능 학습과 판단에 필요한 행렬 계산식들. [출처=KAIST]

인공지능을 위한 GPU 구조

이와 같은 행렬 계산은 하나하나 순차적으로 일어나지 않고 동시에 병렬로 한다. 이렇게 동시에 병렬로 계산하는 방법으로는 컴퓨터를 병렬로 연결해서 수행하는 방법이 있다. 초기 구글 알파고에서 쓰인 방법이다.

그러나 이러한 병렬 계산을 위해서는 컴퓨터끼리 데이터를 주고받아야 한다. 컴퓨터끼리 케이블로 연결돼야 한다. 이러면 데이터를 컴퓨터 간에 이동하는 데 시간이 걸린다. GPU는 반도체 프로세서 내부에서 병렬 계산을 하므로 빠르고 효율적이다.

엔비디아 GPU의 경우, 내부에서 80여개의 SM(Streaming Multiprocessor)이 병렬 계산을 나누어서 한다. 그 SM 속에는 32개의 중간 크기의 계산블록(Warp)이 있고, 각 Warp에는 64개의 계산 코어(Thread)가 있다.

그래서 GPU 내에는 전체적으로 80x64x32=16만3840개의 병렬 계산 코어가 있다. 이들이 동시에 병렬 계산을 한다. 앞으로는 계산 코어의 개수가 100배 이상 증가할 것으로 예상한다. 모두 행렬 계산을 빠르고 효율적으로 하기 위함이다.

GPU에도 단점은 있다. 코어가 많기 때문에 코어 주변에 계산 결과를 임시로 저장하는 캐쉬(Cash) 메모리가 한정돼 있다. 그래서 매번 계산 결과를 낼 때마다 외부의 디램에 저장하고 다시 읽어 와야 하는 번거로움이 있다. GPU 외부 메모리인 디램의 성능이 지원해줘야 한다. GPU의 성능을 위해서는 디램의 성능도 같이 좋아져야 한다.

마지막으로 GPU의 어려운 점은 계산량이 너무 많아서 프로세서에서 열이 많이 발생하고, 그 결과 반도체 온도가 올라간다는 점이다. 그러면 프로세서의 계산 능력이 급속히 감소한다. 그래서 반도체 냉각 기술이 중요해지고 있다.

이처럼 GPU는 더욱 병렬화되고, 메모리와도 병렬화되며, 냉각 기술을 위한 혁신이 계속될 전망이다. 4차 산업혁명이 진행되면서 GPU의 수요와 기술 발전은 더욱 심화할 전망이다.

최신 엔비디아 GPU의 내부 구조도. [출처=KAIST]

 

[김정호 카이스트 전기 및 전자공학과 교수] joungho@kaist.ac.kr

[뉴스핌 베스트 기사]

사진
폭스콘 "AI 데이터센터, 단계 건설" [서울=뉴스핌] 고인원 기자= 세계 최대 전자 위탁생산업체인 대만 폭스콘이 미국 반도체 기업 엔비디아와 함께 추진 중인 인공지능(AI) 데이터센터 프로젝트가 최대 100메가와트(MW) 규모로 단계적으로 건설될 예정이라고 밝혔다. 류양웨이 폭스콘 회장은 대만 타이베이에서 열린 '2025 컴퓨텍스 타이베이' 기조연설에서 "이번 AI 데이터센터는 엄청난 전력이 필요한 만큼, 단계적으로 구축할 것"이라며 "1차로 20메가와트 규모로 시작한 뒤, 40메가와트를 추가로 설치할 예정이며, 궁극적으로는 100메가와트까지 확대할 계획"이라고 말했다. 이 프로젝트는 전날 엔비디아가 대만을 대표하는 제조 기업 TSMC·폭스콘 및 대만 정부와 함께 초대형 AI 생태계를 대만에 구축한다고 발표한 데 따른 후속 설명이다. 2024년 10월 8일 대만 타이페이에서 열린 폭스콘 연례 기술 전시회에 전시된 폭스콘 전기이륜차 파워트레인 시스템 [서울=뉴스핌]박공식 기자 = 2025.05.14 kongsikpark@newspim.com 류 회장은 "전력은 대만에서 매우 중요한 자원"이라며 "공급 부족이라는 표현은 쓰고 싶지 않지만, 이를 감안해 여러 도시를 대상으로 부지를 분산하는 방식으로 데이터센터를 건설할 것"이라고 설명했다. 일부 시설은 대만 남서부 가오슝시에 우선 들어서며, 나머지는 전력 여건에 따라 다른 도시로 확대될 수 있다고 덧붙였다. 이날 류 회장의 키노트 무대 위로 젠슨 황 엔비디아 CEO가 깜짝 등장해 눈길을 끌었다. 황 CEO는 "이번 AI 센터는 폭스콘, 엔비디아, 그리고 대만 전체 생태계를 위한 시설"이라며 "우리는 대만을 위한 AI 팩토리를 만들고 있다. 여기에는 대만의 350개 파트너사가 참여하고 있다"고 강조했다. 이번 AI 데이터센터는 고성능 컴퓨팅 인프라 확보를 통해 AI 학습 및 추론 속도를 크게 높이고, 대만 내 AI 산업 생태계 전반에 걸쳐 활용될 것으로 기대된다. koinwon@newspim.com 2025-05-20 23:40
사진
[단독] 삼성전자 '엑시노스 부활' 이 기사는 5월 21일 오전 10시04분 프리미엄 뉴스서비스'ANDA'에 먼저 출고됐습니다. 몽골어로 의형제를 뜻하는 'ANDA'는 국내 기업의 글로벌 성장과 도약, 독자 여러분의 성공적인 자산관리 동반자가 되겠다는 뉴스핌의 약속입니다. [서울=뉴스핌] 김아영 기자 = 삼성전자가 올해 하반기와 내년 출시 예정인 갤럭시 플래그십 모델에 자체 모바일 애플리케이션 프로세서(AP) '엑시노스'를 탑재할 계획인 것으로 확인됐다. 오는 7월 공개 예정인 폴더블 신제품에는 '엑시노스 2500·2400', 내년 출시 예정인 갤럭시 S26 시리즈에는 2나노 공정의 '엑시노스 2600'이 적용될 예정이다. 시장과 제품 포지셔닝에 따라 퀄컴 칩셋과 병행 탑재하는 이원화 전략이 병행된다. 삼성전자 엑시노스 [사진=삼성전자] 21일 뉴스핌 취재를 종합하면 삼성전자는 오는 7월 미국 뉴욕에서 열리는 '갤럭시 언팩' 행사에서 공개할 폴더블 스마트폰에 엑시노스 칩셋을 일부 탑재한다. 삼성은 또 내년에 출시하는 갤럭시 S26 시리즈에는 엑시노스 2600을 부분 탑재할 계획이다. 해당 칩셋은 2나노 공정이 처음으로 적용되는 제품이다. 업계 관계자는 "갤럭시 Z 플립7에 엑시노스 2500, 보급형인 Z 플립7 FE에 2400이 각각 탑재될 예정"이라며 "상위 기종인 Z 폴드7에는 S25와 동일하게 퀄컴의 스냅드래곤8 엘리트가 들어간다"고 귀띔했다. 그러면서 "내년 상반기 출시 예정인 갤럭시 S26 시리즈의 경우 북미·한국·중국·일본 등 주요 시장에는 퀄컴의 새로운 칩(스냅드래곤8 엘리트2)을, 유럽 및 기타 글로벌 시장에는 자체 칩셋인 엑시노스 2600을 교차 탑재하는 것이 현재 계획"이라며 "단, 고성능이 요구되는 울트라 모델은 전량 퀄컴 칩셋을 탑재하는 방향으로 준비 중"이라고 설명했다. 앞서 삼성전자는 분기보고서를 통해 "상반기에는 3나노, 하반기에는 2나노 모바일향 제품을 양산해 신규 출하할 예정"이라고 밝힌 바 있다. 갤럭시 S25 울트라. [사진=삼성전자] Z 폴드7과 S26 시리즈의 칩셋 탑재 방식 차이는 제품 포지셔닝에 따른 것이다. 폴드 시리즈는 플립 보다 상위 라인업으로 분류돼 퀄컴 칩셋을 적용하고, 유럽 등에서는 엑시노스를 투입해 성능을 검증하는 방식을 채택했다. 울트라 모델의 경우 상위 기종인 만큼 지역에 관계없이 퀄컴 칩셋을 탑재하는 것으로 해석된다. 삼성이 엑시노스를 자사 제품에 탑재하는 것은 시스템LSI와 파운드리 사업부 실적 정상화 측면에서 의미가 있다. 올해 1분기 두 사업부는 각각 1조원대 적자를 낸 바 있다. 시스템LSI는 주요 고객사에 플래그십 SoC(System on Chip)를 공급하지 못했고, 파운드리는 계절적 수요 약세와 고객사 재고 조정으로 인한 가동률 정체로 실적이 부진했다. 하지만 자체 칩셋 적용은 내부 수요를 통한 생산 가동률 확보, 공정 검증 및 설계-제조 일원화 구조를 유지하는 효과를 기대할 수 있다.  업계 또 다른 관계자는 "삼성전자는 민감도가 낮은 시장을 중심으로 엑시노스 경쟁력을 확보하며 중장기적으로 점유율을 확대하는 전략을 추진하는 것으로 관측된다"며 "엑시노스의 성공은 사업부 실적은 물론 향후 시장 주도권 확보와도 연결되기 때문에 삼성 입장에선 중요한 문제"라고 말했다. 삼성전자 측은 엑시노스 탑재와 관련해 "고객사와 관련된 내용은 확인이 어렵다"고 답변했다. aykim@newspim.com 2025-05-21 14:00
안다쇼핑
Top으로 이동