전체기사 최신뉴스 GAM 라씨로
KYD 디데이
산업 전기·전자

속보

더보기

[Tech 스토리] '만년 2위' 설움 날려준 SK하이닉스의 'HBM'

기사입력 : 2024년10월13일 09:00

최종수정 : 2024년10월13일 09:00

데이터 병목현상 해소, 더 빠르게 전송
어드밴스드 MR-MUF 기술 개발
적층·열 방출·생산성 끌어올려
6세대 HBM4 제품 개발 속도

기업들의 신기술 개발은 지속가능한 경영의 핵심입니다. 이 순간에도 수많은 기업들은 신기술 개발에 여념이 없습니다. 기술 진화는 결국 인간 삶을 바꿀 혁신적인 제품 탄생을 의미합니다. 기술을 알면 우리 일상의 미래를 점쳐볼 수 있습니다. 각종 미디어에 등장하지만 독자들에게 아직은 낯선 기술 용어들. 그래서 뉴스핌에서는 'Tech 스토리'라는 고정 꼭지를 만들었습니다. 산업부 기자들이 매주 일요일마다 기업들의 '힙(hip)' 한 기술 이야기를 술술~ 풀어 독자들에게 전달합니다.

[서울=뉴스핌] 서영욱 기자 = 한 때 '메모리 반도체 만년 2위'라는 꼬리표가 붙었던 SK하이닉스. 하지만 인공지능(AI) 시대가 열리면서 AI 메모리 시장에서는 독보적인 1위로 올라섰죠. 2022년 생성형 AI의 등장 이후 다양한 제품과 서비스가 AI 중심으로 재편됐고, AI 기술은 빠르게 발전했습니다. 이에 따라 대용량 데이터를 처리하고 빠른 학습과 추론을 지원하는 고성능 메모리의 필요성도 크게 증가했죠.

SK하이닉스는 이 같은 시장 변화에 발맞춰 고성능 메모리 솔루션을 제공하며 AI 산업 발전에 핵심적인 역할을 수행했습니다. 그 주인공은 아무래도 고대역폭으로 대용량 데이터를 빠르게 전달하는 'HBM(High Bandwidth Memory)'인데요. 오늘은 HBM에 대해서 좀 더 자세히 알아보겠습니다.

SK하이닉스 HBM 기술개발 연대표 [사진=SK하이닉스]

◆HBM의 작동 원리는
중앙처리장치는 메모리에서 데이터를 가져와 연산을 합니다. 이 둘 사이의 입출력(I/O) 통로, 즉 대역폭이 좁으면 다음에 처리할 데이터가 즉각 도달하지 못해 xPU가 대기하는 병목현상이 생기죠. HBM은 이 통로수를 늘려서 대용량 데이터를 빠르게 전송하는 방식으로 작동합니다. 1차선 도로를 64차선으로 넓힌 것과 비슷합니다. 칩 하나를 기준으로 일반 D램의 I/O가 64개라면 HBM3E는 1024개의 I/O를 갖고 있습니다. HBM은 GPU와 함께 서버에 장착돼 AI훈련과 추론 성능을 높입니다. 서버 안에서 수많은 모델과 방대한 데이터셋을 처리하려면 고대역폭 전송과 고집적 특징을 갖춰야 하죠. 발열 문제로 낮은 전력 소모도 중요한 부분입니다.

◆SK하이닉스의 HBM이 특별한 이유는
적층한 D램 칩은 범프로 연결하고 칩 사이에 보호재를 넣어 포장해야 한다. 이 때 범프를 한 번에 녹이는 매스 리플로우(MR)와 보호재를 한 번에 굳히는 몰디드 언필드(MUF)를 활용한 기술을 MR-MUF라고 하는데, 열 방출과 접합 품질을 높이는데 아주 효과적인 방식입니다. 여기서 SK하이닉스는 이전보다 얇아진 칩이 적층 시 휘지 않도록 제어하는 신규 기술과 열 방출을 획기적으로 개선하는 새로운 에폭시 밀봉재를 적용해 기존 MR-MUF 장점을 살리면서 생산성은 약 3배, 열 방출 성능은 약 2.5배 끌어올린 Advanced MR-MUF 기술을 HBM 공정에 적용했습니다.

D램 칩에 수천 개의 구멍을 뚫고 수직관통전극으로 연결해 대역폭을 넓히는 기술을 TSV라고 합니다. 특히 적층된 D램 칩은 전류가 통과하면서 저항에 부딪히고 이로 인해 전압이 감소하는 현상이 발생하는데요. SK하이닉스는 이러한 전압 강하로 메모리 성능과 안정성이 저하되지 않도록 PDN(Power-Distribution Network) 특성을 개선한 TSV 기술을 적용하고 있어요.

HBM3E에서는 코어 다이의 엣지부터 중심, 중간 제어 영역 등 가능한 모든 위치에 TSV를 배치해 전력 TSV 수를 HBM3 대비 475% 늘리고, 동적 전압 강화를 최대 75% 개선했습니다.

SK하이닉스는 2013년 세계 최초로 HBM을 선보인 뒤 최초이자 최고 성능의 제품을 꾸준히 선보이고 있습니다. 지난해 5세대 제품 AI용 초고성능의 HBM3E를 개발했고 올해 세계 최초 양산과 고객 납품을 시작했습니다. 특히 HBM3E는 전작인 HBM3 대비 속도는 1.3배 빨라졌고 용량은 1.5배 늘어났습니다. 동일한 속도에서 전력 특성을 10% 개선하기도 했죠.

HBM3E의 초당 처리 속도는 최고 9.2GB 이상 데이터 처리량은 초당 최대 1.18TB로 쉽게 말해 약 5GB의 Full-HD급 영화 230편 이상의 데이터를 단 1초 만에 처리할 수 있는 수준입니다.

SK하이닉스의 AI 메모리 라인업 [사진=SK하이닉스]

◆6세대 HBM까지 개발 속도
올해도 SK하이닉스는 AI 리더십을 공고히 하기 위한 전략적 행보를 이어가고 있습니다. 지난 4월 미국 인디애나주에서 어드밴스드 패키징 생산기지 건설을 위한 투자 협약을 체결했습니다. 차세대 HBM을 비롯한 AI 메모리가 이곳에서 집중 생산될 계획이죠. 같은 달 TSMC와의 기술 협약 또한 체결했습니다. 회사는 고객·파운드리·메모리 간 3자 협업 체계를 구축, 메모리 성능의 한계를 넘어서고 AI 시장에서 우위를 가져간다는 계획입니다.

41주년을 맞은 SK하이닉스는 기술적 한계를 끊임없이 극복해 나가고 있습니다. 다변화한 AI 서비스에 발맞춰 각 고객에 최적화된 맞춤형(Custom) AI 메모리를 개발하는 데 집중하고 있고, 혁신 소자 기반의 차세대 이머징 메모리도 개발 중입니다. 기술 개발에 끊임없이 투자 중인 SK하이닉스는 HBM3·HBM3E를 비롯해 6세대 제품인 HBM4까지 성공적으로 개발해 기술 리더십을 유지할 수 있을지 지켜보겠습니다. 

syu@newspim.com

[뉴스핌 베스트 기사]

사진
SKT '유심 교체' 북새통...내 차례 올까 [인천=뉴스핌] 김학선 기자 = 가입자 유심(USIM) 정보를 해킹 당한 SK텔레콤이 유심 무료교체 서비스를 시작한 28일 인천의 한 대리점에서 고객들이 유심 교체를 위해 줄을 서 차례를 기다리고 있다. SKT는 사이버침해 피해를 막기 위해 이날 오전 10시부터 전국 2600여곳의 T월드 매장에서 희망 고객 대상 유심 무료교체 서비스를 진행한다. 2025.04.28 yooksa@newspim.com   2025-04-28 12:12
사진
"화웨이, 엔비디아 H100 능가 칩 개발" [서울=뉴스핌]박공식 기자 = 중국 화웨이가 미국이 수출 금지한 엔비디아 칩을 대체할 최신 인공지능(AI) 칩을 개발해 제품 시험을 앞두고 있다고 월스트리트저널(WSJ)이 현지 시간 27일 보도했다. 신문은 화웨이가 일부 중국 기술기업에 새로 개발한 '어센드(Ascend) 910D'의 시험을 의뢰했다고 전했다. 어센드 910D는 엔비디아의 H100보다 성능이 더 우수한 것으로 평가되고 있으며 이르면 5월 말 시제품이 나올 것으로 예상된다. 앞서 로이터통신은 21일 화웨이가 자체 개발한 AI칩 910C를 내달 초 중국 기업에 대량 출하할 계획이라고 보도한 바 있다. 화웨이를 비롯한 중국 기업들은 데이터를 알고리즘에 제공해 더 정확한 결정을 내리게 하는 훈련 모델용으로 엔비디아 칩에 필적하는 첨단 칩을 개발하는 데 주력해왔다. 미국은 중국의 기술 개발을 억제하기 위해 B200 등 최첨단 엔베디아 칩의 중국 수출을 금지하고 있다. H100의 경우 2022년 제품 출하 전에 중국 수출을 금지했다.  중국 베이징에 있는 화웨이 매장 [서울=뉴스핌]박공식 기자 = 2025.04.28 kongsikpark@newspim.com kongsikpark@newspim.com 2025-04-28 12:26
안다쇼핑
Top으로 이동