AI 핵심 요약
beta- SK하이닉스가 20일 SOCAMM2 192GB 양산에 나섰다.
- LPDDR5X 기반으로 베라루빈에 적용해 병목 완화했다.
- RDIMM 대비 대역폭 2배, 효율 75% 개선했다.
!AI가 자동 생성한 요약으로 정확하지 않을 수 있어요.
중간 계층 성능·전력 개선
[서울=뉴스핌] 김정인 기자 = 인공지능(AI) 서버 메모리 구조가 다층화되는 가운데 SK하이닉스가 기존 중간 계층 메모리의 성능과 효율을 개선한 소캠(SOCAMM)2 양산에 나섰다. 10나노급 6세대(1c) 공정을 적용한 LPDDR5X 기반 192GB 제품으로, 엔비디아의 차세대 AI 가속기 베라루빈(Vera Rubin)에 적용될 예정이다.
◆ 베라루빈 최적화…병목 완화 초점
소캠2는 모바일용 저전력 D램(LPDDR)을 서버용 모듈로 재구성한 제품이다. 기존 온보드 방식과 달리 모듈 형태로 설계돼 교체와 확장이 가능하다.
회사에 따르면 해당 제품은 기존 RDIMM 대비 2배 이상의 대역폭과 75% 이상 개선된 전력 효율을 구현했다. AI 연산 과정에서 발생하는 메모리 병목을 완화하는 데 초점을 맞췄다.

특히 이 제품은 엔비디아의 차세대 AI 가속기 '베라루빈(Vera Rubin)'에 맞춰 설계됐다. 초거대 모델 구동 과정에서 발생하는 데이터 처리 지연을 줄이고, 시스템 전반의 처리 효율을 끌어올리기 위한 구성이다.
◆ HBM·DDR 한계 속 구조 재편
AI 데이터센터에서는 메모리 계층 간 역할 분리가 뚜렷해지고 있다. 고대역폭메모리(HBM)는 초고대역폭을 담당하지만 용량과 비용 부담이 크고, DDR5는 대용량 구성에는 유리하지만 속도와 전력 효율에서 제약이 있다.
이 사이에서 SOCAMM은 그래픽처리장치(GPU)·중앙처리장치(CPU) 인접 영역에서 데이터를 처리하는 중간 계층으로 설계됐다. HBM과 시스템 메모리 사이 간극을 줄이는 구조다.
◆ 전력·TCO 중심 선택지 확대
AI 인프라 확대로 데이터센터 전력과 냉각 비용 부담이 커지면서, 메모리 선택 기준도 변화하고 있다. 단순 성능보다 전력 효율과 총소유비용(TCO)이 중요해지는 흐름이다.
SOCAMM은 LPDDR 기반 구조를 통해 DDR 대비 전력 소모를 낮추면서도 대역폭을 끌어올릴 수 있어, 효율 중심 설계에서 활용도가 높다는 평가가 나온다.
김주선 SK하이닉스 AI 인프라 사장(CMO)은 "소캠2 192GB 제품 공급으로 AI 메모리 성능의 새로운 기준을 세웠다"며 "글로벌 AI 고객과 긴밀한 협력을 바탕으로 고객이 가장 신뢰하는 AI 메모리 설루션 기업으로 자리매김하겠다"고 말했다.
kji01@newspim.com












