[토마토티브이 2025-12-17]
============================================
■ 배워야산다 (수 17:30~18:30)
■ 출연 : 나현진 대표(보넥스트투자자문)
============================================
▶ 구글 Nested Learning과 메모리 슈퍼사이클
□ 메모리 슈퍼사이클이 올 수밖에 없는 이유
▶ 반도체 기업은 ‘부품사’에서 ‘빅테크 알고리즘 최적화 시스템 파트너’로
□ AI의 큰 흐름: 챗봇 → 에이전트,‘통합(Integration)’
멀티모달
: 텍스트·이미지·음성·비디오 등 다양한 데이터를 동시에 이해하고 처리
월드모델 + 에이전트 결합: 계획·자가 수정 상용화 임계점
유튜브/비디오 데이터 → 지식으로 전환
→ 결론: 모델이‘더 자주’기억을 읽고‘계속’업데이트 하도록 설계가 이동
□ 기존 AI의 한계:‘기억상실증’과 파국적 망각
지식 컷오프
: 학습이 끝나는 순간 지적 성장이 멈춤(대화는 휘발)
파국적 망각
: 새로운 것을 배우면 기존 지식이 무너짐
기존의 KV-캐시는‘책상 넓히기'에 가까움
→ 결국 밀려나고, 핵심을 장기화하기 어려움
□ 구글의 해법: Nested Learning(Titans + HOPE)
Titans: 추론 중 경사하강(gradient)으로
‘가중치(시냅스)’에 직접 기억 새김
Surprise(예측 오차/gradient 크기): ‘무엇을 기억할지’선택적으로 업데이트
HOPE: 기억을 고/중/저‘주파수’로 나눠 저장 (연속체 기억 시스템)
→ ‘읽기 위주’에서 ‘읽고-수정하고-쓰기(RMW)’로 전환
□ 핵심 프레임: 주파수(소프트웨어) ↔ 계층(하드웨어)
□ 고주파 수혜: HBM이‘저장소 → 가속기’로 이동
Nested Learning은 단기 기억을 매 토큰 갱신
→ HBM 트래픽이 구조적으로 증가
베이스 다이에 로직 공정 도입(커스텀/컨트롤러 기능 강화)
→ “메모리-로직 결합”
AI 가속기(GPU/TPU)의 성능 한계는 연산보다
‘메모리 월(memory wall)’에서 발생
□ HBM 밸류체인‘메모리 3사 + 패키징/장비’
첨단 패키징/파운드리: CoWoS/2.5D, 인터포저·범프·열설계
핵심 관전 포인트: 커스텀 HBM → 고객 종속/해자 강화
□ 중주파 수혜: CXL 'AI 서버 메모리 허리'가 된다
중주파(맥락) 업데이트는 예측 가능
→ CXL로 미리 옮겨 두는 Prefetching이 유효
*모델이 학습하는 동안 다음 배치를 미리 준비하는 기술
효과: HBM 용량 제약을 보완 + TCO 절감(유휴 메모리 재활용)
킬러앱: 컨텍스트/에피소드 메모리 계층(웜티어) 구축
□ 폼팩터 변화: SOCAMM 같은 '저전력 고대역 모듈'
LPDDR 기반 모듈(LPCAMM2): 고성능·저전력·확장성
CXL 메모리 디바이스 + 스위치/리타이머 등
'플랫폼 부품' 시장 확대
국내/글로벌 메모리 업체, 모듈/시스템까지 사업 확장
□ 저주파 수혜: SSD/NAND가 '가장 큰 L4 캐시'가 된다
Random Read/IOPS
:방대한 장기 지식 + 희소한 호출
컴퓨테이셔널 스토리지(Computational Storage)
: SSD 컨트롤러가 필터링/벡터 검색 일부 처리(지능형 SSD)
NAND는 '용량' + '지연·병렬성·컨트롤러 SW' 가치로
□ 스토리지 밸류체인: NAND/SSD + 컨트롤러/스위치
컨트롤러/플랫폼
: PCIe 스위치·스토리지 네트워킹(NVMe-oF) 수요 확대
AI 워크로드는 '데이터 파이프라인'이 병목
→ 스토리지도 시스템 설계 경쟁
관전 포인트
: 데이터 레이크/벡터DB/스토리지 SW와 결합(하드웨어 단품 경쟁↓)
□ DRAM은 '용량'보다 '계층'이 중요해진다
HBM: 핫데이터(초고주파) 전용 → 단가/제조난이도↑, 공급제약 상존
CXL D램: 웜티어 확장으로 'HBM을 아껴 쓰는' 서버 설계 표준화
LPDDR 계열 모듈(LPCAMM2) 등 저전력 메모리 서버/엣지 적용 확대
□ 수요 촉매: AI 데이터센터 전력/서버 수요 구조적 증가
전력·공간 제약 심화 → '대역폭/와트'가 핵심 KPI
→ HBM·저전력 모듈 수혜
*결론: AI 인프라 CAPEX의 상당 비중이
'메모리·패키징·인터커넥트·스토리지'로 이동
□ 시장의 증거: HBM 중심으로 메모리 판이 재편
핵심은 '수요의 질'
생성형 AI → 에이전트/온라인 학습 → 메모리 의존▲
커스텀 HBM/베이스다이
: 고객-공급사 결합▲ 스펙 호환▼ 진입 장벽▲
□ 체크리스트(리스크 포함): 무엇을 보면 되는가?
기술 리스크: HBM 발열/수율/패키징 병목(공급 제약이 장기화 가능성)
표준 vs 커스텀: 고객별 베이스다이/컨트롤러 요구로 개발비↑, 호환성↓
CXL 생태계: 스위치/소프트웨어/운영체제 최적화 성숙도(킬러앱 확산 속도)
스토리지: GDS/NVMe-oF 도입 속도, 랜덤리드 최적화(컨트롤러/펌웨어 경쟁)
지정학/수출규제: 첨단 메모리/장비의 국가별 제약 가능성
□ AI가 뇌처럼 학습할수록 '메모리=컴퓨팅'이 된다
승자는 '칩'이 아니라 '플랫폼 공급 기업'
→ 메모리 + 패키징 + SW + 인터커넥트
메모리 업체 역할의 변화
규격품 → 시스템 솔루션(커스텀 로직/컨트롤러) 파트너

