프로그램
구글이 그리는 'AI의 미래' 핵심 파트너는 삼성전자와 SK하이닉스!

[토마토티브이 2025-12-17]

============================================
■ 배워야산다 (수 17:30~18:30)
■ 출연 : 나현진 대표(보넥스트투자자문)
============================================
▶ 구글 Nested Learning과 메모리 슈퍼사이클

□ 메모리 슈퍼사이클이 올 수밖에 없는 이유
▶ 반도체 기업은 ‘부품사’에서 ‘빅테크 알고리즘 최적화 시스템 파트너’로

□ AI의 큰 흐름: 챗봇 → 에이전트,‘통합(Integration)’
 멀티모달
    : 텍스트·이미지·음성·비디오 등 다양한 데이터를 동시에 이해하고 처리
월드모델 + 에이전트 결합: 계획·자가 수정 상용화 임계점
유튜브/비디오 데이터 → 지식으로 전환
→ 결론: 모델이‘더 자주’기억을 읽고‘계속’업데이트 하도록 설계가 이동
 
□ 기존 AI의 한계:‘기억상실증’과 파국적 망각
 지식 컷오프
    : 학습이 끝나는 순간 지적 성장이 멈춤(대화는 휘발)
파국적 망각
    : 새로운 것을 배우면 기존 지식이 무너짐
기존의 KV-캐시는‘책상 넓히기'에 가까움
                              → 결국 밀려나고, 핵심을 장기화하기 어려움
 
□ 구글의 해법: Nested Learning(Titans + HOPE)
 Titans: 추론 중 경사하강(gradient)으로
 ‘가중치(시냅스)’에 직접 기억 새김
Surprise(예측 오차/gradient 크기): ‘무엇을 기억할지’선택적으로 업데이트
HOPE: 기억을 고/중/저‘주파수’로 나눠 저장 (연속체 기억 시스템)
→ ‘읽기 위주’에서 ‘읽고-수정하고-쓰기(RMW)’로 전환

□ 핵심 프레임: 주파수(소프트웨어) ↔ 계층(하드웨어)
 
□ 고주파 수혜: HBM이‘저장소 → 가속기’로 이동
Nested Learning은 단기 기억을 매 토큰 갱신 
                                             → HBM 트래픽이 구조적으로 증가
베이스 다이에 로직 공정 도입(커스텀/컨트롤러 기능 강화) 
                                             → “메모리-로직 결합”
AI 가속기(GPU/TPU)의 성능 한계는 연산보다
                                             ‘메모리 월(memory wall)’에서 발생
 
□ HBM 밸류체인‘메모리 3사 + 패키징/장비’
첨단 패키징/파운드리: CoWoS/2.5D, 인터포저·범프·열설계
핵심 관전 포인트:  커스텀 HBM  → 고객 종속/해자 강화

□ 중주파 수혜: CXL 'AI 서버 메모리 허리'가 된다
 중주파(맥락) 업데이트는 예측 가능
      → CXL로 미리 옮겨 두는 Prefetching이 유효
*모델이 학습하는 동안 다음 배치를 미리 준비하는 기술
효과: HBM 용량 제약을 보완 + TCO 절감(유휴 메모리 재활용)
킬러앱: 컨텍스트/에피소드 메모리 계층(웜티어) 구축

□ 폼팩터 변화: SOCAMM 같은 '저전력 고대역 모듈'
LPDDR 기반 모듈(LPCAMM2): 고성능·저전력·확장성
CXL 메모리 디바이스 + 스위치/리타이머 등
                                          '플랫폼 부품' 시장 확대
국내/글로벌 메모리 업체, 모듈/시스템까지 사업 확장

□ 저주파 수혜: SSD/NAND가 '가장 큰 L4 캐시'가 된다
Random Read/IOPS
     :방대한 장기 지식 + 희소한 호출
컴퓨테이셔널 스토리지(Computational Storage)
     : SSD 컨트롤러가 필터링/벡터 검색 일부 처리(지능형 SSD)
NAND는 '용량' + '지연·병렬성·컨트롤러 SW' 가치로

□ 스토리지 밸류체인: NAND/SSD + 컨트롤러/스위치
컨트롤러/플랫폼
    : PCIe 스위치·스토리지 네트워킹(NVMe-oF) 수요 확대
AI 워크로드는 '데이터 파이프라인'이 병목
                                                → 스토리지도 시스템 설계 경쟁
관전 포인트
    : 데이터 레이크/벡터DB/스토리지 SW와 결합(하드웨어 단품 경쟁↓)

□ DRAM은 '용량'보다 '계층'이 중요해진다
HBM: 핫데이터(초고주파) 전용 → 단가/제조난이도↑, 공급제약 상존
CXL D램: 웜티어 확장으로 'HBM을 아껴 쓰는' 서버 설계 표준화
LPDDR 계열 모듈(LPCAMM2) 등 저전력 메모리 서버/엣지 적용 확대

□ 수요 촉매: AI 데이터센터 전력/서버 수요 구조적 증가
전력·공간 제약 심화 → '대역폭/와트'가 핵심 KPI 
                                         → HBM·저전력 모듈 수혜
*결론: AI 인프라 CAPEX의 상당 비중이
          '메모리·패키징·인터커넥트·스토리지'로 이동

□ 시장의 증거: HBM 중심으로 메모리 판이 재편
핵심은 '수요의 질'
   생성형 AI → 에이전트/온라인 학습 → 메모리 의존▲
커스텀 HBM/베이스다이
    : 고객-공급사 결합▲ 스펙 호환▼ 진입 장벽▲

□ 체크리스트(리스크 포함): 무엇을 보면 되는가?
기술 리스크: HBM 발열/수율/패키징 병목(공급 제약이 장기화 가능성)
표준 vs 커스텀: 고객별 베이스다이/컨트롤러 요구로 개발비↑, 호환성↓
CXL 생태계: 스위치/소프트웨어/운영체제 최적화 성숙도(킬러앱 확산 속도)
스토리지: GDS/NVMe-oF 도입 속도, 랜덤리드 최적화(컨트롤러/펌웨어 경쟁)
지정학/수출규제: 첨단 메모리/장비의 국가별 제약 가능성

□ AI가 뇌처럼 학습할수록 '메모리=컴퓨팅'이 된다
승자는 '칩'이 아니라 '플랫폼 공급 기업'
     → 메모리 + 패키징 + SW + 인터커넥트
메모리 업체 역할의 변화
    규격품 → 시스템 솔루션(커스텀 로직/컨트롤러) 파트너