CES 2026 AMD 키노트 총정리: “AI Everywhere for Everyone”을 현실로 만드는 MI455·Helios·Ryzen AI 400의 모든 것

CES 2026 AMD가 던진 한 문장: AI Everywhere for Everyone

CES는 늘 “다음 세대”를 미리 보여주는 무대였지만, CES 2026 AMD가 강조한 메시지는 유독 선명했습니다. AI는 더 이상 개념이나 실험실 데모가 아니라, 실제 산업과 일상에서 움직이며 작동하는 ‘움직이는 지능(intelligence in motion)’이 되었고, 그 변화의 속도는 이제 “가속”이라는 말로도 부족하다는 진단이었습니다.

기조연설에서 AMD CEO 리사 수(Lisa Su) 박사가 던진 핵심은 단순히 “AI가 중요하다”가 아니었습니다. AMD는 AI를 ‘누구나’ ‘어디서나’ 쓰게 만드는 컴퓨팅 기반을 만들겠다고 선언했고, 그 비전을 한 문장으로 압축한 표현이 바로:

“AI Everywhere for Everyone”

즉, 클라우드·PC·엣지(Edge)까지 모든 컴퓨팅 플랫폼에 AI를 통합해 AI를 보편화하겠다는 전략입니다. 그리고 이 비전은 말이 아니라 구체적인 하드웨어 로드맵(Helios/MI455, Ryzen AI 400)과 개방형 소프트웨어(ROCm), 그리고 산업 리더들과의 협력 사례(OpenAI, Luma AI, Blue Origin 등)로 연결되어 제시됐습니다.

CES 2026 AMD

왜 지금 ‘요타 스케일(Yotta Scale)’인가

CES 2026 AMD가 가장 강하게 밀어붙인 프레임은 “요타 스케일 컴퓨팅”입니다. 요지는 단순합니다. AI 사용자가 폭발적으로 늘면서, AI를 굴리는 ‘컴퓨팅 수요’가 기존 인프라의 상상을 벗어난 규모로 튀어 올랐다는 것.

  • ChatGPT 이후 AI 사용자는 수백만 → 10억+으로 확대됐고
  • AI가 휴대폰·인터넷처럼 필수 요소가 되면 활성 사용자는 50억+까지 갈 수 있으며
  • 컴퓨팅 수요는 2022년 약 1 제타플롭(Zettaflop) → 2025년 100 제타플롭+로 커질 수 있다고 전망됩니다.
  • 그리고 이 혁신 속도를 감당하려면 향후 5년 동안 10 요타플롭(Yotta Flops)+가 필요하다는 주장까지 연결됩니다.

여기서 “요타”는 숫자 감각을 깨뜨립니다. 1 요타플롭 = 1 뒤에 24개의 0이 붙는 연산 규모이고, 10 요타플롭은 2022년 대비 10,000배 수준이라는 설명이 이어집니다.

그래서 AMD의 결론은 이렇게 정리됩니다. AI를 어디에나 구현하려면 클라우드(전 세계 지능 공급) + PC(개인화·생산성) + 엣지(실시간 결정), 이 3축이 동시에 AI-ready가 되어야 하고, 이를 위해서는 GPU/CPU/NPU/맞춤형 가속기까지 전 스펙트럼의 컴퓨팅 엔진을 모두 갖춘 기업이 필요하다는 것. AMD는 바로 그 “풀 스택 컴퓨팅 엔진”을 자신들의 차별점으로 제시합니다.


클라우드 AI의 핵심: Helios 랙 스케일 + Instinct MI455

요타 스케일의 “본진”은 결국 클라우드입니다. 가장 큰 모델이 훈련되고, 수십억 사용자에게 지능이 전달되는 곳이기 때문입니다. AMD는 현시점에서의 포지셔닝도 함께 강조합니다.

  • 주요 클라우드 제공업체들이 AMD EPYC CPU를 사용하고 있으며
  • 상위 10개 AI 기업 중 8개가 Instinct 가속기로 모델을 구동하고 있다는 점을 전면에 둡니다.

그리고 이번 CES 2026에서 가장 큰 하드웨어 발표로 연결된 것이 바로 차세대 랙 스케일 플랫폼 ‘Helios’와 그 중심인 Instinct MI455(및 MI455X)입니다.

Helios가 노리는 것: 랙 단위를 ‘하나의 컴퓨터’로 만들기

AMD가 말하는 요타 스케일 AI 인프라의 조건은 3가지로 읽힙니다.

  1. 세대 교체에 맞춰 진화 가능한 개방형·모듈식 랙 설계
  2. 수천 개 가속기를 하나의 통합 시스템으로 묶는 고속 네트워킹
  3. 배포가 쉬운 턴키(turnkey) 솔루션

Helios는 이 조건을 “랙 레벨”에서 구현한 플랫폼으로 소개됩니다.

MI455X 핵심 스펙(공개 내용 기준)

Helios의 시작점은 MI455X GPU입니다. 발표 내용의 숫자들은 매우 공격적입니다.

  • 2nm 및 3nm 공정 기반
  • 3,200억(320B) 트랜지스터 (MI355 대비 70% 증가)
  • 12개의 2nm/3nm 컴퓨팅·I/O 칩렛
  • 432GB HBM4
  • 차세대 3D 칩 스태킹(3D chip stacking) 기반 연결

즉, “칩렛 + HBM4 + 3D 패키징”을 총동원해 대형 모델/대형 배치/대규모 병렬에 유리한 구조를 만들었다는 메시지입니다.

Venice EPYC(젠6) + Pensando 네트워킹까지 ‘트레이 단위’로 통합

Helios는 GPU만 던져놓는 설계가 아니라, EPYC CPU와 네트워킹 칩까지 컴퓨팅 트레이에 묶는 형태로 설명됩니다.

  • Venice EPYC CPU: 2nm 공정, 최대 256개 Zen 6 코어
    • 이전 세대 대비 메모리 및 GPU 대역폭 2배로 랙 스케일에서 GPU에 데이터 공급을 극대화했다는 포지셔닝
  • 네트워킹: 800GbE급 Pensando(Volcano, Selina 등 언급) 기반 초고대역폭·초저지연

“랙 안의 72개 GPU가 단일 컴퓨팅 장치처럼”

Helios 구조 설명에서 인상적인 포인트는 연결 방식입니다.

  • 랙 내 72개 GPU
  • 이더넷 터널링 기반의 고속 초가속기 링크 프로토콜로 연결되어
  • 단일 컴퓨팅 장치처럼 동작할 수 있다는 서술이 등장합니다.

또한 Helios 랙 여러 개(수천 개 규모)는 산업 표준 초이더넷 NIC와 Pensando 프로그래밍 가능 DPU로 연결되며, DPU가 GPU 작업 일부를 오프로드해 성능을 더 끌어올린다고 설명됩니다.

Helios 물리 설계: OCP 개방형 랙 와이드 표준 + Meta 협력

Helios는 Meta와 협력해 개발된 OCP(Open Compute Project) 개방형 랙 와이드 표준을 기반으로 하는 더블 와이드 설계로 소개되며, 랙 무게가 거의 7,000파운드에 달한다고 언급됩니다. 즉, 데이터센터 운영 관점에서 서비스 용이성·제조 용이성·신뢰성을 최적화하려는 방향이 강조됩니다.

성능 지표(발표 기준)

Helios 랙 한 대 기준으로 공개된 지표는 다음과 같이 정리됩니다.

  • 18,000개+ CDNA5 GPU 컴퓨팅 유닛
  • 4,600개+ Zen 6 CPU 코어
  • 최대 2.9 엑사플롭스(Exaflops) 성능
  • 랙당 31TB HBM4
  • 260TB/s 스케일 대역폭

그리고 “성능 도약”을 이렇게 요약합니다.

  • MI355가 이전 세대 대비 최대 3배 추론 처리량을 제공했다면
  • MI455는 더 나아가 광범위 모델/워크로드에서 최대 10배 성능을 제시한다는 것.

Helios는 “올해 말 출시 예정”으로 언급되며, AI 성능의 새 기준을 세울 것으로 기대된다는 톤으로 마무리됩니다.


OpenAI 협력: 에이전트 컴퓨팅이 요구하는 인프라의 방향

키노트의 전개가 흥미로웠던 이유는, AMD가 하드웨어 스펙만 늘어놓지 않고 “왜 이 정도가 필요해졌는가”를 OpenAI와의 대화로 풀어냈다는 점입니다. 무대에는 OpenAI 공동 설립자이자 사장인 그렉 브록만(Greg Brockman)이 등장합니다.

그가 던진 메시지를 한 줄로 요약하면 이렇습니다. AI는 ‘질문-답변’에서 끝나지 않고, 앞으로 ‘며칠 동안 일하는 에이전트 워크플로우’로 넘어간다.

“모델 능력의 기하급수적 발전 = 유용성의 기하급수적 확대”

브록만은 ChatGPT가 오랜 준비 끝에 등장한 결과였고, 이제 AI는 단순 텍스트 상자를 넘어 헬스케어, 신생아 관리처럼 개인적이고 중요한 영역까지 들어왔다고 말합니다. 엔터프라이즈에서는 Codex 같은 모델이 소프트웨어 엔지니어링을 바꾸고 있으며, “올해는 엔터프라이즈 에이전트가 본격화될 것”이라는 전망도 이어집니다.

에이전트 시대의 컴퓨팅: 저지연과 초고처리량, 두 체제가 공존한다

OpenAI 관점에서 미래 컴퓨팅 환경은 “인간의 주의(attention)와 의도(intent)가 가장 귀한 자원”이 되는 세계이며, 그래서 컴퓨팅은 두 가지 모드가 필요하다고 정리합니다.

  • 사람이 관여할 때는 초저지연(low latency) 상호작용
  • 백그라운드에서는 지속 실행되는 초고처리량(high throughput) 에이전트 컴퓨팅

즉, “빠른 반응성”과 “거대한 처리량”이 동시에 필요해진다는 뜻이고, 이 요구가 곧 MI455/Helios 같은 랙 스케일 전략으로 연결됩니다.

컴퓨팅 제약과 성장의 상관: “컴퓨팅이 곧 경쟁력”

브록만은 OpenAI가 지난 몇 년 동안 컴퓨팅 사용량을 매년 3배씩 늘렸고 매출도 3배 증가했다고 언급하며, 새로운 모델/기능이 나올 때마다 내부적으로도 컴퓨팅 확보 경쟁이 있을 정도로 compute constrained 상태라는 취지의 설명을 덧붙입니다. 나아가 향후 GDP 성장까지 “어디에 얼마나 컴퓨팅이 있느냐”가 좌우할 수 있다는 관점도 제시됩니다.

AMD와 OpenAI의 “공동 설계”

핵심은 이 문장입니다. MI455와 Helios가 OpenAI 엔지니어링 팀 피드백을 통해 긴밀히 협력하며 개발되었다는 점. 즉, 단순 고객-공급자 관계가 아니라, “에이전트 워크로드가 요구하는 리소스 균형”을 함께 맞춰가는 그림으로 제시됩니다.


MI400 포트폴리오와 ROCm: “개방형”이 성능이 되는 시대

AMD는 Helios/MI455를 “정점”으로 두고, 그 아래를 MI400 시리즈 포트폴리오로 촘촘히 채웁니다. 방향성은 명확합니다. 클라우드 하이퍼스케일 훈련부터 엔터프라이즈 배포, 주권 AI, 슈퍼컴퓨팅까지 “환경이 다르면 폼팩터도 달라야 한다”는 것.

  • Helios: 하이퍼스케일 훈련 + 랙 스케일 분산 추론
  • Instinct MI440X GPU: 엔터프라이즈 배포에 초점. 기존 데이터센터 인프라에서 쓰기 쉬운 컴팩트 8GPU 서버 구성에서 리더십 훈련/추론 성능
  • MI430X 플랫폼: 주권 AI 및 슈퍼컴퓨팅처럼 “정확도”가 중요한 환경을 겨냥. 과학 데이터 타입과 AI 데이터 타입을 함께 다루는 하이브리드 컴퓨팅 강조

그리고 이 포트폴리오를 가능하게 하는 기술 기반으로 칩렛(chiplet)이 반복해서 등장합니다. “워크로드에 맞는 컴퓨팅”을 만들 수 있다는 논리입니다.

ROCm: AI 시대에 ‘소프트웨어 스택’은 선택이 아니라 생존

AMD가 개방형 생태계를 강하게 주장하는 지점은 ROCm입니다. 발표의 톤은 단호합니다.

  • AI의 미래는 개방형 인프라 + 공유 기술 표준을 중심으로 업계가 협력할 때 가속된다.
  • AMD는 하드웨어·소프트웨어·솔루션 생태계 전반에서 개방성을 제공하는 유일한 회사라는 포지셔닝을 취한다.
  • ROCm은 “업계에서 가장 성능이 뛰어난 AI용 개방형 소프트웨어 스택”이라고 정의된다.
  • PyTorch, vLLM, SGLang, Hugging Face 등 상위 오픈소스 프로젝트에서 기본 지원되며, 모델 허브/프레임워크/도구를 출시 당일부터 지원한다고 강조한다.

정리하면, AMD는 “하드웨어만 좋은 회사”가 아니라, 개발자가 ‘바로 쓰게 만드는’ 소프트웨어 스택을 AI 승부처로 끌어올립니다.


Luma AI: 3D·비디오 생성이 ‘산업’이 되는 순간

AI가 텍스트를 넘어서 산업을 바꾸는 순간을 보여주는 파트너로, Luma AI가 무대에 오릅니다. CEO이자 공동 설립자인 아밋 자인(Amit Jain)은 Luma의 미션을 “세상을 이해하고 시뮬레이션하며 개선하는 멀티모달 일반 지능”으로 설명합니다.

Ray 3: “추론 비디오 모델”이라는 프레임

발표에서 Ray 3는 다음과 같이 소개됩니다.

  • 세계 최초의 추론 비디오 모델
    • 단순 생성이 아니라, 픽셀과 지연 시간을 먼저 고려하고 “무엇을 생성할지” 결정할 수 있다는 설명
  • 세계 최초로 4K 및 HDR 생성 지원
  • 광고·미디어·엔터테인먼트 기업과 개인 창작자까지 폭넓게 사용
  • 2025년 말에는 90분 장편 영화 제작에 사용하는 등 대규모 배포가 진행 중

여기서 중요한 통찰은 “제어(control)”입니다. 고객들은 정밀한 제어를 원했고, Luma는 제어가 더 나은 프롬프트가 아니라 더 높은 지능에서 나온다는 결론에 도달했다고 말합니다.

Ray 3 Modify: ‘세계 편집(World Editing)’의 시대

Ray 3 위에 구축된 Ray 3 Modify는 실사 또는 AI 푸티지를 가져와 원하는 만큼 바꾸는 세계 편집 기능을 제공하며, 이로 인해 인간의 동작·타이밍·방향 자체가 프롬프트가 되는 하이브리드 인간-AI 프로덕션이 가능해진다는 서사가 이어집니다.

2026년은 “에이전트의 해”

Luma는 2026년을 에이전트의 해로 선언하며, “작업의 일부”가 아니라 엔드투엔드 작업 전체를 수행하는 에이전트로 진화할 것이라고 봅니다. 멀티모달 에이전트 데모에서는 스크립트를 가져와 시각화하고, 장편 비디오를 분석하며, 캐릭터·장면·스토리의 일관성을 유지한 채 필요한 순간에만 편집하는 방향이 제시됩니다.

AMD 선택 이유: 추론 경제성과 TCO

Luma가 AMD를 선택한 이유는 명확히 “경제성”으로 연결됩니다.

  • 멀티모달 워크로드는 텍스트 모델보다 수백~수천 배 더 많은 토큰을 소비할 수 있다.
  • 예시로, 10초 비디오가 100,000 토큰이 될 수 있는 반면 일반 LLM 응답은 200~300 토큰 수준이라는 대비가 제시됩니다.
  • 그래서 TCO(총소유비용)와 추론 경제성이 비즈니스에 절대적으로 중요하며, Luma는 AMD와의 협력을 통해 스택에서 최고의 TCO를 달성했다고 말합니다.
  • 또한 2026년에 AMD 파트너십을 10배 확장할 예정이며, MI455X의 랙 스케일 솔루션과 메모리 인프라가 “세계 시뮬레이션 모델” 구축에 필수라고 연결합니다.

AI PC 시대: Ryzen AI 400·Ryzen AI Max·Halo 그리고 로컬 에이전트

AMD는 “클라우드만이 AI가 아니다”라는 관점을 AI PC로 확장합니다. AI PC는 단순한 도구가 아니라 사용자의 작업 방식을 학습하고, 습관에 적응하며, 오프라인에서도 빠르게 작업을 수행하는 능동적 파트너가 되어가고 있다는 설명입니다.

MI500 로드맵까지: 성능 향상은 계속된다

AMD는 차세대 MI500 시리즈도 개발 중이라고 밝히며,

  • CDNA6 아키텍처
  • 2nm 공정
  • HBM4e
  • 2027년 출시를 통해 지난 4년간 AI 성능 1,000배 증가 달성을 목표로 한다는 로드맵이 제시됩니다.

Ryzen AI 400 시리즈: “60 TOPS”로 확장되는 AI PC 라인업

이번 CES에서 AI PC 쪽 핵심 발표는 Ryzen AI 400 시리즈 프로세서입니다.

  • Zen 5 CPU (최대 12 고성능 코어)
  • RDNA 3.5 GPU (16 코어)
  • XDNA2 NPU (최대 60 TOPS)
  • 더 빠른 메모리 속도 지원
  • 첫 제품은 “이달 말부터 출하”, 연중 120개+ AI PC에 탑재 예정이라는 로드맵

AMD는 자신들이 AI PC 변곡점을 “일찍” 주도했다는 히스토리도 함께 강조합니다(온칩 AI 엔진 통합, Copilot+ x86 PC 등). 또한 Ryzen AI Max로 2000억(200B) 매개변수 모델을 로컬에서 실행할 수 있는 단일 칩 x86 플랫폼을 만들었다는 주장도 포함됩니다.

Liquid AI: 로컬 AI 에이전트를 위한 ‘가벼운 모델’의 필요

AI PC가 진짜 일하려면 하드웨어만큼 중요한 것이 “장치에서 돌아갈 만큼 효율적인 모델”입니다. 이 맥락에서 Liquid AI가 소개됩니다. MIT에서 분사한 파운데이션 모델 회사로, 트랜스포머가 아닌 Liquid Foundation Models(LFM)를 구축해 품질 저하 없이 계산 비용을 줄이겠다는 목표를 제시합니다. 가치 제안은 3가지로 정리됩니다.

  • 개인정보 보호(Privacy)
  • 속도(Speed)
  • 연속성(Continuity) (온라인/오프라인을 넘나드는 일관된 경험)

LFM 2 / LFM 2.5

  • LFM 2는 “타이니 클래스(tiny class)”에서 가장 진보된 모델로 소개되며 12억(1.2B) 파라미터 규모
  • 명령 수행(instruction-following) 능력이 동급 및 더 큰 모델 사이에서도 매우 우수하다고 설명
  • LFM 2.5 인스턴스는 특정 모델 대비 더 나은 명령 수행을 장치에서 제공한다고 언급
  • 총 5가지 모델 인스턴스(챗/인스트럭트/일본어 강화/비전-언어/경량 오디오-언어)가 공개되며 AMD Ryzen AI의 CPU/GPU/NPU에 최적화되었다는 점을 강조

LFM 3: 멀티모달 + 100ms 미만 지연

  • 텍스트·비전·오디오 입력을 처리하고, 10개 언어로 오디오 및 텍스트 출력을 제공하도록 기본 멀티모달로 설계
  • 시청각 데이터에 대해 100ms 미만 지연 시간을 제시

그리고 “능동적(proactive) 에이전트” 데모가 이어집니다. 사용자가 스프레드시트 작업 중일 때, 에이전트가 다가오는 영업 회의를 감지하고 대신 참석 제안을 하며, 단순 전사를 넘어 이메일까지 분석해 답장 초안을 만드는 흐름을 오프라인 로컬에서 수행한다는 시나리오입니다. Liquid AI는 2026년 Zoom과 협력해 이를 Zoom 플랫폼에 도입할 예정이라고 언급합니다.

Ryzen AI Max: 크리에이터·게이머·개발자용 “통합 메모리” 승부수

Ryzen AI Max는 다음 스펙으로 소개됩니다.

  • Zen 5 CPU 16코어
  • RDNA 3.5 GPU 40 컴퓨팅 유닛
  • XDNA2 NPU 최대 50 TOPS
  • CPU/GPU/NPU가 공유하는 최대 128GB 통합 메모리 아키텍처

발표 내용상, 프리미엄 노트북에서 최신 MacBook Pro 대비 AI 및 콘텐츠 제작 앱에서 더 빠르고, 소형 워크스테이션에서는 NVIDIA DGX Spark 대비 더 저렴한 가격으로 유사 성능을 제공하며, GPT-OSS 모델 실행 시 달러당 최대 1.7배 더 많은 토큰을 생성한다는 설명이 포함됩니다. 또한 Windows와 Linux를 모두 기본 지원해 개발 편의성을 강조합니다.

Ryzen AI Halo: “손에 맞는” 로컬 AI 개발 플랫폼

AMD는 로컬 AI 배포를 위한 레퍼런스 플랫폼 Ryzen AI Halo도 발표합니다.

  • “세계에서 가장 작은 AI 개발 시스템”
  • 최대 2000억 파라미터 모델을 로컬 실행
  • 최상급 Ryzen AI Max + 128GB 통합 메모리
  • 최신 ROCm 스택과 오픈소스 개발 도구 사전 로드
  • 올해 2분기 출시 예정

World Labs와 공간 지능: 3D 세계를 “몇 분”으로 당기는 기술

AI의 다음 전선으로 “공간 지능(spatial intelligence)”이 제시됩니다. 무대에는 World Labs 공동 설립자이자 CEO인 페이페이 리(Fei-Fei Li)가 등장하고, 언어 지능의 발전은 컸지만 인간에게 더 중요한 것은 지각과 행동을 연결하는 공간 지능이라고 강조합니다.

World Labs는 이 공간 지능을 현실화하기 위해 설립되었고, Marble이라는 모델 데모가 제시됩니다.

Marble: 몇 장(심지어 한 장)의 이미지로 3D/4D 세계 생성

전통적인 3D 구축이 레이저 스캐너나 복잡한 소프트웨어를 요구했다면, World Labs는 GenAI로 데이터에서 3D·4D 구조를 학습하는 모델을 만든다는 접근입니다. 모델에 몇 장의 이미지만 주면:

  • 누락된 디테일을 채우고
  • 물체 뒤를 예측하며
  • 풍부하고 일관된 탐색 가능한 3D 세계를 만든다고 설명합니다.

AMD 오피스 리모델링 데모: MI325X + ROCm

특히 흥미로운 데모는 AMD 실리콘밸리 오피스를 휴대폰 카메라로 촬영한 몇 장의 이미지로 3D 공간을 만들고, 그 공간을 이집트 스타일 등으로 리모델링하면서도 기하학적 일관성을 유지하는 시나리오입니다. 이때 사용된 인프라로 MI325X와 ROCm이 언급됩니다.

World Labs는 AMD와의 파트너십이 최근 시작됐음에도, 실시간 프레임 생성 모델이 MI325X에서 1주 만에 실행되었고, Instinct와 ROCm을 통해 몇 주 만에 성능을 4배+ 개선할 수 있었다고 말합니다.

여기서 결론은 분명합니다. 공간 지능은 3D 구조·움직임·물리학을 이해해야 하므로 메모리, 대규모 병렬 처리, 매우 빠른 추론이 필요하고, MI450 같은 플랫폼은 더 큰 세계 모델 훈련과 실시간 반응성을 가능하게 할 것이라는 전망으로 이어집니다.


헬스케어 혁신: 신약 개발·정밀의학·게놈 데이터의 폭발

키노트의 헬스케어 파트는 “AI의 가치가 결국 생명을 구하는 것으로 측정된다”는 메시지로 전개됩니다. 그리고 세 회사의 사례가 연결됩니다: AppSci, Illumina, AstraZeneca.

AppSci: 생성형 AI + 합성 생물학으로 약을 “설계”하는 시대

AppSci CEO 션 맥클레인(Sean McClain)은 기존 시행착오 중심의 약물 발견과 달리, 생성형 AI와 합성 생물학으로 원하는 생물학적 특성을 가진 후보를 “처음부터 설계”할 수 있다고 말합니다. 주요 목표 질병으로는

  • 남성형 탈모(androgenic alopecia)
  • 자궁내막증(10명 중 1명 여성에게 영향)

이 제시되고, AMD 투자 후 1년 만에 추론을 확장해 단 하루에 100만+ 약물을 스크리닝할 수 있게 되었다는 성과가 소개됩니다. 또한 MI355의 메모리가 생물학을 더 풍부한 맥락에서 다뤄 더 나은 발견 모델을 만드는 데 도움이 될 것이라는 설명이 이어집니다.

Illumina: DNA라는 ‘30억 문자’의 세계, 그리고 데이터 폭발

Illumina CEO 제이콥 테이슨(Jacob Thaysen)은 DNA를 생명의 청사진으로 설명하며, 인간 게놈이 30억 문자로 이루어진 “20만 페이지 책”에 비유될 만큼 정확도가 중요하다고 강조합니다. 또한 Illumina의 시퀀서가 매일 생성하는 데이터가 매우 방대해, AMD와의 관계가 필수적이며, AMD FPGA와 EPYC 프로세서를 활용해 데이터를 통찰로 변환한다고 말합니다.

생성형 AI + 게놈 + 단백질체학의 결합은 생물학 이해를 바꾸고, 신약 발견을 넘어 예방과 조기 치료로 이어져 수명과 건강수명 개선에 기여할 것이라는 전망도 제시됩니다.

AstraZeneca: “AI는 생산성이 아니라 혁신”

AstraZeneca의 분자 AI 책임자 울라 엔크비스트(Ulla Enksvist)는 AI를 혁신의 도구로 정의합니다. 수십 년의 실험 데이터를 학습한 생성형 AI로 수백만 후보를 가상 평가하고, 가장 유망한 것만 실험실로 가져가는 접근입니다. 그 결과:

  • 후보 약물을 50% 더 빠르게 제공
  • 임상 성공률도 높이는 방향으로 진화하고 있다고 설명합니다.

AstraZeneca는 AMD와 협력해 인실리코(in-silico) 흐름을 확장하고, 대규모 데이터 세트 처리와 워크플로우 최적화를 추진한다고 언급됩니다.

헬스케어 파트는 “sick care(사후 치료)”에서 “preventative care(예방)”로, 나아가 재생 생물학/의학(regenerative biology and medicine)으로 가는 방향성으로 정리됩니다.


물리적 AI: 로보틱스와 우주 탐사에서의 ‘결정적 로컬 컴퓨팅’

AI가 현실 세계로 들어오는 순간, 요구사항은 급격히 바뀝니다. 물리적 AI는 “느리면 안 되고, 틀리면 안 되는” 환경이 많습니다. 그래서 발표는 반복해서 로컬에서 빠르고 결정적(deterministic)인 컴퓨팅을 강조합니다.

Generative Bionics: 인간 중심 휴머노이드 로봇 ‘Gen 1’

Generative Bionics CEO 다니엘라 푸치(Daniela Pucci)는 “인공 에이전트가 인간 세계를 이해하려면 인간 같은 몸으로 경험해야 하는가?”라는 질문에서 출발해, iCub/ErgoCub/IronCub 같은 플랫폼을 만들어왔다고 소개합니다.

Gen 1에서 가장 큰 차별점은 촉각(tactile)입니다.

  • 몸 전체에 분산된 촉각 피부(tactile skin)가 압력·접촉·의도를 감지
  • 촉각을 “주요 지능의 원천”으로 끌어올린다는 메시지
  • 공장 협업, 헬스케어 보조 등 사람과의 안전한 상호작용을 겨냥

또한 Gen 1은 2026년 하반기 상업 제조 예정이며, 선도 철강 제조업체를 포함한 산업 파트너와 함께 안전이 중요한 환경에 배치될 것이라고 언급됩니다. 이 과정에서 AMD는 Ryzen AI Embedded, VersaLay iEdge 같은 엣지 플랫폼부터 시뮬레이션/훈련/대규모 개발용 CPU/GPU까지 엔드투엔드 아키텍처를 제공하는 파트너로 설명됩니다.

Blue Origin: 달 영구 거주(Lunar Permanence)와 Versal 2 비행 컴퓨터

Blue Origin의 달 영구 거주 담당 수석 부사장 존 칼루리스(John Kalouris)는 목표를 “달 영구 거주 확립”으로 정의하며, 이를 위해 반복 가능하고 저렴한 운영이 필요하다고 말합니다.

우주는 궁극의 엣지 환경입니다. 비행 컴퓨터는 “차량의 심장”이고, 질량·전력·방사선 등 제약 속에서 신뢰성과 탄력성을 가져야 합니다. AMD 임베디드 아키텍처는 질량과 전력 절감, 방사선 환경 고려 측면에서 장점이 있다는 서사가 이어집니다.

특히 Blue Origin은 AMD와 Versal 2를 비행 컴퓨터 스택에 쓰는 논의를 시작한 지 몇 달 만에 개발 비행 컴퓨터에 통합 가능한 장치를 제공받았고, 이 스택으로 달 착륙 시뮬레이션을 성공적으로 수행해 수개월 일정을 단축했다고 말합니다. 이 컴퓨터는 2028년 초 우주비행사를 달에 착륙시킬 Mark 2 착륙선에 동력을 공급할 예정이라는 언급도 포함됩니다.

또한 AI는 우주비행사에게 코파일럿 역할을 하고, 착륙 지점 식별·위험 탐지 등에서 실시간 엣지 컴퓨팅이 중요하다는 메시지가 이어집니다. 달 뒷면 전파 천문학 시나리오도 연결되며, 통신 지연을 극복하기 위해 엣지 AI가 탐사 최적화를 돕는 그림이 제시됩니다.


과학·슈퍼컴퓨팅·교육: Genesis 미션과 AI 인재 파이프라인

AMD는 HPC(고성능컴퓨팅)에서의 리더십도 전면에 배치합니다. 전통 HPC와 AI의 융합을 추진하고 있고, 세계에서 가장 빠른 슈퍼컴퓨터, 에너지 효율 시스템 등에 동력을 공급한다고 강조합니다. 예시로는:

  • 핀란드 Lumi: 기후 모델 업데이트 시간 85%+ 단축
  • ENI: 배터리/연료 개발
  • Oak Ridge National Labs(Exascale): 예측 정확도 99% 수준의 시뮬레이션 언급
  • Lawrence Livermore El Capitan: 바이러스 변이/진화 모델링을 통한 팬데믹 대응 가속

Genesis 미션: AI·슈퍼컴퓨팅·양자의 융합

AMD는 미국 DOE 및 국립 연구소와 함께 Genesis 미션에 참여한다고 소개합니다.

  • Lux 컴퓨터: “올해 초 가동 예정”인 과학 전용 AI 팩토리
  • Discovery: 2028년 계획된 차기 플래그십 슈퍼컴퓨터

또한 미국 차원의 AI 전략(규제 장벽 제거, 인프라/에너지 확보, AI 외교/수출 프로그램)과 연결되며, 교육 이니셔티브로 “대통령 AI 챌린지”가 언급됩니다.

교육: AI Education Pledge와 학생·커뮤니티 확장

AMD는 AI 교육 서약을 지원하며 1억 5천만 달러를 투자했고, 전 세계 800개+ 교육·연구 협력을 구축 중이며, 올해 15만 명+ 학생에게 무료 온라인 AI 과정을 제공할 계획이라고 말합니다.

또한 Hack Club과 진행한 전국 AI·로보틱스 캠페인, 해커톤 우승팀 Team Armtender(AI 로봇 바리스타) 사례가 소개됩니다. 이 팀은 AMD 개발자 클라우드(MI 300X GPU)에서 비전-언어 모델을 훈련했고, 로봇 팔은 Ryzen AI 노트북에서 3대 카메라로 로컬 실행된다고 설명됩니다. AMD는 팀원 각자에게 2만 달러 교육 보조금을 수여했다고 언급됩니다.


결론: AMD가 그리는 다음 10년의 AI 지도

CES 2026에서 AMD는 “AI가 중요하다”는 메시지를 넘어, AI가 보편재가 되기 위해 필요한 컴퓨팅의 크기(요타 스케일)와 이를 감당하기 위한 플랫폼 단위 혁신(Helios/MI455), 그리고 개방형 소프트웨어(ROCm)를 한 프레임으로 묶었습니다.

여기에 OpenAI의 에이전트 컴퓨팅, Luma AI의 멀티모달 생성 워크로드, World Labs의 공간 지능, 헬스케어·로보틱스·우주 탐사·과학 슈퍼컴퓨팅까지 연결하면서, AMD의 전략은 결국 이렇게 요약됩니다.

  • AI는 클라우드에만 있지 않다. 클라우드·PC·엣지 전체가 AI 플랫폼이 된다.
  • 컴퓨팅 수요는 상상을 초월한다. 그래서 랙 스케일/요타 스케일이 필요하다.
  • 성능은 하드웨어만이 아니라 소프트웨어(ROCm)와 생태계에서 완성된다.
  • 가장 큰 혁신은 단독이 아니라, 업계 리더와의 공동 혁신으로 빠르게 현실이 된다.

AMD가 그린 그림은 “더 큰 숫자”의 경쟁이라기보다, AI를 전 산업과 일상에 ‘실제로 배포 가능한 형태’로 만드는 인프라 경쟁에 가깝습니다. 그리고 CES 2026은 그 로드맵을 상당히 구체적인 형태로 공개한 자리였습니다.


AX 100배의 법칙
AX 100배의 법칙
– 나와 조직의 능력을 100배 높이는 AI 경영의 실제

도서 구매

함께 읽으면 좋은 글:

디지털 트랜스포메이션: 조직의 습관을 바꾸는 일, 도서 구매

. .

젠슨 황의 CES 2026 엔비디아 기조연설 총정리: Agentic AI부터 Physical AI ‘Cosmos’, 자율주행 AlphaMayo와 차세대 슈퍼칩 ‘Vera Rubin’까지

젠슨 황의 CES 2026 엔비디아 키노트는 “신제품 발표”가 아니라, AI 시대에 컴퓨터 산업이 어떻게 다시 설계되어야 하는지를 스택 전체 관점에서 설명한 일종의 선언문에 가깝습니다. 메시지는 단순합니다. 이제 AI는 앱 위에 얹는 기능이 아니라, 소프트웨어를 만들고 실행하는 방식 자체를 바꾸는 플랫폼 전환이며, 그 결과 컴퓨팅 산업의 5계층 스택 전체가 재발명되고 있다는 것입니다.


CES 2026 엔비디아 키노트, 한눈에 보는 핵심 요약

  • 지금은 두 개의 플랫폼 전환이 동시에 진행 중입니다: (1) AI 기반 앱 시대, (2) 소프트웨어 개발/실행 방식의 근본 변화
  • AI는 학습 + 추론(Reasoning) 단계로 진입했고, “테스트 타임 스케일링(Test-time Scaling)”으로 컴퓨팅 수요가 폭발합니다.
  • 미래 AI 앱의 기본 골격은 에이전틱 AI + 멀티모델(라우팅) + 멀티클라우드/하이브리드입니다. 엔비디아는 이를 Blueprint로 제시합니다.
  • Physical AI를 위해서는 **세 종류의 컴퓨터(학습·추론·시뮬레이션)**와 디지털 트윈/합성 데이터가 필수이며, 월드 파운데이션 모델 Cosmos가 중심입니다.
  • 자율주행 AlphaMayo는 “엔드투엔드 학습 + 추론 + 설명 가능성”을 내세우며, 벤츠와 풀스택으로 레벨4 시대를 예고합니다(2026년 지역별 출시 로드맵 포함).
  • 차세대 슈퍼칩 Vera Rubin은 무어의 법칙 둔화를 “극한의 공동 설계(Extreme Co-design)”로 돌파합니다: 칩 6종을 하나처럼 움직이는 시스템 설계, 100% 수냉식 랙, AI 전용 이더넷(Spectrum‑X), BlueField‑4 기반 메모리 병목 해소가 핵심입니다.
  • 결과적으로 토큰 비용은 10분의 1, 팩토리 처리량은 10배, 대형 모델 학습 속도는 “프론티어 도달 시간”을 결정하는 경쟁우위로 강조됩니다.

1) 두 개의 플랫폼 전환: 5계층 스택 전체가 다시 짜이고 있다

젠슨 황은 컴퓨터 산업이 10~15년 주기로 플랫폼 전환을 겪어왔다고 전제합니다. 메인프레임 → PC → 인터넷 → 클라우드 → 모바일. 매번 “새로운 플랫폼”이 등장할 때마다, “새로운 앱”이 그 위에 다시 만들어졌습니다.

그런데 지금은 전환이 하나가 아니라 두 개가 동시에 일어나고 있다는 설명입니다.

  1. AI 시대로의 전환: 앞으로의 애플리케이션은 AI를 기반으로 구축된다.
  2. 개발·실행 방식의 전환: 소프트웨어를 만들고 실행하는 방식 자체가 바뀌며, 컴퓨터 산업의 5계층 스택 전체가 재발명된다.

여기서 그는 아주 공격적인 관점을 던집니다. 소프트웨어 개발은 “코딩”에서 “학습”으로 전환되었고, 소프트웨어는 CPU가 아니라 GPU에서 실행되며, 미리 컴파일된 정적 결과물이 아니라 문맥을 이해해 매번 새롭게 생성되는 방향으로 가고 있다는 것입니다.

또 하나의 큰 배경은 시장 규모입니다. 지난 10년간 구축된 약 10조 달러 규모의 컴퓨팅 인프라가 AI 방식으로 현대화되고, 100조 달러 규모의 산업이 R&D 예산을 AI로 이동하는 흐름이 만들어지고 있다는 언급은, 이번 전환이 “일시적 트렌드”가 아니라 자본과 산업 구조의 이동이라는 점을 강조합니다.

CES 2026 엔비디아

2) 2025년의 교훈: 스케일링 법칙과 ‘추론(Reasoning)’의 시대

AI 발전의 핵심으로 그는 다시 스케일링 법칙(Scaling Laws)을 꺼냅니다. BERT(2015), 트랜스포머(2017), 그리고 2022년의 “ChatGPT 모멘트”를 거쳐, 2023년에는 추론 모델의 등장으로 혁명이 시작됐다고 설명합니다.

여기서 중요한 전환점이 “테스트 타임 스케일링(Test-time Scaling)”입니다. 모델을 단순히 사전 학습시키는 것을 넘어, 강화학습 기반의 사후 훈련으로 기술을 숙달하게 하고, 실제 사용 시점에 “실시간으로 사고하는(Thinking)” 단계로 넘어갔다는 진단입니다.

그리고 2024년부터 확산되기 시작한 것이 에이전틱 시스템(Agentic Systems)입니다. 이 시스템은 단순 답변이 아니라,

  • 추론(Reasoning)
  • 정보 탐색(Search)
  • 도구 사용(Tools)
  • 미래 계획(Planning)
  • 결과 시뮬레이션(Simulation)

을 결합해 중요한 난제를 해결하는 형태로 진화합니다.

그는 “정보의 형태”가 LLM에만 국한되지 않는다고 강조하며, 특히 Physical AI를 가장 큰 분야 중 하나로 지목합니다. 물리적 AI는 “세상과 상호작용하는 AI”, 그리고 AI 물리학은 “물리 법칙 자체를 이해하는 AI”라는 구분까지 제시합니다.


3) 오픈 모델의 폭발적 성장과 엔비디아의 기여: 모델만이 아니라 ‘데이터’도 연다

젠슨 황은 오픈 모델(Open Models)의 발전이 AI를 모든 곳으로 확산시키고 있다고 말합니다. 2023년은 오픈 모델이 도약한 해였고, 딥시크(DeepSeek)의 추론 시스템 R1이 이 흐름을 촉발시켰다는 맥락이 포함됩니다. 오픈 모델은 프론티어 모델 대비 약 6개월 뒤처지지만, 빠르게 발전하며 다운로드가 폭발한다는 설명입니다.

여기서 엔비디아의 포지셔닝은 명확합니다. 엔비디아는 DGX 클라우드를 운영하며 오픈 모델을 개발하고, 다양한 도메인에서 프론티어 수준의 모델까지 연구한다. 그리고 중요한 차별점으로 모델뿐 아니라 학습 데이터까지 오픈소스로 공개한다는 메시지를 강조합니다.

연설에서 언급된 주요 모델 라인업은 다음과 같습니다.

  • 디지털 생물학: La Proteina(단백질 합성), OpenFold3(구조 이해), Evo2(이해·생성)
  • 물리 법칙/기상: Earth‑2, ForecastNet, CorDiff
  • LLM: Nemotron(하이브리드 트랜스포머 SSM), Nemotron‑3
  • 월드 파운데이션 모델: Cosmos(세상이 작동하는 방식 이해)
  • 로보틱스: Groot(휴머노이드), AlphaMayo(자율주행 자동차)

또한 NeMo 라이브러리를 통해 데이터 처리→학습→생성→평가→배포까지 AI 수명 주기 전체를 지원하는 오픈소스 제품군을 제공한다고 설명합니다.

이 파트에서 반복되는 핵심 문장은 사실상 이것입니다. 모든 기업·산업·국가가 AI 혁명에 참여할 수 있도록, 엔비디아는 ‘완전히 개방적인 방식’으로 플랫폼을 구축한다.

젠슨 황의 CES 2026 엔비디아

4) Agentic AI(에이전틱 AI): “환각”을 줄이는 길은 ‘조사·도구·계획’이다

젠슨 황은 AI의 환각(hallucination)이 발생하는 이유를 “현재와 미래를 알지 못하기 때문”이라고 규정합니다. 따라서 답변을 생성하기 전에 AI에게 필요한 것은,

  • 조사(Research)
  • 도구 사용(Tool use)
  • 문제를 단계별로 분해(Decomposition)
  • 검색과 계획(Search & Planning)

같은 추론 기반 프로세스이며, 이 능력이 결합될 때 “학습되지 않은 일도 수행하는 절차”를 설계할 수 있다고 말합니다. 또한 그는 미래의 AI가 반드시 멀티모달이자 멀티모델이어야 한다고 강조합니다.

  • 멀티모달: 음성, 이미지, 텍스트, 비디오, 3D 그래픽, 단백질 구조까지 이해
  • 멀티모델: 작업에 가장 적합한 “전 세계의 뛰어난 모델”을 선택해 활용

그리고 AI는 필연적으로 멀티클라우드/하이브리드 환경에 존재해야 합니다. 모델은 서로 다른 장소(엣지, 무선 기지국, 기업 내부, 병원 등)에 있고, 데이터는 실시간 처리가 필요한 곳에서 처리되어야 하기 때문입니다.

이 구조를 가능하게 하는 핵심 구성요소가 바로 스마트 라우터입니다. 프롬프트 의도를 파악해 “가장 적합한 모델”을 결정하는 관리자 역할을 수행하며, 이를 통해 다음 두 가지를 동시에 만족시키는 아키텍처가 완성됩니다.

  • 완벽히 커스터마이징 가능한 AI(고유 기술·영업비밀 학습)
  • 항상 최전선(frontier)에 있는 AI(최신 기술 즉시 활용)

엔비디아는 이 프레임워크를 Blueprint라고 부릅니다. 데모에서는 DGX Spark를 개인 클라우드로 전환하고, 로컬 오픈 모델(예: 이메일 관리)과 프론티어 모델(다른 고난도 작업)을 의도 기반 모델 라우터로 연결해 개인 비서를 구축하는 과정을 보여주었다고 정리됩니다.


5) 엔터프라이즈의 미래: 엑셀과 명령어가 사라지는 UI 전환

젠슨 황은 에이전틱 AI 프레임워크가 이미 주요 엔터프라이즈 플랫폼 기업들과 통합되고 있다고 말합니다.

  • Palantir: AI 및 데이터 처리 플랫폼 통합/가속
  • ServiceNow: 고객·직원 서비스 플랫폼
  • Snowflake: 클라우드 데이터 플랫폼
  • NetApp: 시맨틱 AI 및 에이전틱 시스템 기반 고객 서비스

그리고 결론을 이렇게 내립니다. 미래 플랫폼의 UI는 엑셀 시트나 명령어 입력이 아니라, 에이전틱 시스템 자체가 될 것이다. 사람과 대화하듯 멀티모달 정보 처리를 수행하는 “단순한 상호작용”이 인터페이스의 표준이 된다는 주장입니다.


6) Physical AI의 본질: 상식을 ‘학습’시키는 월드 파운데이션 모델 Cosmos

물리적 AI에서 가장 어려운 과제는, AI가 물리 세계의 “상식”을 이해하도록 만드는 것입니다.
대상 영속성, 인과관계, 마찰, 중력, 관성 같은 “세상이 돌아가는 이치”를 배워야 한다는 설명이 이어집니다.

이를 위해 엔비디아는 물리적 AI 시스템 구축에 세 종류의 컴퓨터가 필요하다고 정리합니다.

  1. 학습용 컴퓨터: 모델 학습(엔비디아가 구축)
  2. 런타임 추론용 컴퓨터: 자동차·로봇·엣지에서 실행되는 로보틱스 컴퓨터
  3. 시뮬레이션용 컴퓨터: 행동 결과 평가 및 시뮬레이션

이때 시뮬레이션의 중심 플랫폼이 Omniverse(디지털 트윈이자 물리 기반 시뮬레이션 세계)이며, 월드 파운데이션 모델이 Cosmos입니다. Cosmos는 “언어가 아닌 물리 세계를 위한” 월드 모델로 소개됩니다.

여기서 데이터 문제가 등장합니다. 현실 데이터는 부족하기 때문에, 물리 기반 시뮬레이션을 활용한 합성 데이터 생성(Synthetic Data Generation)이 혁신의 핵심이 됩니다.

Cosmos는 교통 시뮬레이터 출력값을 입력받아 물리적으로 타당한 고품질 서라운드 비디오를 생성하며, 인터넷 규모의 비디오·실제 주행/로보틱스 데이터·3D 시뮬레이션을 통해 사전 학습되었다고 설명됩니다. 또한 언어·이미지·3D·행동(Action)을 통합적으로 이해하고, 단일 이미지로부터 생성/추론/궤적 예측까지 수행할 수 있다고 제시됩니다.

핵심은 개발자가 Cosmos 내에서 폐쇄 루프(closed‑loop) 시뮬레이션을 실행하며, AI가 롱테일(long‑tail) 예외 상황을 학습하도록 돕는다는 점입니다.


7) 사고하고 설명하는 자율주행 ‘AlphaMayo’: 벤츠와 함께 여는 레벨4 로드맵

AlphaMayo는 “세계 최초의 사고하고 추론하는 자율주행 AI”로 소개됩니다. 카메라 입력부터 실제 구동 출력까지 엔드투엔드(end‑to‑end)로 학습되었고, 학습 데이터는

  • 실제 주행 데이터
  • 인간 운전 시연 데이터
  • Cosmos가 생성한 방대한 주행 데이터

의 조합이라고 정리됩니다.

AlphaMayo의 차별점으로 연설에서 강조된 포인트는 다음입니다.

  • 단순히 조작(control)하는 것을 넘어 행동을 추론하고
  • 결정 이유를 설명하며
  • 이동 경로를 제시한다
  • 인간 시연 기반 학습으로 운전이 매우 자연스럽다
  • 복잡한 롱테일 상황을 “평범한 작은 시나리오들”로 분해해 추론·해결한다

또한 자율주행 AI는 5계층 스택으로 구성된다고 설명합니다.

  • (하단) 자동차
  • 칩(GPU·네트워킹·CPU)
  • 인프라(Omniverse, Cosmos)
  • 모델(AlphaMayo)
  • (상단) 애플리케이션(메르세데스‑벤츠)

엔비디아는 AlphaMayo를 오픈소스로 공개하며 벤츠와 풀스택 프로젝트를 진행했다고 언급합니다.

출시 로드맵도 구체적으로 제시됩니다. 엔비디아 기술이 탑재된 첫 자율주행차는 2026년 1분기 미국, 2분기 유럽, 3~4분기 아시아 출시 예정이라는 일정이 포함됩니다.

안전성 전략은 “이중 스택”입니다.

    1. 엔드투엔드로 학습된 AlphaMayo 스택
    1. 안전 가드레일 역할의 클래식 AV 스택

안전 정책 평가자가 AlphaMayo에 확신이 없다고 판단하면, 더 단순하고 확실한 클래식 스택으로 전환하는 구조입니다. 그는 자율주행이 “최초의 대규모 주류 물리적 AI 시장”이 될 것이며, 향후 10년 내 비자율주행에서 자율주행으로의 변곡점이 온다고 확신합니다.


8) 로보틱스와 산업의 융합: 로봇은 ‘컴퓨터 안에서’ 설계되고, 공장은 ‘거대한 로봇’이 된다

자율주행에 쓰인 기본 기술(세 대의 컴퓨터, 합성 데이터, 시뮬레이션)은 모든 로봇 시스템에 적용된다고 정리됩니다. 엔비디아의 로봇 시뮬레이터는 Isaac, 로봇 학습 공간은 Omniverse입니다.

흥미로운 부분은 “AI 물리학이 엔비디아를 있게 한 산업(설계·생산 산업)을 다시 혁신한다”는 주장입니다.

  • Cadence는 CUDA‑X를 시뮬레이션과 솔버에 통합
  • Synopsys·Cadence는 칩 설계를 넘어 시스템 설계·시뮬레이션 영역으로 확장
  • 미래에는 칩과 시스템 전체가 해당 환경에서 설계·에뮬레이션·시뮬레이션될 것
  • 엔비디아는 Siemens와 협력해 CUDA‑X 물리적 AI, 에이전틱 AI, NeMo, Nemotron을 지멘스 세계에 통합

이 흐름의 종착점은 “에이전틱 칩 설계자”와 “에이전틱 시스템 설계자”가 설계를 돕고, 로봇은 컴퓨터 안에서 설계되며, 로봇을 생산할 플랜트/공장 자체가 본질적으로 거대한 로봇이 되는 미래입니다.


9) 차세대 슈퍼칩 ‘Vera Rubin’: 무어의 법칙 이후를 위한 Extreme Co‑design

젠슨 황은 컴퓨팅 수요 폭발을 아주 직설적으로 수치화합니다.

  • 모델 규모는 매년 10배씩 커지고
  • 추론이 “사고”가 되면서 강화학습을 위한 컴퓨팅이 기하급수적으로 증가
  • 테스트 타임 스케일링으로 생성되는 토큰 수는 매년 5배 증가
  • 경쟁 심화로 토큰 비용은 매년 약 10배 감소 압력

따라서 엔비디아는 “매년 컴퓨팅 최첨단을 발전”시키기로 결정했고, 그 결과물이 차세대 슈퍼칩(정확히는 슈퍼칩+시스템) Vera Rubin입니다. 이름은 암흑 물질을 발견한 천문학자 베라 루빈에서 따왔다는 설명이 포함됩니다.

핵심 개념은 극한의 공동 설계(Extreme Co‑design)입니다. Vera Rubin은 단일 칩이 아니라 6개의 칩이 하나처럼 작동하도록 엔지니어링된 시스템입니다.

  • Vera CPU: 맞춤형 설계 CPU, 이전 세대 대비 2배 성능(전력 제약 환경에서도 와트당 2배)
    • 88개 물리 코어
    • 공간 멀티스레딩으로 176 스레드가 온전한 성능 발휘
  • Rubin GPU: Vera와 양방향 일관 데이터 공유하도록 공동 설계
    • 부동소수점 연산 성능이 Blackwell의 5배
    • 트랜지스터 수 증가는 1.6배에 그침
    • 성능 도약의 핵심 기술: NVFP4 텐서 코어(정밀도·구조를 하드웨어에서 동적으로/적응형으로 조정)

또한 Vera Rubin 컴퓨트 보드는 이전 세대의 5배인 100 페타플롭스 AI 성능을 제공한다고 정리됩니다.


10) 인프라 혁신: 100% 수냉식 랙, AI 전용 이더넷(Spectrum‑X), NVLink 6세대

Vera Rubin은 칩 혁신만으로 완성되지 않습니다. 인프라도 함께 “극한의 공동 설계”로 재설계됩니다.

DGX 섀시의 재설계

  • 케이블: 43개 → 0개
  • 튜브: 6개 → 2개
  • 조립 시간: 2시간 → 5분
  • 냉각: 80% 액체 냉각 → 100% 액체 냉각

AI 전용 이더넷: Spectrum‑X

AI 트래픽은 동서(East‑West) 트래픽이 매우 집약적이고 극도로 낮은 지연시간을 요구합니다. 그래서 엔비디아는 AI 전용 이더넷인 Spectrum‑X를 제시합니다.

또한 “데이터센터 경제성” 관점의 예시가 나옵니다. 기가와트급(약 500억 달러 규모) 데이터 센터에서 네트워킹 효율을 10%만 높여도 50억 달러 가치가 있는데, Spectrum‑X가 처리량을 25%까지 높여준다는 논리입니다.

NVLink 6세대 스위치와 스케일업

  • 18개의 컴퓨트 노드를 연결해 72개의 Rubin GPU가 하나처럼 작동하도록 확장
  • 스위치 처리 성능: 초당 400Gbps급 처리, 모든 GPU가 동시에 모든 GPU와 통신
  • 랙 백플레인의 처리량: 초당 240TB(전 세계 인터넷 트래픽 약 100TB/s의 2배 이상이라는 비유 포함)

45℃ 냉각수: ‘칠러 없는’ 효율성

Vera Rubin 랙은 전력 소모가 이전 세대 대비 두 배이지만, 유입 냉각수 온도는 45℃로 동일하다고 정리됩니다. 45℃ 냉각수는 별도의 냉각기(chiller)가 필요 없어 효율적이며, 에너지 최적화의 핵심 포인트로 강조됩니다.

또한 TSMC와 공동 혁신한 CoWoS 공정으로 실리콘 포토닉스가 칩에 직접 통합되어, 200Gbps 속도의 512포트를 지원하는 Spectrum‑X 이더넷 AI 스위치가 가능해졌다는 설명도 포함됩니다.


11) 메모리 병목 해소: KV 캐시, 랙 내부 초고속 스토리지, BlueField‑4

젠슨 황은 추론 시대의 새로운 병목을 컨텍스트 메모리(KV 캐시)로 규정합니다.

  • 토큰을 생성할 때마다 GPU는 모델 전체와 KV 캐시 전체를 읽고, 생성 토큰을 다시 KV 캐시에 저장
  • 대화가 길어지고 모델이 커질수록 컨텍스트 메모리가 폭증
  • HBM이나 고속 컨텍스트 메모리만으로 감당이 어려워짐
  • 외부 스토리지로 나가면 네트워크가 느려져 병목이 심해짐

그래서 등장하는 해법이 BlueField‑4입니다.
BlueField‑4를 통해 랙 내부에 매우 빠른 KV 캐시 컨텍스트 메모리 저장소를 두어, 대규모 토큰 생성을 수행하는 AI 연구소/클라우드 사업자의 네트워크 트래픽 고충을 해결하는 혁명적 아이디어라고 설명합니다.

연설에서 제시된 구조는 다음과 같습니다.

  • GPU당 추가 16TB 메모리 확보
  • 각 컴퓨트 노드 뒤에 BlueField 4개 장착
  • 각 BlueField 뒤에 50TB 컨텍스트 메모리 저장
  • GPU는 동서 트래픽과 동일한 200Gbps 속도로 추가 메모리에 접근

여기에 보안·운영 안정성 요소가 더해집니다.

  • 기밀 컴퓨팅(Confidential Computing): 전송/저장/연산 중 데이터 암호화, PCIe·NVLink 버스 통신 암호화로 모델 노출 방지
  • 전력 평활화(Power Smoothing): 올 리듀스(all‑reduce) 단계에서 최대 25% 치솟는 순간 전력 급증을 평활화해 과도한 전력 프로비저닝/낭비 없이 전력 예산을 꽉 채워 쓰게 함

12) 압도적 성능과 비용: 무어의 법칙을 넘어선 ‘경제성’이 핵심이다

젠슨 황은 성능 자체보다 경제성을 더 날카롭게 강조합니다. AI는 “더 빨리 학습할수록 다음 프론티어에 더 빨리 도달”하고, 그 속도가 기술 리더십과 가격 경쟁력으로 이어지기 때문입니다.

연설에서 제시된 핵심 수치들은 다음과 같습니다.

  • 10조(Trillion) 파라미터 모델 학습: Rubin 시스템은 Blackwell 시스템의 4분의 1만 있어도 1개월 내 학습 가능
  • 팩토리 처리량(Factory Throughput): Rubin은 Blackwell 대비 약 10배
  • 토큰 생성 비용: Rubin은 Blackwell 대비 약 10분의 1

정리하면 엔비디아는 칩→인프라→모델→애플리케이션에 이르는 AI 풀스택(Full Stack)을 구축하고 있으며, 임무는 “전 세계가 놀라운 애플리케이션을 만들 수 있도록 이 전체 스택을 제공하는 것”이라고 마무리합니다.


13) 내 비즈니스에 적용하는 실전 체크포인트

이번 키노트에서 실무자가 가져갈 인사이트는 “기술 트렌드”가 아니라, 다음 1~3년의 아키텍처 의사결정 기준입니다.

1) AI 도입의 기본 단위는 ‘모델’이 아니라 ‘에이전트(Agent)’로 이동

  • 단일 챗봇 도입보다, 업무를 쪼개서 실행하는 에이전틱 시스템이 UI가 됩니다.
  • 내부 데이터/보안 요구가 있으면 로컬(온프렘/프라이빗) 모델과 프론티어 모델을 라우팅하는 구조가 필수입니다.

2) 멀티모델 라우팅은 “비용”과 “품질”을 동시에 잡는 설계

  • 모든 요청을 비싼 최전선 모델에 보내지 않고, 의도 기반으로 최적 모델을 선택하는 것이 토큰 비용을 지배합니다.
  • “커스터마이징 AI”와 “최신 AI”를 동시에 가져가려면, 라우터/정책/관찰가능성(로그·평가)이 필요합니다.

3) Physical AI를 하려면 시뮬레이션·합성 데이터가 ‘필수 인프라’

  • 자율주행·로보틱스·제조 최적화는 현실 데이터만으로는 부족합니다.
  • 디지털 트윈(Omniverse) + 월드 모델(Cosmos) + 폐쇄 루프 시뮬레이션이 경쟁력의 핵심이 됩니다.

4) AI 인프라는 이제 “수냉 + 네트워크 + 메모리”가 함께 설계되어야 한다

  • 100% 수냉식, AI 전용 이더넷(Spectrum‑X), BlueField‑4 기반 랙 내 컨텍스트 스토어 같은 구조는
    단순 서버 구매가 아니라 데이터센터 설계/운영 모델 자체를 바꿉니다.

5) 보안은 ‘옵션’이 아니라 ‘요금표’에 직접 연결되는 기본값

  • 기밀 컴퓨팅, 멀티테넌시 분리, 버스 암호화 같은 설계는 엔터프라이즈가 AI를 “외부 유출 걱정 없이” 쓰게 만드는 전제 조건입니다.

이번 젠슨 황의 CES 2026 엔비디아 키노트를 보면서 구글, AMD 등의 도전이 GPU 자체로는 계속되겠지만 한번 시작된 엔비디아의 아성을 위협하기에는 어렵겠다는 생각입니다. 한 마디로 이 동네의 최고 강자는 자신들이다라는 것을 다시 한번 선언하듯 자신들의 키노트 이외에도 다른 기업들의 여러 컨퍼런스에도 등장하면서 생태계를 공고히 한 모습이었습니다. 이에 올해 CES 2026의 주인공 기업 하나를 꼽는다면 저는 엔비디아를 선택할 것 같습니다.

AX 100배의 법칙
AX 100배의 법칙
– 나와 조직의 능력을 100배 높이는 AI 경영의 실제

도서 구매

함께 읽으면 좋은 글:

디지털 트랜스포메이션: 조직의 습관을 바꾸는 일, 도서 구매

. .

CES 2026 레노버 테크 월드 키노트 총정리: 하이브리드 AI 시대, Lenovo Kira·AI Cloud Gigafactory·AI 추론 인프라까지

CES 2026 레노버의 메시지는 명확합니다. AI를 “클라우드에만 있는 기능”이 아니라, 개인의 모든 디바이스와 기업의 데이터가 존재하는 현장(온프레미스·엣지)까지 확장해 ‘모두가 쓰는 AI’로 만들겠다는 선언입니다.
그 중심에는 (1) 개인의 삶과 업무를 통합하는 개인 AI 슈퍼 에이전트 ‘Lenovo Kira’, (2) 엔터프라이즈의 실시간 의사결정을 가속하는 AI 추론(Inferencing) 최적화 인프라, (3) 이를 가능하게 하는 하이브리드 컴퓨팅 인프라와 멀티 에이전트 백본이 있습니다.


1) 하이브리드 AI 시대 선언: “AI 민주화의 궁극적인 경로”

CES 2026, 레노버는 이번 키노트를 통해 하이브리드 AI(Hybrid AI)를 ‘AI 민주화를 위한 궁극적인 경로’로 제시했습니다. 핵심 문장은 사실상 이 한 줄로 정리됩니다.
AI의 힘은 사용자에게 속해야 하며, ‘모두를 위한 AI(AI built for all)’는 사용자 중심 기술 혁신과 함께 가야 한다.

여기서 말하는 하이브리드 AI는 단순히 “클라우드 + 온디바이스”의 조합이 아닙니다. 레노버가 그리는 그림은 다음과 같습니다.

  • 개인은 폰·PC·태블릿·웨어러블에 흩어진 데이터/지식을 하나로 묶어 개인화된 AI를 갖는다.
  • 기업은 퍼블릭 클라우드·프라이빗 클라우드·온프레미스·엣지를 엮어, 필요한 워크로드를 가장 적합한 위치에서 실행한다.
  • 그리고 이 모든 것을 에이전트(Agent) 기반으로 자동화해, AI가 ‘답변’에서 끝나지 않고 업무를 수행하도록 만든다.
CES 2026 레노버

2) NVIDIA 협력: Lenovo AI Cloud Gigafactory가 겨냥하는 것

레노버는 NVIDIA와 함께 Lenovo AI Cloud Gigafactory를 공식 출시하며, 하이브리드 AI 전략의 ‘인프라 레이어’를 전면에 내세웠습니다. 이미 작년 테크 월드에서 Lenovo Hybrid AI Advantage를 공개한 뒤, 분기별로 공동 혁신을 발표해 왔다는 흐름도 함께 강조됐습니다.

이번 Gigafactory가 노리는 포인트는 매우 실무적입니다. 바로 클라우드 환경에서 LLM을 서비스할 때 중요한 지표인 “첫 토큰까지 걸리는 시간(Time to First Token)”을 크게 줄이는 것. 사용자가 체감하는 응답 속도와 직결되는 영역이기 때문입니다.

키노트에서 제시된 그림은 스케일 자체가 다릅니다.

  • 수십만 개의 GPU를 활용해
  • 조(Trillion) 단위 매개변수를 가진 대규모 언어 모델(LLM)을 지원하는 인프라로 확장
  • 그리고 레노버는 이를 “컴퓨터”가 아니라 고객을 위한 AI 팩토리(AI Factory)로 빠르게 전환하는 것을 목표로 제시

여기서 엔비디아 CEO 젠슨 황이 언급한 포인트도 인상적입니다. 레노버가 전 세계 TOP500 슈퍼컴퓨터 중 3분의 1을 구축했다는 맥락을 통해, 단순 공급사가 아니라 “대규모 시스템 제조·설치 전문성”이 AI 팩토리 구축의 핵심 역량임을 강조한 것입니다.

또한 레노버는 이 시스템에 자연 액체 냉각(natural liquid cooling)을 적용하고, 인하우스 설계·제조·글로벌 서비스를 이 규모로 결합할 수 있는 유일한 회사라는 점을 강하게 부각했습니다. 결국 Gigafactory는 “AI를 더 크게 만들겠다”가 아니라, AI를 ‘빠르고 안정적으로’ 돌리는 공장으로 만들겠다는 선언에 가깝습니다.


3) 하이브리드 AI의 기술 백본: 에이전트 네이티브 미래를 여는 3요소

레노버 CTO 토가 코토골루(Toga Kotogulu)는 하이브리드 AI에서 가장 중요한 축으로 사용자의 의도를 진정으로 이해하는 지능형 에이전트를 짚었습니다. 그리고 미래의 AI는 ‘단일 모델’이 아니라, 슈퍼 에이전트가 워크플로우를 설계하고 작업별 에이전트 팀이 실행하는 멀티 에이전트 협업으로 흘러갈 것이라고 정리합니다.

레노버가 제시한 “에이전트 네이티브(agent-native) 미래”의 기술 백본은 다음 3가지입니다.

  1. 지능형 모델 오케스트레이션(Intelligent model orchestration)
  2. 에이전트 코어(Agent core)
  3. 멀티 에이전트 협업(Multi-agent collaboration)

이 구조가 의미하는 변화는 분명합니다. 사람이 모든 지식의 복잡성을 직접 처리하는 대신, 인간은 창조·탐색·연결 같은 ‘인간이 가장 잘하는 일’에 집중하고, 에이전트가 복잡한 실행과 조정을 맡는 방식으로 역할이 재배치됩니다.


4) 개인 AI 슈퍼 에이전트 Lenovo Kira: “내 모든 기기 위에서, 내 패턴을 학습하는 AI”

이번 발표에서 대중이 가장 직관적으로 이해할 수 있는 주인공은 단연 Lenovo Kira입니다. 레노버는 Kira를 “개인 AI 슈퍼 에이전트”라고 정의하며, 단순 챗봇이 아니라 여러 디바이스를 관통하고, 환경을 인지하며, 사용자의 패턴을 학습해 개인화된 경험을 제공하는 AI로 소개합니다.

왜 ‘개인 AI’가 필요한가

레노버의 문제 정의는 현실적입니다.
사진, 파일, 연락처, 아이디어, 경험 등 사용자의 삶 전체가 폰·PC·태블릿·스마트 워치/글래스 등으로 흩어져 있고, 운영체제와 앱 생태계도 제각각입니다. 기술이 진짜 ‘사용자 중심’이 되려면 이 파편화된 데이터/지식을 원활하게 통합해야 합니다.

그래서 목표는 하나입니다.
단기/장기 기억을 보유하고 사용자 패턴을 학습하는 하나의 슈퍼 에이전트로, 개인의 디지털 삶을 통합하는 것.

Kira의 작동 방식: Perception → Collaboration → Hub

Kira는 크게 세 단계로 설명됩니다.

  • 지각(Perception): 스마트 글래스, 스마트 링 같은 웨어러블과 회의실 카메라 등 감지 장치에서 출발합니다. 개인 AI는 사용자의 허가 하에 사용자가 보고 듣는 것을 인지합니다.
  • 협업(Collaboration): PC·태블릿·휴대폰 같은 휴대용 대화형 컴퓨팅 장치 전반에서 사용자의 계획, 창작, 소통을 돕고 학습하며 성장합니다.
  • 개인 AI 컴퓨팅 허브: 이 흐름은 레노버가 Project Qubit(프로젝트 큐비트)로 개척 중인 “Personal Computing Hub”라는 새로운 범주의 컴퓨팅으로 뒷받침됩니다. 개인 사용을 위한 고성능 확장형 AI 컴퓨팅을 제공하고, 시간이 지날수록 사용자의 인지 파트너(cognitive partner)로 진화한다는 설정입니다.

플랫폼을 넘는 Kira: Windows부터 Android까지

레노버는 Kira가 폰·PC·태블릿·웨어러블 등 AI가 필요한 모든 곳에서 작동하며, Windows부터 Android까지 플랫폼을 초월해 동작한다고 설명합니다. 또한 중국에서는 Tianxi라는 이름으로 불린다는 점도 함께 언급됩니다.

데모 시나리오(Angelina Gomez)로 본 Kira의 ‘실제 쓰임새’

키노트 데모는 Kira를 “설명”하지 않고 “사용 장면”으로 설득합니다.

  • 라스베이거스 스피어(Sphere)에서 스마트 글래스를 통해 주변 환경(16만 평방피트 스크린, 수천 명 청중)을 인지하고 설명하며,
  • 개인 생활(아이들 사진)과 업무(FIFA 브리핑 이메일, PC에서 만든 가족 영상)처럼 여러 기기에 흩어진 정보를 ‘정말 중요한 것’ 중심으로 요약해 주고,
  • 조카 선물 구매 같은 할 일을 파악해 라스베이거스 몰의 상점을 추천하고, 다음 날 오전 11시의 여유 시간을 찾아 캘린더 알림까지 추가하는 식으로 능동적 일정 관리를 수행합니다.
  • 문서 작업에서도 사용자가 작성 중이던 FIFA 문서를 찾아 최신 통계를 반영해 마지막 단락 업데이트를 제안하고, 사용자가 수락하면 문서를 포맷해 특정 수신자에게 이메일로 보내는 흐름까지 제시됩니다.
  • 더 나아가 웨어러블(개념 증명 형태의 AI 목걸이)을 통해 중요한 순간을 포착하고 자동 회의록을 작성하며, 과거 발언을 정확히 기억해 인용하는 장면으로 “장기 기억”을 강조합니다.
  • 사용자가 LinkedIn 게시물 초안을 요청하면, 글 작성은 물론 외부(엑소스피어 밖)에서 찍은 사진을 자동 저장해 게시물에 쓸 수 있도록 준비하는 등 멀티 디바이스 콘텐츠 통합을 보여줍니다.

결국 Kira의 캐릭터는 이렇게 요약됩니다.
Kira는 (1) 주변 환경을 예리하게 인식하는 지각 AI, (2) 선호를 기억하고 다음 필요를 예측하는 개인화 AI, (3) 여러 AI 에이전트를 조정해 통찰을 만드는 인지적 인간-기계 인터페이스이며, 시간이 갈수록 사용자와 닮아 개인 AI 트윈(personal AI twin)으로 진화한다는 비전입니다. 동시에 개인 정보 보호를 최우선으로 한다는 메시지도 반복됩니다.


5) Intel 협력: AI PC Aura Edition 확장과 “Kira 내장” 로드맵

레노버는 인텔과의 협력 축에서 AI PC Aura Edition을 전면에 배치합니다. 키노트에서는 두 회사가 30년 이상 협력해 왔고, 앞으로도 PC·데이터센터·클라우드 전반에서 AI 혁신을 “접근 가능하고 책임감 있으며 포괄적”으로 만들겠다는 방향성이 강조됩니다.

Aura Edition의 핵심은 단순 스펙이 아니라 지능형 PC 경험입니다. 레노버의 디자인 리더십과 인텔의 AI 성능을 결합해, 더 많은 폼팩터와 기능으로 포트폴리오를 확장한다고 설명합니다.

차세대 Aura Edition AI PC에서 제시된 사용자 경험은 ‘작은 마찰 제거’에 집중합니다.

  • 간단한 탭으로 폰 ↔ PC 간 비디오 파일 전송
  • 작업 모드 ↔ 게임 모드 빠른 전환
  • PC 관련 질문에 대한 실시간 서비스 지원

그리고 무엇보다 중요한 한 줄이 있습니다.
슈퍼 에이전트 Lenovo Kira가 곧 Aura Edition AI PC에 내장된다는 로드맵입니다. “더 스마트한 AI를 모두에게”라는 구호가 PC 제품 경험으로 연결되는 지점입니다.

게이밍 영역에서는 FIFA 브랜드를 적용한 게이밍 PC(예: Li Jing Pro 7i, FIFA 월드컵 26번째 에디션)를 언급하며, 장차 Kira가 게이머의 플레이 방식을 학습해 더 스마트한 플레이를 돕는 미래도 제시합니다.


6) 스마트 디바이스 포트폴리오: 레노버 IDG와 모토로라 전략

레노버 IDG 사장 루카 로시(Luca Rossi)는 ThinkPad X1·X9부터 Yoga 시리즈까지, Aura Edition이 프리미엄의 의미를 재정의한다고 설명합니다. 최신 프로세서 기반으로 더 스마트한 AI 가속과 효율성을 제공하고, Kira 탑재 시 개인화·지능이 강화되며 올데이 배터리·보안·스마트 모드 등 UX 전반을 끌어올린다는 메시지입니다.

모토로라는 프리미엄 시장에서의 경험을 전면에 내세웁니다. 특히 Razr Fold 제품군의 성과를 강조하고, Moto Pen의 강력한 신규 기능도 언급됩니다. 또한 (키노트 시연처럼) Razr Fold가 Kira와 함께 실행되어 모든 앱에서 더 직관적이고 연결된 경험을 제공하는 그림이 제시됩니다.

신규 플래그십: Motorola Signature

이번 주 출시로 소개된 Motorola Signature는 “레노버가 만든 가장 세련된 휴대폰”이라는 포지셔닝입니다.

  • 4개의 5,000만 화소 카메라를 탑재한 최초의 제품
  • Qualcomm Snapdragon 8 Gen 5 기반 초고속 성능
  • 곧 Motorola Kira를 통해 “최고의 온디바이스 AI” 제공
  • 별자리에서 영감을 받은 스와로브스키 크리스털 특별판도 예고

디자인 측면에서는 Pantone 파트너십, 지속 가능한 목재·알칸타라·비건 가죽·크리스털 등 소재 전략을 통해 “흑백의 세계에서 눈에 띄는 색상과 마감”을 제공한다는 내러티브가 이어집니다.

또 하나의 축은 마이크로소프트와의 협력입니다. Copilot을 모토로라 폰에 도입해 원활한 경험을 제공하고, PC-폰 간 문자 전송 같은 일상적 작업을 간편화하며, 모토로라 사용자가 Copilot 앱에 접근할 수 있도록 한다는 방향입니다.


7) 엔터프라이즈 AI: “다음 물결은 AI 추론” 그리고 하이브리드 인프라

개인용 AI가 Kira라면, 엔터프라이즈 영역의 키워드는 단연 AI 추론(Inferencing)입니다. 레노버는 AI 컴퓨팅의 흐름을 4개의 물결로 정리합니다.

  1. 전통적 컴퓨팅: 기업 디지털화
  2. 클라우드 컴퓨팅: 클라우드 서비스/앱 급증
  3. AI 컴퓨팅: LLM을 위한 대규모 CPU·GPU 클러스터(훈련+추론)
  4. AI 추론의 급증: 강력한 장치가 온프레미스·엣지·사용자 손안으로

핵심 논리는 명확합니다. 훈련(Training)은 주로 클라우드에 남지만, 추론은 데이터가 생성되는 곳에 더 가까워져야 합니다. 그래야 응답이 빨라지고, 비용과 보안·거버넌스 측면에서도 유리해집니다.

키노트에서 든 사례들도 모두 “현장성”을 강조합니다.

  • 공장 운영: 엣지 추론으로 실시간 유지보수 경고 → 시간/비용 절감
  • 체인점 운영: 재고가 낮을 때 즉각 알림 → 진열 보충·판매 증대
  • 온프레미스 추론: 기업 경쟁우위로 직결

이 흐름을 구현하는 기반이 하이브리드 컴퓨팅 인프라(퍼블릭·프라이빗·온프레미스·엣지)이며, 레노버 Hybrid AI Advantage가 이 위에서 작동한다는 구조입니다.


8) Lenovo Hybrid AI Advantage + AMD 협력: ThinkSystem SR675i와 Helios

레노버는 Hybrid AI Advantage의 ‘작동 방식’을 꽤 구체적으로 설명합니다.

  • 견고한 하이브리드 인프라 위에서 엔터프라이즈 데이터/지식과 함께 작동하며
  • 적절한 AI 모델을 적절한 작업에 매칭할 수 있게 한다
    • 예: 불량품 감지 같은 쉬운 작업은 경량 모델
    • 생산 일정 계획·수요 예측 같은 복잡 문제는 고급 모델
  • 여러 도메인 에이전트를 조정해 정보 접근·추출·계획 생성·조치 수행까지 연결한다
  • 결국 하이브리드 인프라+데이터+모델+에이전트 플랫폼을 통합해 AI 팩토리를 만들고, 가치사슬 전반을 위한 AI 솔루션 라이브러리를 구축한다

여기서 AMD 협력이 실체를 갖습니다. AMD CEO 리사 수(Lisa Su)는 기업들이 AI를 데이터에 더 가깝게 가져오는 방법을 모색하고 있다고 언급하며, 레노버는 AMD EPYC 기반 최신 AI 추론 서버를 소개합니다. 키노트에서 직접 언급된 제품이 ThinkSystem SR675i입니다.

SR675i는 온프레미스 AI 추론으로 실시간 통찰, 더 빠른 의사결정, 중요한 데이터의 안전한 보호를 목표로 하며, 향후 AMD Instinct 가속기 지원 유연성도 강조됩니다.

그리고 “단일 서버를 넘어”를 상징하는 키워드가 Helios 랙 스케일 AI 아키텍처입니다. 추론 수요가 가속화되면서 고객이 더 큰 모델·더 높은 처리량을 원하고, 따라서 랙 스케일 인프라가 중요해진다는 논리입니다.

Helios는 (키노트 설명 기준) 다음을 결합한 청사진으로 제시됩니다.

  • AMD EPYC CPU
  • Instinct GPU
  • Pensando 네트워킹
  • Rackham 개방형 소프트웨어 스택
  • 중심 가속기: 차세대 Instinct MI455X

이로써 고객은 SR675i 기반의 온프레미스 워크로드부터, 랙 AI 시스템의 훈련/분산 추론까지 명확한 경로를 갖게 된다는 메시지로 연결됩니다.


9) AI 추론 최적화 인프라 포트폴리오: “The Beast / Sweet Spot / Anywhere”

인프라 파트에서는 “AI는 엔진 없는 F1 자동차와 같다”는 비유로, 하이브리드 인프라의 중요성을 못 박습니다. 또한 전 세계 상위 10개 클라우드 서비스 제공업체 중 8곳이 레노버를 신뢰한다는 점, 그리고 넵튠(Neptune) 액체 냉각이 에너지 사용량을 40% 절감하고 성능과 지속 가능성에 기여한다는 메시지가 함께 제시됩니다(키노트 언급 기준).

그리고 추론 최적화 포트폴리오가 3개 축으로 정리됩니다.

SR675i: The Beast

높은 토큰 처리량, 낮은 지연 시간의 AI 추론에 최적화된 포트폴리오 중 하나로 소개되며, 넵튠 액체 냉각·높은 GPU 밀도·대규모 메모리로 “전체 LLM을 어디서든 실행”하는 그림을 제시합니다.
헬스케어 사례로는 MRI 스캐너에서 생성되는 대용량(예: 30GB) 영상 데이터를 생성된 곳에서 추론 분석해 진단을 지원하고 환자 기록과 연결해 효율·비용·프라이버시를 동시에 잡는 시나리오가 언급됩니다.

SR650i: The Sweet Spot Server

대부분의 추론 워크로드에 적합한 서버로, 이미 5개의 AI 추론 세계 기록을 보유했다는 설명이 붙습니다.
금융 서비스에서는 사기 탐지가 반응형에서 실시간 보호로 전환되고, 모든 거래/로그인/결제가 밀리초 단위로 분석되어 에이전트 기반 대응을 제공하는 장면이 제시됩니다.

SE455i: The Anywhere Server

데이터 생성과 즉시 의사결정이 필요한 엣지 환경에 AI를 제공하는 서버로, 까다로운 환경에서도 컴퓨터 비전 같은 원시 입력을 자동화 워크플로우로 전환한다고 설명합니다.
소매업 사례에서는 실시간 비디오와 구매 데이터를 분석해 재고를 예측하고 보충 인력 스케줄링까지 연결하는 형태로 “클라우드 지연 없이” 즉시 인텔리전스를 제공하는 흐름이 강조됩니다.

이 모든 운영을 서비스 레이어에서 받쳐주는 것이 Lenovo TruScale Infrastructure as a Service와 “하이브리드 AI 팩토리 서비스”입니다. 즉, 기업이 추론 워크로드를 어디서든 배포하고 관리하도록 돕겠다는 구조입니다.


10) Sphere 사례: Big Sky 카메라 시스템과 ‘픽셀 인 → 픽셀 아웃’ 파이프라인

이번 키노트가 흥미로운 이유는, 레노버가 단순히 “AI를 잘합니다”가 아니라 AI/컴퓨팅 인프라가 어떤 산업 경험을 가능하게 하는지까지 구체 사례로 보여준다는 점입니다. Sphere와의 협력은 그 대표격입니다.

Sphere 측은 “기술이 창의성과 만나는 곳”이며 관객이 콘텐츠를 ‘보는’ 수준을 넘어 시각·소리·냄새·느낌·감정까지 몰입하는 경험적 매체라고 설명합니다. 문제는, 그 스케일과 품질을 만족하는 촬영/제작 시스템이 기존에는 없었다는 것. 그래서 Sphere는 독자적인 카메라 시스템 Big Sky를 설계·구축했다고 소개됩니다.

Big Sky의 핵심은 “데이터 폭발”입니다.

  • 최초의 18K 센서 포함
  • 4K의 40배, HD 프레임 대비 70배 이상 큰 프레임
  • 초당 30GB의 원시 데이터 생성
  • 특허 5개 발급, 10개 출원 중(키노트 언급 기준)

이 전례 없는 데이터 볼륨을 풀 컬러 이미지로 변환하고, 그레이딩·합성·렌더링을 처리하는 역할을 레노버 워크스테이션과 인프라가 수행한다는 설명으로 연결됩니다. 또한 Big Sky는 카메라만이 아니라 렌즈, 기록 매체, 맞춤형 액세서리, 그리고 픽셀 인(pixel in)부터 픽셀 아웃(pixel out)까지의 엔드 투 엔드 파이프라인 전체 생태계로 제시됩니다.


11) Lenovo AI 서비스·AI 라이브러리: “기술만으로는 충분하지 않다”

엔터프라이즈 고객이 AI를 도입할 때 마주하는 현실적 장벽은 늘 비슷합니다. ROI, 인력, 데이터 거버넌스. 레노버는 이 지점을 정면으로 언급하며 Lenovo AI 서비스를 통해 도입 계획 수립 → 솔루션 배포 → 장기 운영까지 지원한다고 설명합니다. 필요에 따라 유연하게 확장/축소할 수 있는 Lenovo TruScale도 함께 묶입니다.

또 하나의 축은 Lenovo AI 라이브러리입니다. 키노트에서는 “업계에서 유례없는 수준”이며, 고객 비즈니스에 맞게 조정할 준비가 된 수백 가지 검증 솔루션을 포함한다고 소개됩니다. 그리고 라이브러리에서 시작하면 위험을 줄이고 90일 이내 가치 확보가 가능하다는 메시지가 붙습니다(키노트 언급 기준).

소개된 솔루션 사례는 다음과 같습니다.

  • XIQ Workplace: IT 리소스 관리와 직원 생산성/만족도의 균형, 환경 모니터링으로 장애를 사전 해결
  • i-Drawing(제조): 부품을 적시에 적소로 이동시키는 지휘자 역할, 악천후/공급 부족에도 프로세스 지속
  • iChain(공급망): 전 세계 180개+ 시장 배송에서 최적 경로를 지속적으로 탐색

12) FIFA 협력: Football AI Pro로 ‘데이터 접근성의 민주화’

레노버는 FIFA와의 협력을 단순 스폰서십이 아니라, 엔터프라이즈 지식 지원 시스템으로 구체화합니다. FIFA는 매년 수백 경기, 수천 선수, 수백만 데이터 포인트를 보유한 “세계에서 가장 데이터가 풍부한 조직 중 하나”로 소개되며, 레노버는 맞춤형 솔루션 Football AI Pro를 함께 만들었다고 설명합니다.

Football AI Pro는 AI 에이전트 팀을 지휘해 FIFA의 방대한 데이터를 검색하고 몇 초 만에 필요한 정보를 제공하는 구조로 제시됩니다.

  • 코치: 상대 전술 고려
  • 선수: 개인화된 경기 분석
  • 분석가: 비디오 클립·3D 중재로 팀 패턴 비교
  • 다국어 이해: 2026년 월드컵 참가 48개 팀 모두와 상호작용 가능

FIFA 회장 지아니 인판티노(Gianni Infantino)는 레노버가 글로벌 기술 파트너로서 완전한 IT 솔루션을 제공한다고 확인하며, 심판이 지연 없이 오프사이드 판정을 내리도록 돕는 인프라 지원도 언급됩니다.

팬 경험 혁신도 흥미롭습니다.

  • Football AI Pro를 팬에게도 제공 예정
  • 심판 시점 영상에 AI 안정화 적용 → “마치 경기장 중앙” 같은 시청 경험
  • AI 지원 3D 선수 아바타(정밀 식별/추적) → 반자동 오프사이드 기술에 이점
  • 궁극적으로 AI를 통해 더 포용적이고 접근 가능한 축구를 만들겠다는 방향

13) FIFA 월드컵 26 에디션 모토로라 Razr

레노버는 FIFA 월드컵 26 에디션 ‘FIFA Motorola Razr’도 출시한다고 밝힙니다. 또한 다음 달(문맥상 2026년 2월로 추정)에 FIFA의 또 다른 글로벌 네트워킹 파트너인 Verizon을 통해 판매될 예정이라고 언급하며, 글로벌 파트너십이 실제 제품/유통으로 연결되는 장면을 보여줍니다.


14) 최종 요약: “Smarter AI for All”이 제품·인프라·산업 사례로 연결됐다

키노트 말미에는 Kira에게 요약을 요청하는 장면이 등장하며,

  • 레노버는 Lenovo Kira, Aura Edition AI PC, AI Cloud Gigafactory, AI 추론 서버까지 하이브리드 AI를 모두에게 제공한다.
  • Hybrid AI Advantage를 통해 F1, FIFA 월드컵 같은 글로벌 조직을 위한 실시간 솔루션을 구현하며, “모두를 위한 더 스마트한 AI”를 실현한다.

마무리로는 게스트 연사를 다시 무대로 초대해 ‘모두를 위한 더 스마트한 AI’를 함께 만들자고 메시지로 마무리됩니다. 물론 스피어라는 공간을 이렇게밖에 활용하지 못했나는 의견들이 많았던 것처럼 무대 연출에서는 아쉬움이 많이 남는 것도 사실입니다. 다만, 그들이 전달하고자 하였던 메시지에서는 꽤나 흥미로운 지점들이 많이 있었던 것이 사실입니다.

AX 100배의 법칙
AX 100배의 법칙
– 나와 조직의 능력을 100배 높이는 AI 경영의 실제

도서 구매

함께 읽으면 좋은 글:

디지털 트랜스포메이션: 조직의 습관을 바꾸는 일, 도서 구매

. .