젠슨 황의 CES 2026 엔비디아 키노트는 “신제품 발표”가 아니라, AI 시대에 컴퓨터 산업이 어떻게 다시 설계되어야 하는지를 스택 전체 관점에서 설명한 일종의 선언문에 가깝습니다. 메시지는 단순합니다. 이제 AI는 앱 위에 얹는 기능이 아니라, 소프트웨어를 만들고 실행하는 방식 자체를 바꾸는 플랫폼 전환이며, 그 결과 컴퓨팅 산업의 5계층 스택 전체가 재발명되고 있다는 것입니다.
목차
- CES 2026 엔비디아 키노트, 한눈에 보는 핵심 요약
- 1) 두 개의 플랫폼 전환: 5계층 스택 전체가 다시 짜이고 있다
- 2) 2025년의 교훈: 스케일링 법칙과 ‘추론(Reasoning)’의 시대
- 3) 오픈 모델의 폭발적 성장과 엔비디아의 기여: 모델만이 아니라 ‘데이터’도 연다
- 4) Agentic AI(에이전틱 AI): “환각”을 줄이는 길은 ‘조사·도구·계획’이다
- 5) 엔터프라이즈의 미래: 엑셀과 명령어가 사라지는 UI 전환
- 6) Physical AI의 본질: 상식을 ‘학습’시키는 월드 파운데이션 모델 Cosmos
- 7) 사고하고 설명하는 자율주행 ‘AlphaMayo’: 벤츠와 함께 여는 레벨4 로드맵
- 8) 로보틱스와 산업의 융합: 로봇은 ‘컴퓨터 안에서’ 설계되고, 공장은 ‘거대한 로봇’이 된다
- 9) 차세대 슈퍼칩 ‘Vera Rubin’: 무어의 법칙 이후를 위한 Extreme Co‑design
- 10) 인프라 혁신: 100% 수냉식 랙, AI 전용 이더넷(Spectrum‑X), NVLink 6세대
- 11) 메모리 병목 해소: KV 캐시, 랙 내부 초고속 스토리지, BlueField‑4
- 12) 압도적 성능과 비용: 무어의 법칙을 넘어선 ‘경제성’이 핵심이다
- 13) 내 비즈니스에 적용하는 실전 체크포인트
CES 2026 엔비디아 키노트, 한눈에 보는 핵심 요약
- 지금은 두 개의 플랫폼 전환이 동시에 진행 중입니다: (1) AI 기반 앱 시대, (2) 소프트웨어 개발/실행 방식의 근본 변화
- AI는 학습 + 추론(Reasoning) 단계로 진입했고, “테스트 타임 스케일링(Test-time Scaling)”으로 컴퓨팅 수요가 폭발합니다.
- 미래 AI 앱의 기본 골격은 에이전틱 AI + 멀티모델(라우팅) + 멀티클라우드/하이브리드입니다. 엔비디아는 이를 Blueprint로 제시합니다.
- Physical AI를 위해서는 **세 종류의 컴퓨터(학습·추론·시뮬레이션)**와 디지털 트윈/합성 데이터가 필수이며, 월드 파운데이션 모델 Cosmos가 중심입니다.
- 자율주행 AlphaMayo는 “엔드투엔드 학습 + 추론 + 설명 가능성”을 내세우며, 벤츠와 풀스택으로 레벨4 시대를 예고합니다(2026년 지역별 출시 로드맵 포함).
- 차세대 슈퍼칩 Vera Rubin은 무어의 법칙 둔화를 “극한의 공동 설계(Extreme Co-design)”로 돌파합니다: 칩 6종을 하나처럼 움직이는 시스템 설계, 100% 수냉식 랙, AI 전용 이더넷(Spectrum‑X), BlueField‑4 기반 메모리 병목 해소가 핵심입니다.
- 결과적으로 토큰 비용은 10분의 1, 팩토리 처리량은 10배, 대형 모델 학습 속도는 “프론티어 도달 시간”을 결정하는 경쟁우위로 강조됩니다.
1) 두 개의 플랫폼 전환: 5계층 스택 전체가 다시 짜이고 있다
젠슨 황은 컴퓨터 산업이 10~15년 주기로 플랫폼 전환을 겪어왔다고 전제합니다. 메인프레임 → PC → 인터넷 → 클라우드 → 모바일. 매번 “새로운 플랫폼”이 등장할 때마다, “새로운 앱”이 그 위에 다시 만들어졌습니다.
그런데 지금은 전환이 하나가 아니라 두 개가 동시에 일어나고 있다는 설명입니다.
- AI 시대로의 전환: 앞으로의 애플리케이션은 AI를 기반으로 구축된다.
- 개발·실행 방식의 전환: 소프트웨어를 만들고 실행하는 방식 자체가 바뀌며, 컴퓨터 산업의 5계층 스택 전체가 재발명된다.
여기서 그는 아주 공격적인 관점을 던집니다. 소프트웨어 개발은 “코딩”에서 “학습”으로 전환되었고, 소프트웨어는 CPU가 아니라 GPU에서 실행되며, 미리 컴파일된 정적 결과물이 아니라 문맥을 이해해 매번 새롭게 생성되는 방향으로 가고 있다는 것입니다.
또 하나의 큰 배경은 시장 규모입니다. 지난 10년간 구축된 약 10조 달러 규모의 컴퓨팅 인프라가 AI 방식으로 현대화되고, 100조 달러 규모의 산업이 R&D 예산을 AI로 이동하는 흐름이 만들어지고 있다는 언급은, 이번 전환이 “일시적 트렌드”가 아니라 자본과 산업 구조의 이동이라는 점을 강조합니다.

2) 2025년의 교훈: 스케일링 법칙과 ‘추론(Reasoning)’의 시대
AI 발전의 핵심으로 그는 다시 스케일링 법칙(Scaling Laws)을 꺼냅니다. BERT(2015), 트랜스포머(2017), 그리고 2022년의 “ChatGPT 모멘트”를 거쳐, 2023년에는 추론 모델의 등장으로 혁명이 시작됐다고 설명합니다.
여기서 중요한 전환점이 “테스트 타임 스케일링(Test-time Scaling)”입니다. 모델을 단순히 사전 학습시키는 것을 넘어, 강화학습 기반의 사후 훈련으로 기술을 숙달하게 하고, 실제 사용 시점에 “실시간으로 사고하는(Thinking)” 단계로 넘어갔다는 진단입니다.
그리고 2024년부터 확산되기 시작한 것이 에이전틱 시스템(Agentic Systems)입니다. 이 시스템은 단순 답변이 아니라,
- 추론(Reasoning)
- 정보 탐색(Search)
- 도구 사용(Tools)
- 미래 계획(Planning)
- 결과 시뮬레이션(Simulation)
을 결합해 중요한 난제를 해결하는 형태로 진화합니다.
그는 “정보의 형태”가 LLM에만 국한되지 않는다고 강조하며, 특히 Physical AI를 가장 큰 분야 중 하나로 지목합니다. 물리적 AI는 “세상과 상호작용하는 AI”, 그리고 AI 물리학은 “물리 법칙 자체를 이해하는 AI”라는 구분까지 제시합니다.
3) 오픈 모델의 폭발적 성장과 엔비디아의 기여: 모델만이 아니라 ‘데이터’도 연다
젠슨 황은 오픈 모델(Open Models)의 발전이 AI를 모든 곳으로 확산시키고 있다고 말합니다. 2023년은 오픈 모델이 도약한 해였고, 딥시크(DeepSeek)의 추론 시스템 R1이 이 흐름을 촉발시켰다는 맥락이 포함됩니다. 오픈 모델은 프론티어 모델 대비 약 6개월 뒤처지지만, 빠르게 발전하며 다운로드가 폭발한다는 설명입니다.
여기서 엔비디아의 포지셔닝은 명확합니다. 엔비디아는 DGX 클라우드를 운영하며 오픈 모델을 개발하고, 다양한 도메인에서 프론티어 수준의 모델까지 연구한다. 그리고 중요한 차별점으로 모델뿐 아니라 학습 데이터까지 오픈소스로 공개한다는 메시지를 강조합니다.
연설에서 언급된 주요 모델 라인업은 다음과 같습니다.
- 디지털 생물학: La Proteina(단백질 합성), OpenFold3(구조 이해), Evo2(이해·생성)
- 물리 법칙/기상: Earth‑2, ForecastNet, CorDiff
- LLM: Nemotron(하이브리드 트랜스포머 SSM), Nemotron‑3
- 월드 파운데이션 모델: Cosmos(세상이 작동하는 방식 이해)
- 로보틱스: Groot(휴머노이드), AlphaMayo(자율주행 자동차)
또한 NeMo 라이브러리를 통해 데이터 처리→학습→생성→평가→배포까지 AI 수명 주기 전체를 지원하는 오픈소스 제품군을 제공한다고 설명합니다.
이 파트에서 반복되는 핵심 문장은 사실상 이것입니다. 모든 기업·산업·국가가 AI 혁명에 참여할 수 있도록, 엔비디아는 ‘완전히 개방적인 방식’으로 플랫폼을 구축한다.

4) Agentic AI(에이전틱 AI): “환각”을 줄이는 길은 ‘조사·도구·계획’이다
젠슨 황은 AI의 환각(hallucination)이 발생하는 이유를 “현재와 미래를 알지 못하기 때문”이라고 규정합니다. 따라서 답변을 생성하기 전에 AI에게 필요한 것은,
- 조사(Research)
- 도구 사용(Tool use)
- 문제를 단계별로 분해(Decomposition)
- 검색과 계획(Search & Planning)
같은 추론 기반 프로세스이며, 이 능력이 결합될 때 “학습되지 않은 일도 수행하는 절차”를 설계할 수 있다고 말합니다. 또한 그는 미래의 AI가 반드시 멀티모달이자 멀티모델이어야 한다고 강조합니다.
- 멀티모달: 음성, 이미지, 텍스트, 비디오, 3D 그래픽, 단백질 구조까지 이해
- 멀티모델: 작업에 가장 적합한 “전 세계의 뛰어난 모델”을 선택해 활용
그리고 AI는 필연적으로 멀티클라우드/하이브리드 환경에 존재해야 합니다. 모델은 서로 다른 장소(엣지, 무선 기지국, 기업 내부, 병원 등)에 있고, 데이터는 실시간 처리가 필요한 곳에서 처리되어야 하기 때문입니다.
이 구조를 가능하게 하는 핵심 구성요소가 바로 스마트 라우터입니다. 프롬프트 의도를 파악해 “가장 적합한 모델”을 결정하는 관리자 역할을 수행하며, 이를 통해 다음 두 가지를 동시에 만족시키는 아키텍처가 완성됩니다.
- 완벽히 커스터마이징 가능한 AI(고유 기술·영업비밀 학습)
- 항상 최전선(frontier)에 있는 AI(최신 기술 즉시 활용)
엔비디아는 이 프레임워크를 Blueprint라고 부릅니다. 데모에서는 DGX Spark를 개인 클라우드로 전환하고, 로컬 오픈 모델(예: 이메일 관리)과 프론티어 모델(다른 고난도 작업)을 의도 기반 모델 라우터로 연결해 개인 비서를 구축하는 과정을 보여주었다고 정리됩니다.
5) 엔터프라이즈의 미래: 엑셀과 명령어가 사라지는 UI 전환
젠슨 황은 에이전틱 AI 프레임워크가 이미 주요 엔터프라이즈 플랫폼 기업들과 통합되고 있다고 말합니다.
- Palantir: AI 및 데이터 처리 플랫폼 통합/가속
- ServiceNow: 고객·직원 서비스 플랫폼
- Snowflake: 클라우드 데이터 플랫폼
- NetApp: 시맨틱 AI 및 에이전틱 시스템 기반 고객 서비스
그리고 결론을 이렇게 내립니다. 미래 플랫폼의 UI는 엑셀 시트나 명령어 입력이 아니라, 에이전틱 시스템 자체가 될 것이다. 사람과 대화하듯 멀티모달 정보 처리를 수행하는 “단순한 상호작용”이 인터페이스의 표준이 된다는 주장입니다.
6) Physical AI의 본질: 상식을 ‘학습’시키는 월드 파운데이션 모델 Cosmos
물리적 AI에서 가장 어려운 과제는, AI가 물리 세계의 “상식”을 이해하도록 만드는 것입니다.
대상 영속성, 인과관계, 마찰, 중력, 관성 같은 “세상이 돌아가는 이치”를 배워야 한다는 설명이 이어집니다.
이를 위해 엔비디아는 물리적 AI 시스템 구축에 세 종류의 컴퓨터가 필요하다고 정리합니다.
- 학습용 컴퓨터: 모델 학습(엔비디아가 구축)
- 런타임 추론용 컴퓨터: 자동차·로봇·엣지에서 실행되는 로보틱스 컴퓨터
- 시뮬레이션용 컴퓨터: 행동 결과 평가 및 시뮬레이션
이때 시뮬레이션의 중심 플랫폼이 Omniverse(디지털 트윈이자 물리 기반 시뮬레이션 세계)이며, 월드 파운데이션 모델이 Cosmos입니다. Cosmos는 “언어가 아닌 물리 세계를 위한” 월드 모델로 소개됩니다.
여기서 데이터 문제가 등장합니다. 현실 데이터는 부족하기 때문에, 물리 기반 시뮬레이션을 활용한 합성 데이터 생성(Synthetic Data Generation)이 혁신의 핵심이 됩니다.
Cosmos는 교통 시뮬레이터 출력값을 입력받아 물리적으로 타당한 고품질 서라운드 비디오를 생성하며, 인터넷 규모의 비디오·실제 주행/로보틱스 데이터·3D 시뮬레이션을 통해 사전 학습되었다고 설명됩니다. 또한 언어·이미지·3D·행동(Action)을 통합적으로 이해하고, 단일 이미지로부터 생성/추론/궤적 예측까지 수행할 수 있다고 제시됩니다.
핵심은 개발자가 Cosmos 내에서 폐쇄 루프(closed‑loop) 시뮬레이션을 실행하며, AI가 롱테일(long‑tail) 예외 상황을 학습하도록 돕는다는 점입니다.
7) 사고하고 설명하는 자율주행 ‘AlphaMayo’: 벤츠와 함께 여는 레벨4 로드맵
AlphaMayo는 “세계 최초의 사고하고 추론하는 자율주행 AI”로 소개됩니다. 카메라 입력부터 실제 구동 출력까지 엔드투엔드(end‑to‑end)로 학습되었고, 학습 데이터는
- 실제 주행 데이터
- 인간 운전 시연 데이터
- Cosmos가 생성한 방대한 주행 데이터
의 조합이라고 정리됩니다.
AlphaMayo의 차별점으로 연설에서 강조된 포인트는 다음입니다.
- 단순히 조작(control)하는 것을 넘어 행동을 추론하고
- 결정 이유를 설명하며
- 이동 경로를 제시한다
- 인간 시연 기반 학습으로 운전이 매우 자연스럽다
- 복잡한 롱테일 상황을 “평범한 작은 시나리오들”로 분해해 추론·해결한다
또한 자율주행 AI는 5계층 스택으로 구성된다고 설명합니다.
- (하단) 자동차
- 칩(GPU·네트워킹·CPU)
- 인프라(Omniverse, Cosmos)
- 모델(AlphaMayo)
- (상단) 애플리케이션(메르세데스‑벤츠)
엔비디아는 AlphaMayo를 오픈소스로 공개하며 벤츠와 풀스택 프로젝트를 진행했다고 언급합니다.
출시 로드맵도 구체적으로 제시됩니다. 엔비디아 기술이 탑재된 첫 자율주행차는 2026년 1분기 미국, 2분기 유럽, 3~4분기 아시아 출시 예정이라는 일정이 포함됩니다.
안전성 전략은 “이중 스택”입니다.
- 엔드투엔드로 학습된 AlphaMayo 스택
- 안전 가드레일 역할의 클래식 AV 스택
안전 정책 평가자가 AlphaMayo에 확신이 없다고 판단하면, 더 단순하고 확실한 클래식 스택으로 전환하는 구조입니다. 그는 자율주행이 “최초의 대규모 주류 물리적 AI 시장”이 될 것이며, 향후 10년 내 비자율주행에서 자율주행으로의 변곡점이 온다고 확신합니다.
8) 로보틱스와 산업의 융합: 로봇은 ‘컴퓨터 안에서’ 설계되고, 공장은 ‘거대한 로봇’이 된다
자율주행에 쓰인 기본 기술(세 대의 컴퓨터, 합성 데이터, 시뮬레이션)은 모든 로봇 시스템에 적용된다고 정리됩니다. 엔비디아의 로봇 시뮬레이터는 Isaac, 로봇 학습 공간은 Omniverse입니다.
흥미로운 부분은 “AI 물리학이 엔비디아를 있게 한 산업(설계·생산 산업)을 다시 혁신한다”는 주장입니다.
- Cadence는 CUDA‑X를 시뮬레이션과 솔버에 통합
- Synopsys·Cadence는 칩 설계를 넘어 시스템 설계·시뮬레이션 영역으로 확장
- 미래에는 칩과 시스템 전체가 해당 환경에서 설계·에뮬레이션·시뮬레이션될 것
- 엔비디아는 Siemens와 협력해 CUDA‑X 물리적 AI, 에이전틱 AI, NeMo, Nemotron을 지멘스 세계에 통합
이 흐름의 종착점은 “에이전틱 칩 설계자”와 “에이전틱 시스템 설계자”가 설계를 돕고, 로봇은 컴퓨터 안에서 설계되며, 로봇을 생산할 플랜트/공장 자체가 본질적으로 거대한 로봇이 되는 미래입니다.
9) 차세대 슈퍼칩 ‘Vera Rubin’: 무어의 법칙 이후를 위한 Extreme Co‑design
젠슨 황은 컴퓨팅 수요 폭발을 아주 직설적으로 수치화합니다.
- 모델 규모는 매년 10배씩 커지고
- 추론이 “사고”가 되면서 강화학습을 위한 컴퓨팅이 기하급수적으로 증가
- 테스트 타임 스케일링으로 생성되는 토큰 수는 매년 5배 증가
- 경쟁 심화로 토큰 비용은 매년 약 10배 감소 압력
따라서 엔비디아는 “매년 컴퓨팅 최첨단을 발전”시키기로 결정했고, 그 결과물이 차세대 슈퍼칩(정확히는 슈퍼칩+시스템) Vera Rubin입니다. 이름은 암흑 물질을 발견한 천문학자 베라 루빈에서 따왔다는 설명이 포함됩니다.
핵심 개념은 극한의 공동 설계(Extreme Co‑design)입니다. Vera Rubin은 단일 칩이 아니라 6개의 칩이 하나처럼 작동하도록 엔지니어링된 시스템입니다.
- Vera CPU: 맞춤형 설계 CPU, 이전 세대 대비 2배 성능(전력 제약 환경에서도 와트당 2배)
- 88개 물리 코어
- 공간 멀티스레딩으로 176 스레드가 온전한 성능 발휘
- Rubin GPU: Vera와 양방향 일관 데이터 공유하도록 공동 설계
- 부동소수점 연산 성능이 Blackwell의 5배
- 트랜지스터 수 증가는 1.6배에 그침
- 성능 도약의 핵심 기술: NVFP4 텐서 코어(정밀도·구조를 하드웨어에서 동적으로/적응형으로 조정)
또한 Vera Rubin 컴퓨트 보드는 이전 세대의 5배인 100 페타플롭스 AI 성능을 제공한다고 정리됩니다.
10) 인프라 혁신: 100% 수냉식 랙, AI 전용 이더넷(Spectrum‑X), NVLink 6세대
Vera Rubin은 칩 혁신만으로 완성되지 않습니다. 인프라도 함께 “극한의 공동 설계”로 재설계됩니다.
DGX 섀시의 재설계
- 케이블: 43개 → 0개
- 튜브: 6개 → 2개
- 조립 시간: 2시간 → 5분
- 냉각: 80% 액체 냉각 → 100% 액체 냉각
AI 전용 이더넷: Spectrum‑X
AI 트래픽은 동서(East‑West) 트래픽이 매우 집약적이고 극도로 낮은 지연시간을 요구합니다. 그래서 엔비디아는 AI 전용 이더넷인 Spectrum‑X를 제시합니다.
또한 “데이터센터 경제성” 관점의 예시가 나옵니다. 기가와트급(약 500억 달러 규모) 데이터 센터에서 네트워킹 효율을 10%만 높여도 50억 달러 가치가 있는데, Spectrum‑X가 처리량을 25%까지 높여준다는 논리입니다.
NVLink 6세대 스위치와 스케일업
- 18개의 컴퓨트 노드를 연결해 72개의 Rubin GPU가 하나처럼 작동하도록 확장
- 스위치 처리 성능: 초당 400Gbps급 처리, 모든 GPU가 동시에 모든 GPU와 통신
- 랙 백플레인의 처리량: 초당 240TB(전 세계 인터넷 트래픽 약 100TB/s의 2배 이상이라는 비유 포함)
45℃ 냉각수: ‘칠러 없는’ 효율성
Vera Rubin 랙은 전력 소모가 이전 세대 대비 두 배이지만, 유입 냉각수 온도는 45℃로 동일하다고 정리됩니다. 45℃ 냉각수는 별도의 냉각기(chiller)가 필요 없어 효율적이며, 에너지 최적화의 핵심 포인트로 강조됩니다.
또한 TSMC와 공동 혁신한 CoWoS 공정으로 실리콘 포토닉스가 칩에 직접 통합되어, 200Gbps 속도의 512포트를 지원하는 Spectrum‑X 이더넷 AI 스위치가 가능해졌다는 설명도 포함됩니다.
11) 메모리 병목 해소: KV 캐시, 랙 내부 초고속 스토리지, BlueField‑4
젠슨 황은 추론 시대의 새로운 병목을 컨텍스트 메모리(KV 캐시)로 규정합니다.
- 토큰을 생성할 때마다 GPU는 모델 전체와 KV 캐시 전체를 읽고, 생성 토큰을 다시 KV 캐시에 저장
- 대화가 길어지고 모델이 커질수록 컨텍스트 메모리가 폭증
- HBM이나 고속 컨텍스트 메모리만으로 감당이 어려워짐
- 외부 스토리지로 나가면 네트워크가 느려져 병목이 심해짐
그래서 등장하는 해법이 BlueField‑4입니다.
BlueField‑4를 통해 랙 내부에 매우 빠른 KV 캐시 컨텍스트 메모리 저장소를 두어, 대규모 토큰 생성을 수행하는 AI 연구소/클라우드 사업자의 네트워크 트래픽 고충을 해결하는 혁명적 아이디어라고 설명합니다.
연설에서 제시된 구조는 다음과 같습니다.
- GPU당 추가 16TB 메모리 확보
- 각 컴퓨트 노드 뒤에 BlueField 4개 장착
- 각 BlueField 뒤에 50TB 컨텍스트 메모리 저장
- GPU는 동서 트래픽과 동일한 200Gbps 속도로 추가 메모리에 접근
여기에 보안·운영 안정성 요소가 더해집니다.
- 기밀 컴퓨팅(Confidential Computing): 전송/저장/연산 중 데이터 암호화, PCIe·NVLink 버스 통신 암호화로 모델 노출 방지
- 전력 평활화(Power Smoothing): 올 리듀스(all‑reduce) 단계에서 최대 25% 치솟는 순간 전력 급증을 평활화해 과도한 전력 프로비저닝/낭비 없이 전력 예산을 꽉 채워 쓰게 함
12) 압도적 성능과 비용: 무어의 법칙을 넘어선 ‘경제성’이 핵심이다
젠슨 황은 성능 자체보다 경제성을 더 날카롭게 강조합니다. AI는 “더 빨리 학습할수록 다음 프론티어에 더 빨리 도달”하고, 그 속도가 기술 리더십과 가격 경쟁력으로 이어지기 때문입니다.
연설에서 제시된 핵심 수치들은 다음과 같습니다.
- 10조(Trillion) 파라미터 모델 학습: Rubin 시스템은 Blackwell 시스템의 4분의 1만 있어도 1개월 내 학습 가능
- 팩토리 처리량(Factory Throughput): Rubin은 Blackwell 대비 약 10배
- 토큰 생성 비용: Rubin은 Blackwell 대비 약 10분의 1
정리하면 엔비디아는 칩→인프라→모델→애플리케이션에 이르는 AI 풀스택(Full Stack)을 구축하고 있으며, 임무는 “전 세계가 놀라운 애플리케이션을 만들 수 있도록 이 전체 스택을 제공하는 것”이라고 마무리합니다.
13) 내 비즈니스에 적용하는 실전 체크포인트
이번 키노트에서 실무자가 가져갈 인사이트는 “기술 트렌드”가 아니라, 다음 1~3년의 아키텍처 의사결정 기준입니다.
1) AI 도입의 기본 단위는 ‘모델’이 아니라 ‘에이전트(Agent)’로 이동
- 단일 챗봇 도입보다, 업무를 쪼개서 실행하는 에이전틱 시스템이 UI가 됩니다.
- 내부 데이터/보안 요구가 있으면 로컬(온프렘/프라이빗) 모델과 프론티어 모델을 라우팅하는 구조가 필수입니다.
2) 멀티모델 라우팅은 “비용”과 “품질”을 동시에 잡는 설계
- 모든 요청을 비싼 최전선 모델에 보내지 않고, 의도 기반으로 최적 모델을 선택하는 것이 토큰 비용을 지배합니다.
- “커스터마이징 AI”와 “최신 AI”를 동시에 가져가려면, 라우터/정책/관찰가능성(로그·평가)이 필요합니다.
3) Physical AI를 하려면 시뮬레이션·합성 데이터가 ‘필수 인프라’
- 자율주행·로보틱스·제조 최적화는 현실 데이터만으로는 부족합니다.
- 디지털 트윈(Omniverse) + 월드 모델(Cosmos) + 폐쇄 루프 시뮬레이션이 경쟁력의 핵심이 됩니다.
4) AI 인프라는 이제 “수냉 + 네트워크 + 메모리”가 함께 설계되어야 한다
- 100% 수냉식, AI 전용 이더넷(Spectrum‑X), BlueField‑4 기반 랙 내 컨텍스트 스토어 같은 구조는
단순 서버 구매가 아니라 데이터센터 설계/운영 모델 자체를 바꿉니다.
5) 보안은 ‘옵션’이 아니라 ‘요금표’에 직접 연결되는 기본값
- 기밀 컴퓨팅, 멀티테넌시 분리, 버스 암호화 같은 설계는 엔터프라이즈가 AI를 “외부 유출 걱정 없이” 쓰게 만드는 전제 조건입니다.
이번 젠슨 황의 CES 2026 엔비디아 키노트를 보면서 구글, AMD 등의 도전이 GPU 자체로는 계속되겠지만 한번 시작된 엔비디아의 아성을 위협하기에는 어렵겠다는 생각입니다. 한 마디로 이 동네의 최고 강자는 자신들이다라는 것을 다시 한번 선언하듯 자신들의 키노트 이외에도 다른 기업들의 여러 컨퍼런스에도 등장하면서 생태계를 공고히 한 모습이었습니다. 이에 올해 CES 2026의 주인공 기업 하나를 꼽는다면 저는 엔비디아를 선택할 것 같습니다.
![]() | AX 100배의 법칙 – 나와 조직의 능력을 100배 높이는 AI 경영의 실제 도서 구매 |
함께 읽으면 좋은 글:
디지털 트랜스포메이션: 조직의 습관을 바꾸는 일, 도서 구매

