CES 2026 관전 포인트 한눈에 보기: CTA가 꼽은 ‘큰 주제’와 제가 정리한 10가지

CES 2026 관전 포인트를 한 문장으로 요약하면, “AI가 더 이상 ‘기능’이 아니라 제품·서비스·산업 운영 방식 자체를 재설계하는 중심축으로 올라왔다”는 흐름입니다. CTA(Consumer Technology Association) 역시 이번 CES 2026을 AI, Robotics만이 아니라 Digital Health, Energy, Mobility, Enterprise, Quantum까지 함께 묶어 큰 그림을 제시했습니다.

그리고 전체적인 트렌드를 감 잡는 데는, 의외로 CES Innovation Awards 수상작 카테고리 분포가 직관적인 힌트가 됩니다. 전시는 방대하지만 “어디에 무게가 실렸는지”는 카테고리 숫자에서 먼저 보이기 때문입니다.

다만 CES는 워낙 전시가 크고 방대해서, 관심사에 따라 서로 완전히 다른 CES를 보게 됩니다. 저는 CES를 일종의 “코끼리” 같은 행사라고 생각합니다. 각자가 만지는 부위가 다르면 결론도 달라지니까요. 아래 관전 포인트는 지극히 개인적인 관점에서 정리한 것이며, 여러분이 다르게 보셨다면 그 또한 정답입니다.

CES 2026 관전 포인트

CTA가 짚은 CES 2026의 확장 축: AI·로봇을 넘어 ‘산업 전반’으로

CTA가 CES 2026의 핵심 축으로 꼽은 영역은 다음과 같습니다.

  • AI
  • Robotics
  • Digital Health
  • Energy
  • Mobility
  • Enterprise
  • Quantum

이 구성 자체가 시사하는 바는 명확합니다. CES가 ‘소비자 전자 전시’라는 프레임을 유지하면서도, 실질적으로는 산업·인프라·엔터프라이즈 의제를 점점 더 전면에 세우고 있다는 신호로 볼 수 있습니다.


CES Innovation Awards 카테고리로 보는 CES 2026의 무게 중심

카테고리별 수상한 기업이 많았던 주요한 카테고리 그리고 관심이 가는 수상작 카테고리(제공된 집계 기준)는 아래와 같습니다.

  • AI: 46
  • Digital Health: 41
  • Smart Home: 31
  • Vehicle Tech & Advanced Mobility: 27
  • Home Appliances: 26
  • Sustainability & Energy Transition: 25
  • Robotics: 17
  • XR & Spatial Computing: 12
  • Beauty 10 / Fashion 7 / Pet & Animal Tech 6 / Food 5

이 숫자 분포만 봐도 CES 2026의 큰 그림이 어느 정도 드러납니다. AI가 가장 큰 축으로 올라선 상태에서, 원래부터 전통적인 많은 수상작들이 분포하였던 디지털 헬스·스마트홈 이외에도 모빌리티·에너지 전환이 강하게 동행하고, 로보틱스는 “데모”를 넘어 실사용 로드맵이 논의되는 단계로 확장되었다는 것을 볼 수 있었답니다.


CES 2026 관전 포인트 10가지 (개인 관점)

아래 1~8은 “관전 포인트”로, 9~10은 관전평이라기보다 CES를 통해 논의되거나 확인된 “현실적인 관점”으로 정리했습니다.

CES 2026

1) 생성형 AI → 에이전트 AI 전환: “말”보다 “일”을 하게 만드는가

CES 2026을 통해 확인한 올해 AI 트렌드는 AI 에이전트, 디지털 트윈, 온디바이스 AI입니다. 이는 작년까지는 대화형 생성형 AI가 중심이었다면 이를 넘어, 이제 무게중심이 “업무/생활 실행”으로 이동하고 있다는 것을 보여주었다는 점입니다.

전시 관점에서 핵심 체크포인트는 하나입니다. “앱/기기별 AI”가 아니라, 기기와 서비스를 가로지르는 개인 에이전트(디지털 트윈)가 얼마나 자연스럽게 오케스트레이션하는가입니다.

예를 들어 레노버는 Qira(개인 AI 슈퍼 에이전트/디지털 트윈) 콘셉트처럼, 개인의 여러 기기와 데이터를 묶어 실행까지 이어지는 구조를 전면에 내세웠습니다. 많은 가전회사들도 이러한 테마의 전시를 같이 진행하였는데요, 삼성전자에서 선보인 냉장고 데모에서 볼 수 있듯이 소비자가 말로하면 가전이 직접 실행하는 것이 아주 자연스러워졌다는 대목이었습니다.


2) 피지컬 AI/로보틱스: “데모용”을 넘어 “현장 투입” 로드맵이 있나

휴머노이드/로봇은 CES 2026에서 메인 어트랙션 급으로 올라왔고, 단순 시연을 넘어 생산·공급망·현장 투입 시점을 함께 제시하는 사례가 강하게 부각되었습니다. 이 대목의 압권은 바로 Boston Dynamics의 Atlas 공개와 DeepMind 협업 발표 같은 흐름은, 로보틱스가 “멋진 데모”에서 “현장 투입 가능한 산업”으로 넘어가는 분위기를 보여주었다는 부분이었습니다.

가정용에서도 LG 전자가 CLOiD를 ‘제로 레이버 홈’ 비전의 상징으로 전면 배치하면서, 로봇을 단품이 아니라 집안 워크플로를 움직이는 에이전트로 포지셔닝한 점이 인상적입니다. 물론 휴머노이드 로봇의 50% 이상이 중국 기업이었고, 유니트리를 포함하여 상당한 중국 기업의 로봇 제조 역량은 이번 전시에서 빼놓을 수 없는 위협의 요소로도 읽혀졌습니다.


3) 산업 AI·디지털 트윈: ‘소프트웨어 정의 공장/현장’이 주류로

Siemens는 CES 키노트/전시에서 Digital Twin Composer를 핵심 런치로 내세우며, 디지털 트윈과 실시간 실세계 데이터 연결(Omniverse 라이브러리 기반 시뮬레이션 포함)을 전면에 둡니다. “산업 AI 혁명”을 말이 아닌 제품/플랫폼으로 끌고 온 셈입니다.

이 흐름은 공장에만 머물지 않고 에너지·인프라로 확장됩니다. Commonwealth Fusion Systems·NVIDIA·Siemens가 디지털 트윈으로 핵융합 설비를 시뮬레이션하는 협력을 전한것처럼, 산업 AI가 “현실 세계 시스템”으로 깊숙이 들어간다는 맥락을 보여주었습니다.


4) 자율주행: ‘인지’에서 ‘추론(reasoning)’으로, 그리고 ‘오픈 생태계’로

NVIDIA는 CES에서 Alpamayo(오픈 모델·시뮬·데이터셋)를 전면에 두며 자율주행을 추론 기반(설명가능성 포함) 경쟁으로 끌어올렸습니다. 자율주행의 중심이 “보는 능력(인지)”에서 “판단의 논리(추론)”로 이동하는 흐름이 더 선명해졌다는 의미입니다.

또한 Mercedes‑Benz CLA에 AI-defined driving을 시연/적용하는 레퍼런스를 제시하면서, 완성차 OEM과 플랫폼 기업의 결합 구도도 한층 명확해졌습니다. 지금까지 테슬라가 폐쇄형 생태계를 지향하였다면 이번 엔비디아의 Alphamayo의 경우 iOS와 안드로이드에 대비될 정도로 자율주행에 있어 오픈 생태계의 등장을 알리는 신호탄이자 실제 이런 플랫폼이 적용된 자동차가 1Q에 출시할 정도로 현실적인 내용이 되었답니다.


5) 스마트홈/가전의 다음 단계: ‘Ambient AI(공간지능)’와 ‘AI 동반자’ 경쟁

삼성은 LVCC 대형 부스 대신 Wynn의 전용 공간에서 ‘Your Companion to AI Living’ 테마로 AI 동반자 경험(엔터테인먼트·홈·케어)을 큐레이션하는 전시 전략을 택했습니다. “제품 나열”보다 “경험 연출”에 방점을 찍은 방식입니다.

LG 역시 ‘Affectionate Intelligence(공감지능)’를 전면에 두고, CLOiD를 포함한 제로 레이버 홈을 동기화된 생태계로 보여주는 방식이었습니다.
결국 관전 포인트는 “AI가 기기마다 들어갔는가”가 아니라, 집이라는 공간에서 AI가 얼마나 자연스럽게 작동하는가(Ambient AI)로 이동하지 않았나 생각됩니다.

AI 기술이 상당 수준으로 올라오면서 스마트홈 역시 다시 활기를 되찾는 분위기를 엿볼 수 있었습니다. 기존 스마트홈의 부족한 2%를 AI가 채워주었다고 할까요? 앞으로 스마트홈 분야 또한 고객들에게 더 많이 침투되기를 기대해봅니다.


6) 스마트글라스/웨어러블 재부상: “AI의 새 폼팩터”가 되나

CES 2026에서는 AI 글라스가 단순 콘셉트를 넘어 제품·가격·모델(번역/요약/기록 등)로 구체화되는 전시가 늘었습니다. 예로 XGIMI MemoMind, Solos AirGo V2 같은 제품이 거론되었습니다.

또한 CTA가 Accessibility Stage에서 스마트글라스·로보틱스·음성 홈 어시스턴트 등을 다루도록 구성한 점 역시, 글라스가 “실사용 시장”으로 들어간다는 신호로 해석할 여지도 있는 것 같습니다.


7) 중국 기업 존재감: ‘숫자’보다 ‘프라임 스팟’과 ‘데모 밀도’가 관전 포인트

등록 기준 집계에서 중국은 942개 참가사, 한국은 853개로 소개됩니다(미국 다음 규모). 다만 CES 현장에서는 단순 참가 숫자만큼이나 전시장 내 위치(프라임 스팟)와 데모 밀도가 체감 존재감을 좌우합니다.

이를 대변하듯, 삼성의 LVCC 센트럴홀 이탈로 생긴 자리를 TCL이 빠르게 차지해 “AiMe Land”를 구성한 점은 전시장 권력 지형 변화를 보여주는 사례로 언급됩니다. 동시에 “로봇이 메인 어트랙션이 되었고 중국 쪽 혁신이 강했다”는 현장 관찰도 이어지며, 중국 기업의 존재감은 점점 더 “현장에서 체감되는 방식”으로 나타나는 흐름입니다.

원래부터 중국 기업들은 CES 현장을 B2B 영업의 장으로 잘 활용하고 있었습니다. 특히 South관처럼 중국색 일색이었던 전시 공간도 많았답니다. 그러나 최근 로봇뿐만 아니라 가전, 특히 로봇청소기나 드론과 같은 이미 글로벌 1등인 회사들이 주류로 등장하면서 중국 기업의 존재감은 이미 우리나라를 위협하고, 넘어서는 느낌을 지울 수가 없는 상황이 된 것 같습니다.


8) 산업현장/중장비까지 AI 확장: ‘물리 세계’ 자동화가 본류로

Caterpillar가 NVIDIA와의 확장 파트너십 및 Cat AI Assistant(음성 기반 인터페이스) 등을 발표하는 흐름은, CES가 더 이상 ‘소비자 기기’만의 무대가 아니라 산업·건설·중장비 자동화의 쇼케이스로 기능하고 있음을 보여줍니다.

즉, CES의 AI는 이제 “개인 생산성”에서 끝나지 않고, 물리 세계의 운영 자동화로 본류가 이동하고 있습니다. 이 또한 CES 2025까지도 계속된 흐름이었지만 이제 AI 기술의 성숙도가 산업현장의 변화를 더욱더 빠르게 이끌어 가겠다는 느낌이 들었습니다. 현장 작업자들도 이제는 일상에서 ChatGPT 등을 활용하면서 각자만의 AI에 대한 이미지를 가지고 있으니까요.


9) 엔터프라이즈 AI 도입의 병목: CFO vs CIO 갈등이 ‘공식 의제’가 됨

9번은 관전평이라기보다, CES를 통해 확인된 현실적인 관점 중 하나인데요. 생성형 AI가 본격화되면서 우리 기업에도 다양한 AX 활동이 진행되고 있는 것은 다들 공감하실 것입니다. 이러한 엔터프라이즈 AI 도입의 병목이 ‘기술’만이 아니라 ‘의사결정 구조’라는 점을 확인할 수 있었습니다.

CES 공식 키노트 세션에서도 McKinsey–General Catalyst 대담이 편성됐고, 실제로 “CEO가 CFO와 CIO 사이에서 무엇을 듣느냐” 같은 갈등 프레이밍이 논의 되었습니다. 이는 AI 투자가 경영의 아젠다가 되었으며, 단순한 IT 지출이 아니라, 비용·리스크·거버넌스·조직 운영을 동시에 건드리는 의제가 되었다는 뜻입니다.

이는 글로벌뿐만 아니라 우리나라에서도 이러한 현상을 다양한 곳에서 목격되고 있는 상황입니다. 원래 IT는 지원부서의 하나로 CEO 입장에서는 큰 이슈만 일으키지 않으면 된다는 인식을 가지고 있었지만 경영의 중심으로 AI가 들어오면서 이를 두고 디지털을 다루는 부서가 그 중심을 가져갈 것인지, 아니면 전통적인 경영자 측근이라 할 수 있는 HR, 전략, 재무 등에서 중심을 가져갈 것인지, 아니면 수익을 벌어들이니 각 회사의 본원적 경쟁력이라 할 수 있는 사업부서에서 그 중심을 가져갈 것인지가 논의를 넘어 조직 개편에 이르는 등 그 헤게모니 싸움이 본격화되고 있다는 부분입니다.


10) ‘AI 워싱’과 프라이버시 역풍: AI는 어디까지 ‘쓸모’가 있나

또 하나의 관점은 AI 워싱(AI Washing)과 프라이버시 역풍입니다. 소비자/프라이버시 단체가 ‘Worst in Show’로 AI 탑재 가전/도어벨/AI 컴패니언 등을 비판하는 흐름이 나오며, AI의 과잉 탑재와 데이터 수집이 리스크로 부상했습니다.

주요 미디어에서도 “AI가 뭐든지 붙는” 과열을 풍자하는 기사들이 나왔고, 이는 기업 입장에서 차별화(실용성)와 신뢰(프라이버시)를 동시에 증명해야 하는 압력이 될 수도 있을 것 같습니다. 그러나 분명한 것은 AI를 빼고 앞으로 나아갈 수는 없다는 점입니다.


정리: CES 2026의 큰 그림은 “에이전트·현장·신뢰”로 수렴한다

CES 2026을 관통하는 흐름을 제 방식으로 묶으면 다음 세 문장으로 정리됩니다.

  • AI는 “대화”에서 “실행”으로 옮겨가며, 에이전트/디지털 트윈등 사용자 경험이 중심이 되고, 확장된다.
  • 로보틱스·산업 AI·자율주행은 “데모”에서 “투입 로드맵”으로 이동하며, 현장(물리 세계) 자동화가 본류가 된다.
  • 동시에 AI 워싱과 프라이버시 역풍이 커지면서, 기업은 실용성과 신뢰를 같이 증명해야 한다.

여러분의 CES 2026은 어떤 모습이었나요? 저도 다양한 리포트를 또 보면서 학습해 나가겠습니다.


AX 100배의 법칙
AX 100배의 법칙
– 나와 조직의 능력을 100배 높이는 AI 경영의 실제

도서 구매

함께 읽으면 좋은 글:

디지털 트랜스포메이션: 조직의 습관을 바꾸는 일, 도서 구매

. .

CES 2026 AMD 키노트 총정리: “AI Everywhere for Everyone”을 현실로 만드는 MI455·Helios·Ryzen AI 400의 모든 것

CES 2026 AMD가 던진 한 문장: AI Everywhere for Everyone

CES는 늘 “다음 세대”를 미리 보여주는 무대였지만, CES 2026 AMD가 강조한 메시지는 유독 선명했습니다. AI는 더 이상 개념이나 실험실 데모가 아니라, 실제 산업과 일상에서 움직이며 작동하는 ‘움직이는 지능(intelligence in motion)’이 되었고, 그 변화의 속도는 이제 “가속”이라는 말로도 부족하다는 진단이었습니다.

기조연설에서 AMD CEO 리사 수(Lisa Su) 박사가 던진 핵심은 단순히 “AI가 중요하다”가 아니었습니다. AMD는 AI를 ‘누구나’ ‘어디서나’ 쓰게 만드는 컴퓨팅 기반을 만들겠다고 선언했고, 그 비전을 한 문장으로 압축한 표현이 바로:

“AI Everywhere for Everyone”

즉, 클라우드·PC·엣지(Edge)까지 모든 컴퓨팅 플랫폼에 AI를 통합해 AI를 보편화하겠다는 전략입니다. 그리고 이 비전은 말이 아니라 구체적인 하드웨어 로드맵(Helios/MI455, Ryzen AI 400)과 개방형 소프트웨어(ROCm), 그리고 산업 리더들과의 협력 사례(OpenAI, Luma AI, Blue Origin 등)로 연결되어 제시됐습니다.

CES 2026 AMD

왜 지금 ‘요타 스케일(Yotta Scale)’인가

CES 2026 AMD가 가장 강하게 밀어붙인 프레임은 “요타 스케일 컴퓨팅”입니다. 요지는 단순합니다. AI 사용자가 폭발적으로 늘면서, AI를 굴리는 ‘컴퓨팅 수요’가 기존 인프라의 상상을 벗어난 규모로 튀어 올랐다는 것.

  • ChatGPT 이후 AI 사용자는 수백만 → 10억+으로 확대됐고
  • AI가 휴대폰·인터넷처럼 필수 요소가 되면 활성 사용자는 50억+까지 갈 수 있으며
  • 컴퓨팅 수요는 2022년 약 1 제타플롭(Zettaflop) → 2025년 100 제타플롭+로 커질 수 있다고 전망됩니다.
  • 그리고 이 혁신 속도를 감당하려면 향후 5년 동안 10 요타플롭(Yotta Flops)+가 필요하다는 주장까지 연결됩니다.

여기서 “요타”는 숫자 감각을 깨뜨립니다. 1 요타플롭 = 1 뒤에 24개의 0이 붙는 연산 규모이고, 10 요타플롭은 2022년 대비 10,000배 수준이라는 설명이 이어집니다.

그래서 AMD의 결론은 이렇게 정리됩니다. AI를 어디에나 구현하려면 클라우드(전 세계 지능 공급) + PC(개인화·생산성) + 엣지(실시간 결정), 이 3축이 동시에 AI-ready가 되어야 하고, 이를 위해서는 GPU/CPU/NPU/맞춤형 가속기까지 전 스펙트럼의 컴퓨팅 엔진을 모두 갖춘 기업이 필요하다는 것. AMD는 바로 그 “풀 스택 컴퓨팅 엔진”을 자신들의 차별점으로 제시합니다.


클라우드 AI의 핵심: Helios 랙 스케일 + Instinct MI455

요타 스케일의 “본진”은 결국 클라우드입니다. 가장 큰 모델이 훈련되고, 수십억 사용자에게 지능이 전달되는 곳이기 때문입니다. AMD는 현시점에서의 포지셔닝도 함께 강조합니다.

  • 주요 클라우드 제공업체들이 AMD EPYC CPU를 사용하고 있으며
  • 상위 10개 AI 기업 중 8개가 Instinct 가속기로 모델을 구동하고 있다는 점을 전면에 둡니다.

그리고 이번 CES 2026에서 가장 큰 하드웨어 발표로 연결된 것이 바로 차세대 랙 스케일 플랫폼 ‘Helios’와 그 중심인 Instinct MI455(및 MI455X)입니다.

Helios가 노리는 것: 랙 단위를 ‘하나의 컴퓨터’로 만들기

AMD가 말하는 요타 스케일 AI 인프라의 조건은 3가지로 읽힙니다.

  1. 세대 교체에 맞춰 진화 가능한 개방형·모듈식 랙 설계
  2. 수천 개 가속기를 하나의 통합 시스템으로 묶는 고속 네트워킹
  3. 배포가 쉬운 턴키(turnkey) 솔루션

Helios는 이 조건을 “랙 레벨”에서 구현한 플랫폼으로 소개됩니다.

MI455X 핵심 스펙(공개 내용 기준)

Helios의 시작점은 MI455X GPU입니다. 발표 내용의 숫자들은 매우 공격적입니다.

  • 2nm 및 3nm 공정 기반
  • 3,200억(320B) 트랜지스터 (MI355 대비 70% 증가)
  • 12개의 2nm/3nm 컴퓨팅·I/O 칩렛
  • 432GB HBM4
  • 차세대 3D 칩 스태킹(3D chip stacking) 기반 연결

즉, “칩렛 + HBM4 + 3D 패키징”을 총동원해 대형 모델/대형 배치/대규모 병렬에 유리한 구조를 만들었다는 메시지입니다.

Venice EPYC(젠6) + Pensando 네트워킹까지 ‘트레이 단위’로 통합

Helios는 GPU만 던져놓는 설계가 아니라, EPYC CPU와 네트워킹 칩까지 컴퓨팅 트레이에 묶는 형태로 설명됩니다.

  • Venice EPYC CPU: 2nm 공정, 최대 256개 Zen 6 코어
    • 이전 세대 대비 메모리 및 GPU 대역폭 2배로 랙 스케일에서 GPU에 데이터 공급을 극대화했다는 포지셔닝
  • 네트워킹: 800GbE급 Pensando(Volcano, Selina 등 언급) 기반 초고대역폭·초저지연

“랙 안의 72개 GPU가 단일 컴퓨팅 장치처럼”

Helios 구조 설명에서 인상적인 포인트는 연결 방식입니다.

  • 랙 내 72개 GPU
  • 이더넷 터널링 기반의 고속 초가속기 링크 프로토콜로 연결되어
  • 단일 컴퓨팅 장치처럼 동작할 수 있다는 서술이 등장합니다.

또한 Helios 랙 여러 개(수천 개 규모)는 산업 표준 초이더넷 NIC와 Pensando 프로그래밍 가능 DPU로 연결되며, DPU가 GPU 작업 일부를 오프로드해 성능을 더 끌어올린다고 설명됩니다.

Helios 물리 설계: OCP 개방형 랙 와이드 표준 + Meta 협력

Helios는 Meta와 협력해 개발된 OCP(Open Compute Project) 개방형 랙 와이드 표준을 기반으로 하는 더블 와이드 설계로 소개되며, 랙 무게가 거의 7,000파운드에 달한다고 언급됩니다. 즉, 데이터센터 운영 관점에서 서비스 용이성·제조 용이성·신뢰성을 최적화하려는 방향이 강조됩니다.

성능 지표(발표 기준)

Helios 랙 한 대 기준으로 공개된 지표는 다음과 같이 정리됩니다.

  • 18,000개+ CDNA5 GPU 컴퓨팅 유닛
  • 4,600개+ Zen 6 CPU 코어
  • 최대 2.9 엑사플롭스(Exaflops) 성능
  • 랙당 31TB HBM4
  • 260TB/s 스케일 대역폭

그리고 “성능 도약”을 이렇게 요약합니다.

  • MI355가 이전 세대 대비 최대 3배 추론 처리량을 제공했다면
  • MI455는 더 나아가 광범위 모델/워크로드에서 최대 10배 성능을 제시한다는 것.

Helios는 “올해 말 출시 예정”으로 언급되며, AI 성능의 새 기준을 세울 것으로 기대된다는 톤으로 마무리됩니다.


OpenAI 협력: 에이전트 컴퓨팅이 요구하는 인프라의 방향

키노트의 전개가 흥미로웠던 이유는, AMD가 하드웨어 스펙만 늘어놓지 않고 “왜 이 정도가 필요해졌는가”를 OpenAI와의 대화로 풀어냈다는 점입니다. 무대에는 OpenAI 공동 설립자이자 사장인 그렉 브록만(Greg Brockman)이 등장합니다.

그가 던진 메시지를 한 줄로 요약하면 이렇습니다. AI는 ‘질문-답변’에서 끝나지 않고, 앞으로 ‘며칠 동안 일하는 에이전트 워크플로우’로 넘어간다.

“모델 능력의 기하급수적 발전 = 유용성의 기하급수적 확대”

브록만은 ChatGPT가 오랜 준비 끝에 등장한 결과였고, 이제 AI는 단순 텍스트 상자를 넘어 헬스케어, 신생아 관리처럼 개인적이고 중요한 영역까지 들어왔다고 말합니다. 엔터프라이즈에서는 Codex 같은 모델이 소프트웨어 엔지니어링을 바꾸고 있으며, “올해는 엔터프라이즈 에이전트가 본격화될 것”이라는 전망도 이어집니다.

에이전트 시대의 컴퓨팅: 저지연과 초고처리량, 두 체제가 공존한다

OpenAI 관점에서 미래 컴퓨팅 환경은 “인간의 주의(attention)와 의도(intent)가 가장 귀한 자원”이 되는 세계이며, 그래서 컴퓨팅은 두 가지 모드가 필요하다고 정리합니다.

  • 사람이 관여할 때는 초저지연(low latency) 상호작용
  • 백그라운드에서는 지속 실행되는 초고처리량(high throughput) 에이전트 컴퓨팅

즉, “빠른 반응성”과 “거대한 처리량”이 동시에 필요해진다는 뜻이고, 이 요구가 곧 MI455/Helios 같은 랙 스케일 전략으로 연결됩니다.

컴퓨팅 제약과 성장의 상관: “컴퓨팅이 곧 경쟁력”

브록만은 OpenAI가 지난 몇 년 동안 컴퓨팅 사용량을 매년 3배씩 늘렸고 매출도 3배 증가했다고 언급하며, 새로운 모델/기능이 나올 때마다 내부적으로도 컴퓨팅 확보 경쟁이 있을 정도로 compute constrained 상태라는 취지의 설명을 덧붙입니다. 나아가 향후 GDP 성장까지 “어디에 얼마나 컴퓨팅이 있느냐”가 좌우할 수 있다는 관점도 제시됩니다.

AMD와 OpenAI의 “공동 설계”

핵심은 이 문장입니다. MI455와 Helios가 OpenAI 엔지니어링 팀 피드백을 통해 긴밀히 협력하며 개발되었다는 점. 즉, 단순 고객-공급자 관계가 아니라, “에이전트 워크로드가 요구하는 리소스 균형”을 함께 맞춰가는 그림으로 제시됩니다.


MI400 포트폴리오와 ROCm: “개방형”이 성능이 되는 시대

AMD는 Helios/MI455를 “정점”으로 두고, 그 아래를 MI400 시리즈 포트폴리오로 촘촘히 채웁니다. 방향성은 명확합니다. 클라우드 하이퍼스케일 훈련부터 엔터프라이즈 배포, 주권 AI, 슈퍼컴퓨팅까지 “환경이 다르면 폼팩터도 달라야 한다”는 것.

  • Helios: 하이퍼스케일 훈련 + 랙 스케일 분산 추론
  • Instinct MI440X GPU: 엔터프라이즈 배포에 초점. 기존 데이터센터 인프라에서 쓰기 쉬운 컴팩트 8GPU 서버 구성에서 리더십 훈련/추론 성능
  • MI430X 플랫폼: 주권 AI 및 슈퍼컴퓨팅처럼 “정확도”가 중요한 환경을 겨냥. 과학 데이터 타입과 AI 데이터 타입을 함께 다루는 하이브리드 컴퓨팅 강조

그리고 이 포트폴리오를 가능하게 하는 기술 기반으로 칩렛(chiplet)이 반복해서 등장합니다. “워크로드에 맞는 컴퓨팅”을 만들 수 있다는 논리입니다.

ROCm: AI 시대에 ‘소프트웨어 스택’은 선택이 아니라 생존

AMD가 개방형 생태계를 강하게 주장하는 지점은 ROCm입니다. 발표의 톤은 단호합니다.

  • AI의 미래는 개방형 인프라 + 공유 기술 표준을 중심으로 업계가 협력할 때 가속된다.
  • AMD는 하드웨어·소프트웨어·솔루션 생태계 전반에서 개방성을 제공하는 유일한 회사라는 포지셔닝을 취한다.
  • ROCm은 “업계에서 가장 성능이 뛰어난 AI용 개방형 소프트웨어 스택”이라고 정의된다.
  • PyTorch, vLLM, SGLang, Hugging Face 등 상위 오픈소스 프로젝트에서 기본 지원되며, 모델 허브/프레임워크/도구를 출시 당일부터 지원한다고 강조한다.

정리하면, AMD는 “하드웨어만 좋은 회사”가 아니라, 개발자가 ‘바로 쓰게 만드는’ 소프트웨어 스택을 AI 승부처로 끌어올립니다.


Luma AI: 3D·비디오 생성이 ‘산업’이 되는 순간

AI가 텍스트를 넘어서 산업을 바꾸는 순간을 보여주는 파트너로, Luma AI가 무대에 오릅니다. CEO이자 공동 설립자인 아밋 자인(Amit Jain)은 Luma의 미션을 “세상을 이해하고 시뮬레이션하며 개선하는 멀티모달 일반 지능”으로 설명합니다.

Ray 3: “추론 비디오 모델”이라는 프레임

발표에서 Ray 3는 다음과 같이 소개됩니다.

  • 세계 최초의 추론 비디오 모델
    • 단순 생성이 아니라, 픽셀과 지연 시간을 먼저 고려하고 “무엇을 생성할지” 결정할 수 있다는 설명
  • 세계 최초로 4K 및 HDR 생성 지원
  • 광고·미디어·엔터테인먼트 기업과 개인 창작자까지 폭넓게 사용
  • 2025년 말에는 90분 장편 영화 제작에 사용하는 등 대규모 배포가 진행 중

여기서 중요한 통찰은 “제어(control)”입니다. 고객들은 정밀한 제어를 원했고, Luma는 제어가 더 나은 프롬프트가 아니라 더 높은 지능에서 나온다는 결론에 도달했다고 말합니다.

Ray 3 Modify: ‘세계 편집(World Editing)’의 시대

Ray 3 위에 구축된 Ray 3 Modify는 실사 또는 AI 푸티지를 가져와 원하는 만큼 바꾸는 세계 편집 기능을 제공하며, 이로 인해 인간의 동작·타이밍·방향 자체가 프롬프트가 되는 하이브리드 인간-AI 프로덕션이 가능해진다는 서사가 이어집니다.

2026년은 “에이전트의 해”

Luma는 2026년을 에이전트의 해로 선언하며, “작업의 일부”가 아니라 엔드투엔드 작업 전체를 수행하는 에이전트로 진화할 것이라고 봅니다. 멀티모달 에이전트 데모에서는 스크립트를 가져와 시각화하고, 장편 비디오를 분석하며, 캐릭터·장면·스토리의 일관성을 유지한 채 필요한 순간에만 편집하는 방향이 제시됩니다.

AMD 선택 이유: 추론 경제성과 TCO

Luma가 AMD를 선택한 이유는 명확히 “경제성”으로 연결됩니다.

  • 멀티모달 워크로드는 텍스트 모델보다 수백~수천 배 더 많은 토큰을 소비할 수 있다.
  • 예시로, 10초 비디오가 100,000 토큰이 될 수 있는 반면 일반 LLM 응답은 200~300 토큰 수준이라는 대비가 제시됩니다.
  • 그래서 TCO(총소유비용)와 추론 경제성이 비즈니스에 절대적으로 중요하며, Luma는 AMD와의 협력을 통해 스택에서 최고의 TCO를 달성했다고 말합니다.
  • 또한 2026년에 AMD 파트너십을 10배 확장할 예정이며, MI455X의 랙 스케일 솔루션과 메모리 인프라가 “세계 시뮬레이션 모델” 구축에 필수라고 연결합니다.

AI PC 시대: Ryzen AI 400·Ryzen AI Max·Halo 그리고 로컬 에이전트

AMD는 “클라우드만이 AI가 아니다”라는 관점을 AI PC로 확장합니다. AI PC는 단순한 도구가 아니라 사용자의 작업 방식을 학습하고, 습관에 적응하며, 오프라인에서도 빠르게 작업을 수행하는 능동적 파트너가 되어가고 있다는 설명입니다.

MI500 로드맵까지: 성능 향상은 계속된다

AMD는 차세대 MI500 시리즈도 개발 중이라고 밝히며,

  • CDNA6 아키텍처
  • 2nm 공정
  • HBM4e
  • 2027년 출시를 통해 지난 4년간 AI 성능 1,000배 증가 달성을 목표로 한다는 로드맵이 제시됩니다.

Ryzen AI 400 시리즈: “60 TOPS”로 확장되는 AI PC 라인업

이번 CES에서 AI PC 쪽 핵심 발표는 Ryzen AI 400 시리즈 프로세서입니다.

  • Zen 5 CPU (최대 12 고성능 코어)
  • RDNA 3.5 GPU (16 코어)
  • XDNA2 NPU (최대 60 TOPS)
  • 더 빠른 메모리 속도 지원
  • 첫 제품은 “이달 말부터 출하”, 연중 120개+ AI PC에 탑재 예정이라는 로드맵

AMD는 자신들이 AI PC 변곡점을 “일찍” 주도했다는 히스토리도 함께 강조합니다(온칩 AI 엔진 통합, Copilot+ x86 PC 등). 또한 Ryzen AI Max로 2000억(200B) 매개변수 모델을 로컬에서 실행할 수 있는 단일 칩 x86 플랫폼을 만들었다는 주장도 포함됩니다.

Liquid AI: 로컬 AI 에이전트를 위한 ‘가벼운 모델’의 필요

AI PC가 진짜 일하려면 하드웨어만큼 중요한 것이 “장치에서 돌아갈 만큼 효율적인 모델”입니다. 이 맥락에서 Liquid AI가 소개됩니다. MIT에서 분사한 파운데이션 모델 회사로, 트랜스포머가 아닌 Liquid Foundation Models(LFM)를 구축해 품질 저하 없이 계산 비용을 줄이겠다는 목표를 제시합니다. 가치 제안은 3가지로 정리됩니다.

  • 개인정보 보호(Privacy)
  • 속도(Speed)
  • 연속성(Continuity) (온라인/오프라인을 넘나드는 일관된 경험)

LFM 2 / LFM 2.5

  • LFM 2는 “타이니 클래스(tiny class)”에서 가장 진보된 모델로 소개되며 12억(1.2B) 파라미터 규모
  • 명령 수행(instruction-following) 능력이 동급 및 더 큰 모델 사이에서도 매우 우수하다고 설명
  • LFM 2.5 인스턴스는 특정 모델 대비 더 나은 명령 수행을 장치에서 제공한다고 언급
  • 총 5가지 모델 인스턴스(챗/인스트럭트/일본어 강화/비전-언어/경량 오디오-언어)가 공개되며 AMD Ryzen AI의 CPU/GPU/NPU에 최적화되었다는 점을 강조

LFM 3: 멀티모달 + 100ms 미만 지연

  • 텍스트·비전·오디오 입력을 처리하고, 10개 언어로 오디오 및 텍스트 출력을 제공하도록 기본 멀티모달로 설계
  • 시청각 데이터에 대해 100ms 미만 지연 시간을 제시

그리고 “능동적(proactive) 에이전트” 데모가 이어집니다. 사용자가 스프레드시트 작업 중일 때, 에이전트가 다가오는 영업 회의를 감지하고 대신 참석 제안을 하며, 단순 전사를 넘어 이메일까지 분석해 답장 초안을 만드는 흐름을 오프라인 로컬에서 수행한다는 시나리오입니다. Liquid AI는 2026년 Zoom과 협력해 이를 Zoom 플랫폼에 도입할 예정이라고 언급합니다.

Ryzen AI Max: 크리에이터·게이머·개발자용 “통합 메모리” 승부수

Ryzen AI Max는 다음 스펙으로 소개됩니다.

  • Zen 5 CPU 16코어
  • RDNA 3.5 GPU 40 컴퓨팅 유닛
  • XDNA2 NPU 최대 50 TOPS
  • CPU/GPU/NPU가 공유하는 최대 128GB 통합 메모리 아키텍처

발표 내용상, 프리미엄 노트북에서 최신 MacBook Pro 대비 AI 및 콘텐츠 제작 앱에서 더 빠르고, 소형 워크스테이션에서는 NVIDIA DGX Spark 대비 더 저렴한 가격으로 유사 성능을 제공하며, GPT-OSS 모델 실행 시 달러당 최대 1.7배 더 많은 토큰을 생성한다는 설명이 포함됩니다. 또한 Windows와 Linux를 모두 기본 지원해 개발 편의성을 강조합니다.

Ryzen AI Halo: “손에 맞는” 로컬 AI 개발 플랫폼

AMD는 로컬 AI 배포를 위한 레퍼런스 플랫폼 Ryzen AI Halo도 발표합니다.

  • “세계에서 가장 작은 AI 개발 시스템”
  • 최대 2000억 파라미터 모델을 로컬 실행
  • 최상급 Ryzen AI Max + 128GB 통합 메모리
  • 최신 ROCm 스택과 오픈소스 개발 도구 사전 로드
  • 올해 2분기 출시 예정

World Labs와 공간 지능: 3D 세계를 “몇 분”으로 당기는 기술

AI의 다음 전선으로 “공간 지능(spatial intelligence)”이 제시됩니다. 무대에는 World Labs 공동 설립자이자 CEO인 페이페이 리(Fei-Fei Li)가 등장하고, 언어 지능의 발전은 컸지만 인간에게 더 중요한 것은 지각과 행동을 연결하는 공간 지능이라고 강조합니다.

World Labs는 이 공간 지능을 현실화하기 위해 설립되었고, Marble이라는 모델 데모가 제시됩니다.

Marble: 몇 장(심지어 한 장)의 이미지로 3D/4D 세계 생성

전통적인 3D 구축이 레이저 스캐너나 복잡한 소프트웨어를 요구했다면, World Labs는 GenAI로 데이터에서 3D·4D 구조를 학습하는 모델을 만든다는 접근입니다. 모델에 몇 장의 이미지만 주면:

  • 누락된 디테일을 채우고
  • 물체 뒤를 예측하며
  • 풍부하고 일관된 탐색 가능한 3D 세계를 만든다고 설명합니다.

AMD 오피스 리모델링 데모: MI325X + ROCm

특히 흥미로운 데모는 AMD 실리콘밸리 오피스를 휴대폰 카메라로 촬영한 몇 장의 이미지로 3D 공간을 만들고, 그 공간을 이집트 스타일 등으로 리모델링하면서도 기하학적 일관성을 유지하는 시나리오입니다. 이때 사용된 인프라로 MI325X와 ROCm이 언급됩니다.

World Labs는 AMD와의 파트너십이 최근 시작됐음에도, 실시간 프레임 생성 모델이 MI325X에서 1주 만에 실행되었고, Instinct와 ROCm을 통해 몇 주 만에 성능을 4배+ 개선할 수 있었다고 말합니다.

여기서 결론은 분명합니다. 공간 지능은 3D 구조·움직임·물리학을 이해해야 하므로 메모리, 대규모 병렬 처리, 매우 빠른 추론이 필요하고, MI450 같은 플랫폼은 더 큰 세계 모델 훈련과 실시간 반응성을 가능하게 할 것이라는 전망으로 이어집니다.


헬스케어 혁신: 신약 개발·정밀의학·게놈 데이터의 폭발

키노트의 헬스케어 파트는 “AI의 가치가 결국 생명을 구하는 것으로 측정된다”는 메시지로 전개됩니다. 그리고 세 회사의 사례가 연결됩니다: AppSci, Illumina, AstraZeneca.

AppSci: 생성형 AI + 합성 생물학으로 약을 “설계”하는 시대

AppSci CEO 션 맥클레인(Sean McClain)은 기존 시행착오 중심의 약물 발견과 달리, 생성형 AI와 합성 생물학으로 원하는 생물학적 특성을 가진 후보를 “처음부터 설계”할 수 있다고 말합니다. 주요 목표 질병으로는

  • 남성형 탈모(androgenic alopecia)
  • 자궁내막증(10명 중 1명 여성에게 영향)

이 제시되고, AMD 투자 후 1년 만에 추론을 확장해 단 하루에 100만+ 약물을 스크리닝할 수 있게 되었다는 성과가 소개됩니다. 또한 MI355의 메모리가 생물학을 더 풍부한 맥락에서 다뤄 더 나은 발견 모델을 만드는 데 도움이 될 것이라는 설명이 이어집니다.

Illumina: DNA라는 ‘30억 문자’의 세계, 그리고 데이터 폭발

Illumina CEO 제이콥 테이슨(Jacob Thaysen)은 DNA를 생명의 청사진으로 설명하며, 인간 게놈이 30억 문자로 이루어진 “20만 페이지 책”에 비유될 만큼 정확도가 중요하다고 강조합니다. 또한 Illumina의 시퀀서가 매일 생성하는 데이터가 매우 방대해, AMD와의 관계가 필수적이며, AMD FPGA와 EPYC 프로세서를 활용해 데이터를 통찰로 변환한다고 말합니다.

생성형 AI + 게놈 + 단백질체학의 결합은 생물학 이해를 바꾸고, 신약 발견을 넘어 예방과 조기 치료로 이어져 수명과 건강수명 개선에 기여할 것이라는 전망도 제시됩니다.

AstraZeneca: “AI는 생산성이 아니라 혁신”

AstraZeneca의 분자 AI 책임자 울라 엔크비스트(Ulla Enksvist)는 AI를 혁신의 도구로 정의합니다. 수십 년의 실험 데이터를 학습한 생성형 AI로 수백만 후보를 가상 평가하고, 가장 유망한 것만 실험실로 가져가는 접근입니다. 그 결과:

  • 후보 약물을 50% 더 빠르게 제공
  • 임상 성공률도 높이는 방향으로 진화하고 있다고 설명합니다.

AstraZeneca는 AMD와 협력해 인실리코(in-silico) 흐름을 확장하고, 대규모 데이터 세트 처리와 워크플로우 최적화를 추진한다고 언급됩니다.

헬스케어 파트는 “sick care(사후 치료)”에서 “preventative care(예방)”로, 나아가 재생 생물학/의학(regenerative biology and medicine)으로 가는 방향성으로 정리됩니다.


물리적 AI: 로보틱스와 우주 탐사에서의 ‘결정적 로컬 컴퓨팅’

AI가 현실 세계로 들어오는 순간, 요구사항은 급격히 바뀝니다. 물리적 AI는 “느리면 안 되고, 틀리면 안 되는” 환경이 많습니다. 그래서 발표는 반복해서 로컬에서 빠르고 결정적(deterministic)인 컴퓨팅을 강조합니다.

Generative Bionics: 인간 중심 휴머노이드 로봇 ‘Gen 1’

Generative Bionics CEO 다니엘라 푸치(Daniela Pucci)는 “인공 에이전트가 인간 세계를 이해하려면 인간 같은 몸으로 경험해야 하는가?”라는 질문에서 출발해, iCub/ErgoCub/IronCub 같은 플랫폼을 만들어왔다고 소개합니다.

Gen 1에서 가장 큰 차별점은 촉각(tactile)입니다.

  • 몸 전체에 분산된 촉각 피부(tactile skin)가 압력·접촉·의도를 감지
  • 촉각을 “주요 지능의 원천”으로 끌어올린다는 메시지
  • 공장 협업, 헬스케어 보조 등 사람과의 안전한 상호작용을 겨냥

또한 Gen 1은 2026년 하반기 상업 제조 예정이며, 선도 철강 제조업체를 포함한 산업 파트너와 함께 안전이 중요한 환경에 배치될 것이라고 언급됩니다. 이 과정에서 AMD는 Ryzen AI Embedded, VersaLay iEdge 같은 엣지 플랫폼부터 시뮬레이션/훈련/대규모 개발용 CPU/GPU까지 엔드투엔드 아키텍처를 제공하는 파트너로 설명됩니다.

Blue Origin: 달 영구 거주(Lunar Permanence)와 Versal 2 비행 컴퓨터

Blue Origin의 달 영구 거주 담당 수석 부사장 존 칼루리스(John Kalouris)는 목표를 “달 영구 거주 확립”으로 정의하며, 이를 위해 반복 가능하고 저렴한 운영이 필요하다고 말합니다.

우주는 궁극의 엣지 환경입니다. 비행 컴퓨터는 “차량의 심장”이고, 질량·전력·방사선 등 제약 속에서 신뢰성과 탄력성을 가져야 합니다. AMD 임베디드 아키텍처는 질량과 전력 절감, 방사선 환경 고려 측면에서 장점이 있다는 서사가 이어집니다.

특히 Blue Origin은 AMD와 Versal 2를 비행 컴퓨터 스택에 쓰는 논의를 시작한 지 몇 달 만에 개발 비행 컴퓨터에 통합 가능한 장치를 제공받았고, 이 스택으로 달 착륙 시뮬레이션을 성공적으로 수행해 수개월 일정을 단축했다고 말합니다. 이 컴퓨터는 2028년 초 우주비행사를 달에 착륙시킬 Mark 2 착륙선에 동력을 공급할 예정이라는 언급도 포함됩니다.

또한 AI는 우주비행사에게 코파일럿 역할을 하고, 착륙 지점 식별·위험 탐지 등에서 실시간 엣지 컴퓨팅이 중요하다는 메시지가 이어집니다. 달 뒷면 전파 천문학 시나리오도 연결되며, 통신 지연을 극복하기 위해 엣지 AI가 탐사 최적화를 돕는 그림이 제시됩니다.


과학·슈퍼컴퓨팅·교육: Genesis 미션과 AI 인재 파이프라인

AMD는 HPC(고성능컴퓨팅)에서의 리더십도 전면에 배치합니다. 전통 HPC와 AI의 융합을 추진하고 있고, 세계에서 가장 빠른 슈퍼컴퓨터, 에너지 효율 시스템 등에 동력을 공급한다고 강조합니다. 예시로는:

  • 핀란드 Lumi: 기후 모델 업데이트 시간 85%+ 단축
  • ENI: 배터리/연료 개발
  • Oak Ridge National Labs(Exascale): 예측 정확도 99% 수준의 시뮬레이션 언급
  • Lawrence Livermore El Capitan: 바이러스 변이/진화 모델링을 통한 팬데믹 대응 가속

Genesis 미션: AI·슈퍼컴퓨팅·양자의 융합

AMD는 미국 DOE 및 국립 연구소와 함께 Genesis 미션에 참여한다고 소개합니다.

  • Lux 컴퓨터: “올해 초 가동 예정”인 과학 전용 AI 팩토리
  • Discovery: 2028년 계획된 차기 플래그십 슈퍼컴퓨터

또한 미국 차원의 AI 전략(규제 장벽 제거, 인프라/에너지 확보, AI 외교/수출 프로그램)과 연결되며, 교육 이니셔티브로 “대통령 AI 챌린지”가 언급됩니다.

교육: AI Education Pledge와 학생·커뮤니티 확장

AMD는 AI 교육 서약을 지원하며 1억 5천만 달러를 투자했고, 전 세계 800개+ 교육·연구 협력을 구축 중이며, 올해 15만 명+ 학생에게 무료 온라인 AI 과정을 제공할 계획이라고 말합니다.

또한 Hack Club과 진행한 전국 AI·로보틱스 캠페인, 해커톤 우승팀 Team Armtender(AI 로봇 바리스타) 사례가 소개됩니다. 이 팀은 AMD 개발자 클라우드(MI 300X GPU)에서 비전-언어 모델을 훈련했고, 로봇 팔은 Ryzen AI 노트북에서 3대 카메라로 로컬 실행된다고 설명됩니다. AMD는 팀원 각자에게 2만 달러 교육 보조금을 수여했다고 언급됩니다.


결론: AMD가 그리는 다음 10년의 AI 지도

CES 2026에서 AMD는 “AI가 중요하다”는 메시지를 넘어, AI가 보편재가 되기 위해 필요한 컴퓨팅의 크기(요타 스케일)와 이를 감당하기 위한 플랫폼 단위 혁신(Helios/MI455), 그리고 개방형 소프트웨어(ROCm)를 한 프레임으로 묶었습니다.

여기에 OpenAI의 에이전트 컴퓨팅, Luma AI의 멀티모달 생성 워크로드, World Labs의 공간 지능, 헬스케어·로보틱스·우주 탐사·과학 슈퍼컴퓨팅까지 연결하면서, AMD의 전략은 결국 이렇게 요약됩니다.

  • AI는 클라우드에만 있지 않다. 클라우드·PC·엣지 전체가 AI 플랫폼이 된다.
  • 컴퓨팅 수요는 상상을 초월한다. 그래서 랙 스케일/요타 스케일이 필요하다.
  • 성능은 하드웨어만이 아니라 소프트웨어(ROCm)와 생태계에서 완성된다.
  • 가장 큰 혁신은 단독이 아니라, 업계 리더와의 공동 혁신으로 빠르게 현실이 된다.

AMD가 그린 그림은 “더 큰 숫자”의 경쟁이라기보다, AI를 전 산업과 일상에 ‘실제로 배포 가능한 형태’로 만드는 인프라 경쟁에 가깝습니다. 그리고 CES 2026은 그 로드맵을 상당히 구체적인 형태로 공개한 자리였습니다.


AX 100배의 법칙
AX 100배의 법칙
– 나와 조직의 능력을 100배 높이는 AI 경영의 실제

도서 구매

함께 읽으면 좋은 글:

디지털 트랜스포메이션: 조직의 습관을 바꾸는 일, 도서 구매

. .

젠슨 황의 CES 2026 엔비디아 기조연설 총정리: Agentic AI부터 Physical AI ‘Cosmos’, 자율주행 AlphaMayo와 차세대 슈퍼칩 ‘Vera Rubin’까지

젠슨 황의 CES 2026 엔비디아 키노트는 “신제품 발표”가 아니라, AI 시대에 컴퓨터 산업이 어떻게 다시 설계되어야 하는지를 스택 전체 관점에서 설명한 일종의 선언문에 가깝습니다. 메시지는 단순합니다. 이제 AI는 앱 위에 얹는 기능이 아니라, 소프트웨어를 만들고 실행하는 방식 자체를 바꾸는 플랫폼 전환이며, 그 결과 컴퓨팅 산업의 5계층 스택 전체가 재발명되고 있다는 것입니다.


CES 2026 엔비디아 키노트, 한눈에 보는 핵심 요약

  • 지금은 두 개의 플랫폼 전환이 동시에 진행 중입니다: (1) AI 기반 앱 시대, (2) 소프트웨어 개발/실행 방식의 근본 변화
  • AI는 학습 + 추론(Reasoning) 단계로 진입했고, “테스트 타임 스케일링(Test-time Scaling)”으로 컴퓨팅 수요가 폭발합니다.
  • 미래 AI 앱의 기본 골격은 에이전틱 AI + 멀티모델(라우팅) + 멀티클라우드/하이브리드입니다. 엔비디아는 이를 Blueprint로 제시합니다.
  • Physical AI를 위해서는 **세 종류의 컴퓨터(학습·추론·시뮬레이션)**와 디지털 트윈/합성 데이터가 필수이며, 월드 파운데이션 모델 Cosmos가 중심입니다.
  • 자율주행 AlphaMayo는 “엔드투엔드 학습 + 추론 + 설명 가능성”을 내세우며, 벤츠와 풀스택으로 레벨4 시대를 예고합니다(2026년 지역별 출시 로드맵 포함).
  • 차세대 슈퍼칩 Vera Rubin은 무어의 법칙 둔화를 “극한의 공동 설계(Extreme Co-design)”로 돌파합니다: 칩 6종을 하나처럼 움직이는 시스템 설계, 100% 수냉식 랙, AI 전용 이더넷(Spectrum‑X), BlueField‑4 기반 메모리 병목 해소가 핵심입니다.
  • 결과적으로 토큰 비용은 10분의 1, 팩토리 처리량은 10배, 대형 모델 학습 속도는 “프론티어 도달 시간”을 결정하는 경쟁우위로 강조됩니다.

1) 두 개의 플랫폼 전환: 5계층 스택 전체가 다시 짜이고 있다

젠슨 황은 컴퓨터 산업이 10~15년 주기로 플랫폼 전환을 겪어왔다고 전제합니다. 메인프레임 → PC → 인터넷 → 클라우드 → 모바일. 매번 “새로운 플랫폼”이 등장할 때마다, “새로운 앱”이 그 위에 다시 만들어졌습니다.

그런데 지금은 전환이 하나가 아니라 두 개가 동시에 일어나고 있다는 설명입니다.

  1. AI 시대로의 전환: 앞으로의 애플리케이션은 AI를 기반으로 구축된다.
  2. 개발·실행 방식의 전환: 소프트웨어를 만들고 실행하는 방식 자체가 바뀌며, 컴퓨터 산업의 5계층 스택 전체가 재발명된다.

여기서 그는 아주 공격적인 관점을 던집니다. 소프트웨어 개발은 “코딩”에서 “학습”으로 전환되었고, 소프트웨어는 CPU가 아니라 GPU에서 실행되며, 미리 컴파일된 정적 결과물이 아니라 문맥을 이해해 매번 새롭게 생성되는 방향으로 가고 있다는 것입니다.

또 하나의 큰 배경은 시장 규모입니다. 지난 10년간 구축된 약 10조 달러 규모의 컴퓨팅 인프라가 AI 방식으로 현대화되고, 100조 달러 규모의 산업이 R&D 예산을 AI로 이동하는 흐름이 만들어지고 있다는 언급은, 이번 전환이 “일시적 트렌드”가 아니라 자본과 산업 구조의 이동이라는 점을 강조합니다.

CES 2026 엔비디아

2) 2025년의 교훈: 스케일링 법칙과 ‘추론(Reasoning)’의 시대

AI 발전의 핵심으로 그는 다시 스케일링 법칙(Scaling Laws)을 꺼냅니다. BERT(2015), 트랜스포머(2017), 그리고 2022년의 “ChatGPT 모멘트”를 거쳐, 2023년에는 추론 모델의 등장으로 혁명이 시작됐다고 설명합니다.

여기서 중요한 전환점이 “테스트 타임 스케일링(Test-time Scaling)”입니다. 모델을 단순히 사전 학습시키는 것을 넘어, 강화학습 기반의 사후 훈련으로 기술을 숙달하게 하고, 실제 사용 시점에 “실시간으로 사고하는(Thinking)” 단계로 넘어갔다는 진단입니다.

그리고 2024년부터 확산되기 시작한 것이 에이전틱 시스템(Agentic Systems)입니다. 이 시스템은 단순 답변이 아니라,

  • 추론(Reasoning)
  • 정보 탐색(Search)
  • 도구 사용(Tools)
  • 미래 계획(Planning)
  • 결과 시뮬레이션(Simulation)

을 결합해 중요한 난제를 해결하는 형태로 진화합니다.

그는 “정보의 형태”가 LLM에만 국한되지 않는다고 강조하며, 특히 Physical AI를 가장 큰 분야 중 하나로 지목합니다. 물리적 AI는 “세상과 상호작용하는 AI”, 그리고 AI 물리학은 “물리 법칙 자체를 이해하는 AI”라는 구분까지 제시합니다.


3) 오픈 모델의 폭발적 성장과 엔비디아의 기여: 모델만이 아니라 ‘데이터’도 연다

젠슨 황은 오픈 모델(Open Models)의 발전이 AI를 모든 곳으로 확산시키고 있다고 말합니다. 2023년은 오픈 모델이 도약한 해였고, 딥시크(DeepSeek)의 추론 시스템 R1이 이 흐름을 촉발시켰다는 맥락이 포함됩니다. 오픈 모델은 프론티어 모델 대비 약 6개월 뒤처지지만, 빠르게 발전하며 다운로드가 폭발한다는 설명입니다.

여기서 엔비디아의 포지셔닝은 명확합니다. 엔비디아는 DGX 클라우드를 운영하며 오픈 모델을 개발하고, 다양한 도메인에서 프론티어 수준의 모델까지 연구한다. 그리고 중요한 차별점으로 모델뿐 아니라 학습 데이터까지 오픈소스로 공개한다는 메시지를 강조합니다.

연설에서 언급된 주요 모델 라인업은 다음과 같습니다.

  • 디지털 생물학: La Proteina(단백질 합성), OpenFold3(구조 이해), Evo2(이해·생성)
  • 물리 법칙/기상: Earth‑2, ForecastNet, CorDiff
  • LLM: Nemotron(하이브리드 트랜스포머 SSM), Nemotron‑3
  • 월드 파운데이션 모델: Cosmos(세상이 작동하는 방식 이해)
  • 로보틱스: Groot(휴머노이드), AlphaMayo(자율주행 자동차)

또한 NeMo 라이브러리를 통해 데이터 처리→학습→생성→평가→배포까지 AI 수명 주기 전체를 지원하는 오픈소스 제품군을 제공한다고 설명합니다.

이 파트에서 반복되는 핵심 문장은 사실상 이것입니다. 모든 기업·산업·국가가 AI 혁명에 참여할 수 있도록, 엔비디아는 ‘완전히 개방적인 방식’으로 플랫폼을 구축한다.

젠슨 황의 CES 2026 엔비디아

4) Agentic AI(에이전틱 AI): “환각”을 줄이는 길은 ‘조사·도구·계획’이다

젠슨 황은 AI의 환각(hallucination)이 발생하는 이유를 “현재와 미래를 알지 못하기 때문”이라고 규정합니다. 따라서 답변을 생성하기 전에 AI에게 필요한 것은,

  • 조사(Research)
  • 도구 사용(Tool use)
  • 문제를 단계별로 분해(Decomposition)
  • 검색과 계획(Search & Planning)

같은 추론 기반 프로세스이며, 이 능력이 결합될 때 “학습되지 않은 일도 수행하는 절차”를 설계할 수 있다고 말합니다. 또한 그는 미래의 AI가 반드시 멀티모달이자 멀티모델이어야 한다고 강조합니다.

  • 멀티모달: 음성, 이미지, 텍스트, 비디오, 3D 그래픽, 단백질 구조까지 이해
  • 멀티모델: 작업에 가장 적합한 “전 세계의 뛰어난 모델”을 선택해 활용

그리고 AI는 필연적으로 멀티클라우드/하이브리드 환경에 존재해야 합니다. 모델은 서로 다른 장소(엣지, 무선 기지국, 기업 내부, 병원 등)에 있고, 데이터는 실시간 처리가 필요한 곳에서 처리되어야 하기 때문입니다.

이 구조를 가능하게 하는 핵심 구성요소가 바로 스마트 라우터입니다. 프롬프트 의도를 파악해 “가장 적합한 모델”을 결정하는 관리자 역할을 수행하며, 이를 통해 다음 두 가지를 동시에 만족시키는 아키텍처가 완성됩니다.

  • 완벽히 커스터마이징 가능한 AI(고유 기술·영업비밀 학습)
  • 항상 최전선(frontier)에 있는 AI(최신 기술 즉시 활용)

엔비디아는 이 프레임워크를 Blueprint라고 부릅니다. 데모에서는 DGX Spark를 개인 클라우드로 전환하고, 로컬 오픈 모델(예: 이메일 관리)과 프론티어 모델(다른 고난도 작업)을 의도 기반 모델 라우터로 연결해 개인 비서를 구축하는 과정을 보여주었다고 정리됩니다.


5) 엔터프라이즈의 미래: 엑셀과 명령어가 사라지는 UI 전환

젠슨 황은 에이전틱 AI 프레임워크가 이미 주요 엔터프라이즈 플랫폼 기업들과 통합되고 있다고 말합니다.

  • Palantir: AI 및 데이터 처리 플랫폼 통합/가속
  • ServiceNow: 고객·직원 서비스 플랫폼
  • Snowflake: 클라우드 데이터 플랫폼
  • NetApp: 시맨틱 AI 및 에이전틱 시스템 기반 고객 서비스

그리고 결론을 이렇게 내립니다. 미래 플랫폼의 UI는 엑셀 시트나 명령어 입력이 아니라, 에이전틱 시스템 자체가 될 것이다. 사람과 대화하듯 멀티모달 정보 처리를 수행하는 “단순한 상호작용”이 인터페이스의 표준이 된다는 주장입니다.


6) Physical AI의 본질: 상식을 ‘학습’시키는 월드 파운데이션 모델 Cosmos

물리적 AI에서 가장 어려운 과제는, AI가 물리 세계의 “상식”을 이해하도록 만드는 것입니다.
대상 영속성, 인과관계, 마찰, 중력, 관성 같은 “세상이 돌아가는 이치”를 배워야 한다는 설명이 이어집니다.

이를 위해 엔비디아는 물리적 AI 시스템 구축에 세 종류의 컴퓨터가 필요하다고 정리합니다.

  1. 학습용 컴퓨터: 모델 학습(엔비디아가 구축)
  2. 런타임 추론용 컴퓨터: 자동차·로봇·엣지에서 실행되는 로보틱스 컴퓨터
  3. 시뮬레이션용 컴퓨터: 행동 결과 평가 및 시뮬레이션

이때 시뮬레이션의 중심 플랫폼이 Omniverse(디지털 트윈이자 물리 기반 시뮬레이션 세계)이며, 월드 파운데이션 모델이 Cosmos입니다. Cosmos는 “언어가 아닌 물리 세계를 위한” 월드 모델로 소개됩니다.

여기서 데이터 문제가 등장합니다. 현실 데이터는 부족하기 때문에, 물리 기반 시뮬레이션을 활용한 합성 데이터 생성(Synthetic Data Generation)이 혁신의 핵심이 됩니다.

Cosmos는 교통 시뮬레이터 출력값을 입력받아 물리적으로 타당한 고품질 서라운드 비디오를 생성하며, 인터넷 규모의 비디오·실제 주행/로보틱스 데이터·3D 시뮬레이션을 통해 사전 학습되었다고 설명됩니다. 또한 언어·이미지·3D·행동(Action)을 통합적으로 이해하고, 단일 이미지로부터 생성/추론/궤적 예측까지 수행할 수 있다고 제시됩니다.

핵심은 개발자가 Cosmos 내에서 폐쇄 루프(closed‑loop) 시뮬레이션을 실행하며, AI가 롱테일(long‑tail) 예외 상황을 학습하도록 돕는다는 점입니다.


7) 사고하고 설명하는 자율주행 ‘AlphaMayo’: 벤츠와 함께 여는 레벨4 로드맵

AlphaMayo는 “세계 최초의 사고하고 추론하는 자율주행 AI”로 소개됩니다. 카메라 입력부터 실제 구동 출력까지 엔드투엔드(end‑to‑end)로 학습되었고, 학습 데이터는

  • 실제 주행 데이터
  • 인간 운전 시연 데이터
  • Cosmos가 생성한 방대한 주행 데이터

의 조합이라고 정리됩니다.

AlphaMayo의 차별점으로 연설에서 강조된 포인트는 다음입니다.

  • 단순히 조작(control)하는 것을 넘어 행동을 추론하고
  • 결정 이유를 설명하며
  • 이동 경로를 제시한다
  • 인간 시연 기반 학습으로 운전이 매우 자연스럽다
  • 복잡한 롱테일 상황을 “평범한 작은 시나리오들”로 분해해 추론·해결한다

또한 자율주행 AI는 5계층 스택으로 구성된다고 설명합니다.

  • (하단) 자동차
  • 칩(GPU·네트워킹·CPU)
  • 인프라(Omniverse, Cosmos)
  • 모델(AlphaMayo)
  • (상단) 애플리케이션(메르세데스‑벤츠)

엔비디아는 AlphaMayo를 오픈소스로 공개하며 벤츠와 풀스택 프로젝트를 진행했다고 언급합니다.

출시 로드맵도 구체적으로 제시됩니다. 엔비디아 기술이 탑재된 첫 자율주행차는 2026년 1분기 미국, 2분기 유럽, 3~4분기 아시아 출시 예정이라는 일정이 포함됩니다.

안전성 전략은 “이중 스택”입니다.

    1. 엔드투엔드로 학습된 AlphaMayo 스택
    1. 안전 가드레일 역할의 클래식 AV 스택

안전 정책 평가자가 AlphaMayo에 확신이 없다고 판단하면, 더 단순하고 확실한 클래식 스택으로 전환하는 구조입니다. 그는 자율주행이 “최초의 대규모 주류 물리적 AI 시장”이 될 것이며, 향후 10년 내 비자율주행에서 자율주행으로의 변곡점이 온다고 확신합니다.


8) 로보틱스와 산업의 융합: 로봇은 ‘컴퓨터 안에서’ 설계되고, 공장은 ‘거대한 로봇’이 된다

자율주행에 쓰인 기본 기술(세 대의 컴퓨터, 합성 데이터, 시뮬레이션)은 모든 로봇 시스템에 적용된다고 정리됩니다. 엔비디아의 로봇 시뮬레이터는 Isaac, 로봇 학습 공간은 Omniverse입니다.

흥미로운 부분은 “AI 물리학이 엔비디아를 있게 한 산업(설계·생산 산업)을 다시 혁신한다”는 주장입니다.

  • Cadence는 CUDA‑X를 시뮬레이션과 솔버에 통합
  • Synopsys·Cadence는 칩 설계를 넘어 시스템 설계·시뮬레이션 영역으로 확장
  • 미래에는 칩과 시스템 전체가 해당 환경에서 설계·에뮬레이션·시뮬레이션될 것
  • 엔비디아는 Siemens와 협력해 CUDA‑X 물리적 AI, 에이전틱 AI, NeMo, Nemotron을 지멘스 세계에 통합

이 흐름의 종착점은 “에이전틱 칩 설계자”와 “에이전틱 시스템 설계자”가 설계를 돕고, 로봇은 컴퓨터 안에서 설계되며, 로봇을 생산할 플랜트/공장 자체가 본질적으로 거대한 로봇이 되는 미래입니다.


9) 차세대 슈퍼칩 ‘Vera Rubin’: 무어의 법칙 이후를 위한 Extreme Co‑design

젠슨 황은 컴퓨팅 수요 폭발을 아주 직설적으로 수치화합니다.

  • 모델 규모는 매년 10배씩 커지고
  • 추론이 “사고”가 되면서 강화학습을 위한 컴퓨팅이 기하급수적으로 증가
  • 테스트 타임 스케일링으로 생성되는 토큰 수는 매년 5배 증가
  • 경쟁 심화로 토큰 비용은 매년 약 10배 감소 압력

따라서 엔비디아는 “매년 컴퓨팅 최첨단을 발전”시키기로 결정했고, 그 결과물이 차세대 슈퍼칩(정확히는 슈퍼칩+시스템) Vera Rubin입니다. 이름은 암흑 물질을 발견한 천문학자 베라 루빈에서 따왔다는 설명이 포함됩니다.

핵심 개념은 극한의 공동 설계(Extreme Co‑design)입니다. Vera Rubin은 단일 칩이 아니라 6개의 칩이 하나처럼 작동하도록 엔지니어링된 시스템입니다.

  • Vera CPU: 맞춤형 설계 CPU, 이전 세대 대비 2배 성능(전력 제약 환경에서도 와트당 2배)
    • 88개 물리 코어
    • 공간 멀티스레딩으로 176 스레드가 온전한 성능 발휘
  • Rubin GPU: Vera와 양방향 일관 데이터 공유하도록 공동 설계
    • 부동소수점 연산 성능이 Blackwell의 5배
    • 트랜지스터 수 증가는 1.6배에 그침
    • 성능 도약의 핵심 기술: NVFP4 텐서 코어(정밀도·구조를 하드웨어에서 동적으로/적응형으로 조정)

또한 Vera Rubin 컴퓨트 보드는 이전 세대의 5배인 100 페타플롭스 AI 성능을 제공한다고 정리됩니다.


10) 인프라 혁신: 100% 수냉식 랙, AI 전용 이더넷(Spectrum‑X), NVLink 6세대

Vera Rubin은 칩 혁신만으로 완성되지 않습니다. 인프라도 함께 “극한의 공동 설계”로 재설계됩니다.

DGX 섀시의 재설계

  • 케이블: 43개 → 0개
  • 튜브: 6개 → 2개
  • 조립 시간: 2시간 → 5분
  • 냉각: 80% 액체 냉각 → 100% 액체 냉각

AI 전용 이더넷: Spectrum‑X

AI 트래픽은 동서(East‑West) 트래픽이 매우 집약적이고 극도로 낮은 지연시간을 요구합니다. 그래서 엔비디아는 AI 전용 이더넷인 Spectrum‑X를 제시합니다.

또한 “데이터센터 경제성” 관점의 예시가 나옵니다. 기가와트급(약 500억 달러 규모) 데이터 센터에서 네트워킹 효율을 10%만 높여도 50억 달러 가치가 있는데, Spectrum‑X가 처리량을 25%까지 높여준다는 논리입니다.

NVLink 6세대 스위치와 스케일업

  • 18개의 컴퓨트 노드를 연결해 72개의 Rubin GPU가 하나처럼 작동하도록 확장
  • 스위치 처리 성능: 초당 400Gbps급 처리, 모든 GPU가 동시에 모든 GPU와 통신
  • 랙 백플레인의 처리량: 초당 240TB(전 세계 인터넷 트래픽 약 100TB/s의 2배 이상이라는 비유 포함)

45℃ 냉각수: ‘칠러 없는’ 효율성

Vera Rubin 랙은 전력 소모가 이전 세대 대비 두 배이지만, 유입 냉각수 온도는 45℃로 동일하다고 정리됩니다. 45℃ 냉각수는 별도의 냉각기(chiller)가 필요 없어 효율적이며, 에너지 최적화의 핵심 포인트로 강조됩니다.

또한 TSMC와 공동 혁신한 CoWoS 공정으로 실리콘 포토닉스가 칩에 직접 통합되어, 200Gbps 속도의 512포트를 지원하는 Spectrum‑X 이더넷 AI 스위치가 가능해졌다는 설명도 포함됩니다.


11) 메모리 병목 해소: KV 캐시, 랙 내부 초고속 스토리지, BlueField‑4

젠슨 황은 추론 시대의 새로운 병목을 컨텍스트 메모리(KV 캐시)로 규정합니다.

  • 토큰을 생성할 때마다 GPU는 모델 전체와 KV 캐시 전체를 읽고, 생성 토큰을 다시 KV 캐시에 저장
  • 대화가 길어지고 모델이 커질수록 컨텍스트 메모리가 폭증
  • HBM이나 고속 컨텍스트 메모리만으로 감당이 어려워짐
  • 외부 스토리지로 나가면 네트워크가 느려져 병목이 심해짐

그래서 등장하는 해법이 BlueField‑4입니다.
BlueField‑4를 통해 랙 내부에 매우 빠른 KV 캐시 컨텍스트 메모리 저장소를 두어, 대규모 토큰 생성을 수행하는 AI 연구소/클라우드 사업자의 네트워크 트래픽 고충을 해결하는 혁명적 아이디어라고 설명합니다.

연설에서 제시된 구조는 다음과 같습니다.

  • GPU당 추가 16TB 메모리 확보
  • 각 컴퓨트 노드 뒤에 BlueField 4개 장착
  • 각 BlueField 뒤에 50TB 컨텍스트 메모리 저장
  • GPU는 동서 트래픽과 동일한 200Gbps 속도로 추가 메모리에 접근

여기에 보안·운영 안정성 요소가 더해집니다.

  • 기밀 컴퓨팅(Confidential Computing): 전송/저장/연산 중 데이터 암호화, PCIe·NVLink 버스 통신 암호화로 모델 노출 방지
  • 전력 평활화(Power Smoothing): 올 리듀스(all‑reduce) 단계에서 최대 25% 치솟는 순간 전력 급증을 평활화해 과도한 전력 프로비저닝/낭비 없이 전력 예산을 꽉 채워 쓰게 함

12) 압도적 성능과 비용: 무어의 법칙을 넘어선 ‘경제성’이 핵심이다

젠슨 황은 성능 자체보다 경제성을 더 날카롭게 강조합니다. AI는 “더 빨리 학습할수록 다음 프론티어에 더 빨리 도달”하고, 그 속도가 기술 리더십과 가격 경쟁력으로 이어지기 때문입니다.

연설에서 제시된 핵심 수치들은 다음과 같습니다.

  • 10조(Trillion) 파라미터 모델 학습: Rubin 시스템은 Blackwell 시스템의 4분의 1만 있어도 1개월 내 학습 가능
  • 팩토리 처리량(Factory Throughput): Rubin은 Blackwell 대비 약 10배
  • 토큰 생성 비용: Rubin은 Blackwell 대비 약 10분의 1

정리하면 엔비디아는 칩→인프라→모델→애플리케이션에 이르는 AI 풀스택(Full Stack)을 구축하고 있으며, 임무는 “전 세계가 놀라운 애플리케이션을 만들 수 있도록 이 전체 스택을 제공하는 것”이라고 마무리합니다.


13) 내 비즈니스에 적용하는 실전 체크포인트

이번 키노트에서 실무자가 가져갈 인사이트는 “기술 트렌드”가 아니라, 다음 1~3년의 아키텍처 의사결정 기준입니다.

1) AI 도입의 기본 단위는 ‘모델’이 아니라 ‘에이전트(Agent)’로 이동

  • 단일 챗봇 도입보다, 업무를 쪼개서 실행하는 에이전틱 시스템이 UI가 됩니다.
  • 내부 데이터/보안 요구가 있으면 로컬(온프렘/프라이빗) 모델과 프론티어 모델을 라우팅하는 구조가 필수입니다.

2) 멀티모델 라우팅은 “비용”과 “품질”을 동시에 잡는 설계

  • 모든 요청을 비싼 최전선 모델에 보내지 않고, 의도 기반으로 최적 모델을 선택하는 것이 토큰 비용을 지배합니다.
  • “커스터마이징 AI”와 “최신 AI”를 동시에 가져가려면, 라우터/정책/관찰가능성(로그·평가)이 필요합니다.

3) Physical AI를 하려면 시뮬레이션·합성 데이터가 ‘필수 인프라’

  • 자율주행·로보틱스·제조 최적화는 현실 데이터만으로는 부족합니다.
  • 디지털 트윈(Omniverse) + 월드 모델(Cosmos) + 폐쇄 루프 시뮬레이션이 경쟁력의 핵심이 됩니다.

4) AI 인프라는 이제 “수냉 + 네트워크 + 메모리”가 함께 설계되어야 한다

  • 100% 수냉식, AI 전용 이더넷(Spectrum‑X), BlueField‑4 기반 랙 내 컨텍스트 스토어 같은 구조는
    단순 서버 구매가 아니라 데이터센터 설계/운영 모델 자체를 바꿉니다.

5) 보안은 ‘옵션’이 아니라 ‘요금표’에 직접 연결되는 기본값

  • 기밀 컴퓨팅, 멀티테넌시 분리, 버스 암호화 같은 설계는 엔터프라이즈가 AI를 “외부 유출 걱정 없이” 쓰게 만드는 전제 조건입니다.

이번 젠슨 황의 CES 2026 엔비디아 키노트를 보면서 구글, AMD 등의 도전이 GPU 자체로는 계속되겠지만 한번 시작된 엔비디아의 아성을 위협하기에는 어렵겠다는 생각입니다. 한 마디로 이 동네의 최고 강자는 자신들이다라는 것을 다시 한번 선언하듯 자신들의 키노트 이외에도 다른 기업들의 여러 컨퍼런스에도 등장하면서 생태계를 공고히 한 모습이었습니다. 이에 올해 CES 2026의 주인공 기업 하나를 꼽는다면 저는 엔비디아를 선택할 것 같습니다.

AX 100배의 법칙
AX 100배의 법칙
– 나와 조직의 능력을 100배 높이는 AI 경영의 실제

도서 구매

함께 읽으면 좋은 글:

디지털 트랜스포메이션: 조직의 습관을 바꾸는 일, 도서 구매

. .